(Pixel Breite * Pixel Höhe) * Datentiefe * Frames = X MB
Man bekommt gewöhnlich in einer Aufgabe für die Berechnung von digitalen Videodaten die Höhe und die Breite des Videoformats gegeben, dazu die Dauer des Videos und die Anzahl der Frames pro Sekunde. Wie die Farbtiefe an einem Monitor (RGB) ist muss ich glaube ich nicht weiter erwähnen.
Ein digitales Video von 720 Pixeln Höhe und 576 Pixeln Breite und einer Dauer von 3 Minuten und 10 Sekunden liegt unkomprimiert vor. Die Framerate ist 25 f/s. Wie hoch ist die Datenmenge?
Bildschirme sind im RGB-Modus = 24 bit oder 3 byte
3 Minuten und 10 Sekunden entsprechen 190s.
Pro Sekunde haben wir 25 Frames, ergo 25 * 190 = 4750 Frames
Ein Frame hat 720 * 576 Pixel. Das sind 414720 Pixel.
Zusammengesetzt wäre also die Rechnung nun:
(414720 * 24 * 4750) : 8 * 1024 * 1024 = X MB
47.278.080.000 : 8388608 = ca. 5635,99 MB : 1024 = ca. 5,5 GB
Es könnte sein, dass die ZFA davon ausgeht, dass unsereins weiß, was die PAL Norm ist, was HDV ist und was Full-HD ist (Immerhin wollen die uns ja auch über Videosignale ausquetschen.).
PAL (Phase Alternating Lines): 720 * 576 Pixel (4 : 3)
HDV (High Definition Video): 1280 * 720 Pixel oder 1440 * 1080 Pixel
Full-HD (Full High Definition Video): 1920 * 1080 Pixel
Wie gesagt kann das sein, zu erwarten ist es allerdings nicht. Wäre natürlich trotzdem nicht schlecht, wenn man es weiß, denn im zweiten Prüfungsteil kommt das Thema sowieso dran. =)
Wie immer möge man mir Fehler mitteilen und/oder korrigieren oder Fehlendes einfach ergänzen. =)
Video-Formate:
Technisches:
Formel zur Berechnung der Bilddatenmenge:
Kanalzahl:
Anhang | Größe |
---|---|
HD-Video.pdf | 175.58 KB |
Videodaten
Datenmenge eines Videos hängt von mehreren Faktoren ab:
- Bildformat und -auflösung sowie der Fernsehnorm(4:3-PAL = 720x576px; 16:9-HDTV z.B. 1440x1880px; Internet z.B. 360x288px)
- Farbtiefe in Bit
- Bildwiederholfrequenz(Framerate) wird ebenfalls durch gewählte Fernsehnorm vorgegeben – bei PAL und HDTV 25 Vollbilder pro Sekunde (Hz)
- Gesamtlänge des Videos in s
- Codec zur Reduktion der Datenmenge
- Audioanteil
- Berechnung der Datenmenge:
B x H x fv x F x t
D = ---------------------- [MB]
8 x 1024 x 1024
B=Breite in px, H=Höhe in px, fv=Bildwiederholfrequenz in Hz, F=Farbtiefe in Bit, T=Gesamtlänge in s
- mit unkrompimierten Videos kann in der Praxis nicht gearbeitet werden
- absolute Datenmenge spielt eine untergeordnete Rolle
- für Wiedergabe des Videosignals von CD, DVD, oder Blue-ray oder Streaming im Internet ist die Angabe des Datenstroms von größerer Bedeutung(Datenmenge, die jede Sekunde des unkomprimierten Videos liefert)
- Berechnung des Datenstroms:
B x H x fv x F
d = ------------------ [Mbps]
1000 x 1000*) Datenraten werden mit k=1000 und M=1.000.000 gerechnet
- Videos auf DVDs werden mit 4-8MBit/s abgespeichert
- Bei Video Streaming muss die Datenrate deutlich reduziert sein z.B. 500kBit/s
Ich habe eine Zusammenfassung zu diesem Thema geschrieben. Vielleicht ist es für Euch interessant.
Hallo,
ich hoffe, dass ich hier mit meinem Anliegen richtig bin...
Momentan lerne ich mit dem Kompendium der Mediengestaltung (4. Auflage) Produktion und Technik.
Zum Themenbereich "Datenmenge berechnen" finde ich aber jedoch weder im Stichwortverzeichnis
noch in den Kapiteln eine aussagekräftige Zusammenfassung.
Ich habe mit diesem Bereich schon in der Schule Probleme gehabt, weshalb ich das alles nochmal durchlernen und eben mit besagter Zusammenfassung beginnen möchte.
Habe ich das Themengebiet nur übersehen oder ist es wirklich nicht im Kompendium vorhanden? Wenn letzteres zutreffen sollte, kann mir jemand gute Links (oder Literatur) dazu empfehlen? Sollte es doch vorhanden sein, wäre ich über die Nennung der betreffenden Seiten sehr dankbar.
Grüße,
fresh_44
Ich habe hier mal eine PDF da habe ich die Sachen die ich zu Datenmenge gefunden habe zusammengefasst mit Beispielen. Meint ihr das reicht? Oder gehört da noch mehr zu?
Anhang | Größe |
---|---|
U1 Datenmengen berechnen.pdf | 423.01 KB |
Sehr häufig wird im Rahmen von Datenmengenberechnungen gefordert an Hand der Pixelangaben einer Digitalkamera die Datengröße eines Bildes zu berechnen.
Datenmenge (in MB) = b x h x d bits
8(bits / Byte)x1024(Bytes / KB)x1024(KB /MB)
b = Breite des Bildes in pixel
h = Höhe des Bildes in pixel
d = Datentiefe
Die Berechnung setzt sich aus folgenden Teilen zusammen:
t(Minuten) x 60s(Umrechnung in Sekunden) x 8 Bit oder 16 Bit x Mono(1-Kanal) oder Stereo(2-Kanäle) x Hz = Datenmenge
Zur Erklärung:
11,025 KiloHertz (schlechte Quali)
22,5 kHz (Kassettenradio)
44,1 kHz (CD)
48 kHz (DVD)
96 kHz (Studioqualität)
Hier noch eine Beispielrechnung:
Welche Datenmenge ergibt sich bei 15 Minuten Sprachaufnahme mit folgenden Parametern: 16 Bit, Stereo, 22,05 kHz?
Lösung:
15 x 60s x 2 Byte x 2 x 22050 Hz = 79380000 Byte = 75,70 MB
Es gibt auch Rechnungen mit vorgegebenem Datenspeicherplatz und man muss eine bestimmte Zeit unterbringen.
Beispiel: Auf einer CD stehen für die Sounds 70 MB zur Verfügung. Schlagen Sie geeignete Aufnahmeparameter vor, wenn Sie 15 Min. Musik zu verarbeiten haben.
Nun probiert man mit verschiedenen Parameter rum, bis man unter oder bis zur vorhandenen Grenze an Datenmenge kommt.
Lösung:
15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 44100 Hz = 151,41 MB > 70 MB --> zu groß
15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 22500 Hz = 77,25 MB > 70 MB --> zu groß
15 x 60s x 2Byte(16 Bit) x 1(Mono) x 22500 Hz = 38,62 MB <70 MB --> passt
Die Videokomprimierung
Das wichtigste bei der Digitalen Videoaufnahme und Speicherung ist die Komprimierung ohne die wären
Videodateien sogar zu groß um auf eine DVD zu passen. Eine Stunde unkomprimiertes Video wären über
75 Gigabyte groß. Und um das zu verhindern benutzt man Video Decoder die Videos verkleinern z.B.
mpeg 1 bis 4 hier werden Bewegungen nicht in Aufnahmequalität dargestellt sondern stärker gepixelt und
dadurch wird die Datei kleiner. Ein Videostandart "Phase Alternation Line" kurz PAL ist 25 Bilder pro
Sekunde und einer Auflösung von 768*576 das entspricht einer Datenübertragung von 21 MB pro
Sekunde. Da sich aber nicht auf jedem dieser Bilder alles bewegt, sondern Stellen im Film gleich bleiben,
wir bei der Komprimierung der Unterschied der Pixel vom vorigen Bild genommen und nur die
unterschiede abgespeichert so werden ganze 97 Prozent überflüssige Daten gelöscht. Würde man einen 1
Stündigen Film nicht so Komprimieren hätte man 90000 Einzelbilder die fast alle den gleichen
Speicherplatz verbrauchen. Im durchschnitt wäre dann ein Bild 900 KB groß und die Anzahl der
Einzelbilder mal die Große von einem Bild ergibt die ungefähre große eines unkomprimiertem Video, hier
wären das 81000000 KB oder 80 GB. Zu diesen angaben kommen jeweils noch 500 MB Tondaten hinzu.
Neben der Norm PAL mit 768*576 Bildpunkten gibt es auch noch die Norm "Nation Television Systems
Committee" kurz NTSC die in Amerika benutzt wird, hier sind es nur 640 mal 480 Bildpunkte aber 29,97
Bilder pro Sekunde und somit liegt die Datenübertragung nur bei 17,6 MB pro Sekunde.
Um nun einen solchen Film auf eine DVD oder CD zu bekommen muss man in komprimieren. Dafür gibt
es zwei Möglichkeiten:
1. der MPEG Standard der für die DVDs benutzt wird, mit der Dateiendung ....mpeg.
2. DivX mit der Dateiendung ....avi, den Privat Benutzer für eigene Videos benutzen und diese dann auf
CDs brennen.
Auf einer DVD mit dem NTSC Format wird der Ton in dem Format AC-3 komprimiert, das ist ein Dolby
Digital Surround Sound System. Bei PAL Formaten wird der MPEG-2 Audio Komprimierungsstandard
benutzt.
Um eine eigene Video-CD zu erstellen muss man den MPEG Standard benutzen, damit ein DVD-Spieler
diese auch abspielen kann. Man kann zwischen Video-CD (VCD) mit einer maximalen Auflösung von
320*200 oder Super Video CD (SVCD) mit einer Auflösung über 640*480 wählen, bei VCD kann man
nur den MPEG-1 Standard benutzen und bei SVCD nur den MPEG-2 Standard.
Bei der Videokomprimierung ist die Datenrate wichtig, mit einer hohen Datenrate muss das Video nicht
start Komprimiert werden, die Videodatei fällt größer aus. Bei einer kleineren Datenrate Muss das Video
stärker komprimiert werden, die Videodatei wird kleiner. Bei Videos die man selber aufnimmt kann man
diese Datenrate bestimmen. Bei einer Datenrate von 3000 Kilobit pro Sekunde und einer mp3
Audiokomprimierung kann man eine Stunde Video mit einer Auflösung von 640*460 auf eine CD
brennen.
In der Videokomprimierung ist der MPEG ein Guter Standart Decoder der am meisten benutzt wird, trotz
das er noch einige Mängel hat, MPEG steht für "Moving Picture Experts Group". Das ist eine
Internationale Gruppe von Experten, die sich mit der Speicherung von Videos- und Audiodaten
beschäftigt, die Gruppe wurde 1988 gegründet. Die entwickelten Standards für die Verschlüsselung von
audio-visuellen Informationen als digital komprimierte Daten werden ebenfalls MPEG-Standart genannt.
Die Vorteile von MPEG ist das es durch sehr gute Kompressionsverfahren sehr viele kleine Dateien
erzeugt, ohne dabei die Qualität zu beeinflussen.
Es gibt verschiedene MPEG-Standards MPEG-1,MPEG-2 und MPEG-4. Ein MPEG-3 Standard wurde
ursprünglich angestrebt, es stellte sich aber heraus das die Bilder eben so gut waren wie mit dem MPEG-2
Standart.
MPEG-1
Der MPEG-1 Standart besteht aus 5 Abschnitten: System, Video, Audio, Conference Testing und
Software Simulation.
System:
Hier wird das Problem beseitigt das Bild und Ton zusammen passen. Erreicht wird es dadurch, dass die
verschiedenen Datenströme (Video und Audio) Zeitmarken erhalten, die es ermöglichen, sie zu
synchronisieren.
Video:
Verschiedene Techniken sorgen für eine hohe Kompressionsrate. Als erstes wird eine angemessene
räumliche Aufteilung des Bildes vorgenommen. Es werden in aufeinanderfolgenden Bildern die Blöcke
ausgewählt, die sich verändern. Diese Veränderungen werden kodiert und komprimiert gespeichert. So
muss nicht das gesamte Bild jeweils neu übertragen werden, sondern nur die Informationen über die
Veränderungen.
Audio:
In dem Teil der Spezifikation ist die Darstellung von Audio-Informationen festgelegt. Daher kommt auch
die Bezeichnung "MP3" für MPEG-Dateien, die nur Audiodaten enthalten. Sowohl Mono- als auch
Stereoaufnahmen können dadurch effizient gespeichert werden. Eins der Verfahren, wodurch die
Audiodaten stark komprimiert werden können, nimmt die Frequenzen, die außerhalb des für den
Menschen hörbaren Bereiches liegen, heraus und berücksichtigt beim Kodieren nur den Rest.
Conformance Testing:
Dieser Bereich ist nur für die Herausgeber von MPEG-1kodierten Videosequenzen und für Hersteller von
Software und Hardware für die Verschlüsselung interessant. Hier wird z.B. festgelegt das der Datenstrom
eine bestimmte vorgegebene Größe nicht überschreitet.
Software Simulation:
Beinhaltet einen Enkoder und einen Dekoder. Die Simulation war lediglich für interne Testzwecke des
MPEG-Komitees vorgesehen.
MPEG-2
Der MPEG-2 Standart ist eine Erweiterung und Anpassung des MPEG-1 Standards. Eine Erweiterung
deshalb, weil neue Eigenschaften und Fähigkeiten hinzugefügt wurden. Ziel der Entwicklung war den
MPEG-2 Standart mit dem Vorgänger so kompatibel zu machen, dass Abspielgeräte, die MPEG-2
unterstützen, auch MPEG-1 kodierte Daten abspielen können.
Der MPEG-2 Standart wurde 1994 anerkannt.
Auch der MPEG-2 Standart hat mehrere Abschnitte die sich aber vom MPEG-1 Standart nicht groß
unterscheiden.
System:
Der MPEG-2 Standart bietet wesentlich mehr Möglichkeiten als der MPEG-1 Standart. Dabei gibt es im
MPEG-2 Standart zwei Formen.
1-Der Program Stream
und
2-Der Transport Stream
Jeder dieser beiden formen ist für ihren jeweiligen Bestimmungszweck optimiert. Er ist die Kombination
eines oder mehrerer "Packetised Elementary Streams" kurz PES, die eine gemeinsamen Zeitbasis haben in
einem einzelenen Datenstrom. Diese Methode ist besonders gut geeignet für Umgebungen, in denen kaum
Übertragungsfehler auftreten.
Die zweite Form. Der "transport Stream" kombiniert mehrere PES mit einem oder verschiedenen
Zeitbasen. Einzelne Ströme mit gemeinsamen Zeitbasis formen ein Programm. Diese Methode ist gut
geeignt für die Speicherung oder Übertragung, wenn man mit einigen Datenverlusten rechen muss. Jedes
"Transport Stream" -Paket ist 188 Bytes lang.
Video:
Dieser Abschnitt stützt sich auf die starken Video-Komprimierungs-Fähigkeiten des MPEG-1 Standards.
Das "Multiview profil" kurz MVP wurde 1996 anerkannt und dem Standard nachträglich hinzugefügt.
MVP erlaubt es, mehrere Bilder in dem Datenstrom zu integrieren und, je nach Bedarf, übereinander zu
legen, oder dem Betrachter die Möglichkeit zu geben, zwischen verschiedenen Ansichten zu wählen. Es
ist auch damit möglich stereoskopische Bilder zu erzeugen.
Audio:
Die Audiokomprimierung verläuft genauso wie im MPEG-1 Standard.
MPEG-4
Der MPEG-4 Standart ist die neuste Entwicklung des MPEG-Komitees. MPEG-4 ermöglicht es dem
Anwender, mit der Szene zu interagieren, z.B. Objekte darin zu bewegen.
Videodateien mit der Endung AVI
AVI steht für "Audio Video Interleave" Audio/Videoformat von WINDOWS (Video für WINDOWS ).
"Audio Video Interleave" heißt nichts anderes, als dass Audio- und Videodaten ineinander verzahnt, also
"interleaved" abgespeichert werden. Die erste Definition von AVI ist so alt wie die Multimedia-PCs. Das
Format wurde von Microsoft als einheitliche Lösung für die Wiedergabe von kurzen Videoclips
geschaffen. Die ursprünglichen Festlegungen aus den Jahren 1992/93 lesen sich dabei fast vorsintflutlich:
15 Bilder pro Sekunde bei einer maximalen Auflösung von 160 x 120 Pixeln stellten damals die Obergrenze von AVI dar.
Im Gegensatz zu anderen damals üblichen Animationsformaten wurde bei AVI die sogenannte
Keyframe-Technik eingesetzt. Dabei wird lediglich jedes 12. bis 17. Bild (abhängig vom Bildinhalt) als
Vollbild gespeichert. Für die dazwischen liegenden Fames werden nur die Unterschiede zum jeweils
vorhergehenden Bild angegeben. Auch wenn diese ersten Definitionen alles andere als zukunftsträchtig
klingen, gelang dem AVI-Format doch sehr schnell ein beachtlicher Siegeszug. Ein Grund dafür ist
sicherlich die Tatsache, dass AVI als Bestandteil von "Video für Windows" bald fest mit Windows
verknüpft war. Die entsprechenden Treiber standen und stehen für Endbenutzer kostenlos zur Verfügung.
DivX
Mittels dieser Technologie lassen sich nämlich Videodateien so stark komprimieren, dass sie - auch
unautorisiert - relativ bequem über das Internet verschickt werden können. DivX basiert strukturell auf
dem MPEG-4 Video Standard und entsprechend kodierte Filme (in der Regel AVI-Dateien) können mit
Hilfe eines passenden Codes in gängigen Video-Bearbeitungs- und Wiedergabe-Programmen editiert und
angezeigt werden. Es gibt Codes für alle wichtigen Betriebssysteme wie Windows, Linux, MacOS und BEOS.
Mit DivX ist vermutlich die größte Hürde für die Videobearbeitung am PC genommen worden, denn mit
DivX steht ein ausreichend gutes Kompressionsverfahren zur Verfügung, um einen kompletten
MPEG-2-DVD-Film auf eine CD-R zu brennen, um einen Zwei-Stunden-Kinofilm in passabler Qualität
über normale CDs zu betrachten. Durch DivX kann die Dateigröße eines DVD-Films um das Zehn- bis
Zwölffache reduziert werden, so dass sich ein sechs Gigabyte großer Film auf relativ schlanke 700
Megabyte (und weniger) schrumpfen läßt. Die Qualität bleibt dabei deutlich über den VHS-Standard.
Die Erfinder von DivX behaupten, einen Microsoft-Codec für MPEG-4 geknackt zu haben. Darum ist der
DivX-Code auch Illegal. Microsofts erste Implementierung von MPEG-4 ist seit Windows 98 auf jedem
Windows-PC installiert und beschränkt die maximale Datenrate auf 256 Kilobit pro Sekunde. Für ein
ruckelfreies Video in ansprechender Qualität ist das zu wenig. Durch den Hack wurde die Erhöhung der
Bitrate auf bis zu 6000 Kilobit pro Sekunde möglich. Doch eine so hohe Bitrate ist gar nicht notwendig:
600 Kilobits pro Sekunde sind völlig ausreichend. Zudem wird vor der eigentlichen Frame-Codierung ein
Weichzeichner eingeschaltet. Dieser ist nötig, da MPEG-Verfahren bei hohen Kontrastsprüngen für ein
scharfes Bild mehr hochfrequente Signale und damit hohe Datenraten benötigen. Stehen diese nicht zur
Verfügung, entstehen im Bild unansehnliche Artefakte, denen der Weichzeichner entgegen wirkt.
Für die Weiterentwicklung von DivX will der französische Hacker Jérome Rota (alias Gej) verantwortlich
sein. Der nächste DivX-Nachfolger - "DivX Deux" - soll noch leistungsfähiger sein.
Dazu gesellen sich Entwickler, die an weiteren Video-Komprimierungsverfahren arbeiten. Besonders
erwähnenswert ist (Anfang 2001) z.B. "3ivX": Diese DivX-Weiterentwicklung soll bei bis zu 60%
höherer Kompression eine noch bessere Bildqualität zu erzielen.
Allerdings müssen DivX-Dateien immer mit der Version abgespielt werden, mit der sie komprimiert
wurden, da auch die neueren DivX-Codecs nicht mit ihren älteren Versionen kompatibel sind.
Mit DivX lassen sich übrigens nur die Bilder einer Videos bearbeiten - nicht jedoch der Ton. Dafür wird
meist das bewährte MP3-Format hinzugezogen. Es gibt bereits (Anfang 2001) einige Programme, die sich
DivX bedienen, um DVD-Filme in DivX-Dateien umzuwandeln. Ein weit verbreitetes heißt FlaskMPEG.
Der Grund für die Benutzung von DivX, bei den Meisten Anwendern, ist das dieser Decoder
Benutzerfreundlicher ist fast jedes Videobearbeitungsprogramm unterstützt DivX. Diese Möglichkeiten
bietet auch MPEG-1, was sich aber durch die schwächere Komprimierung nicht lohnt.
Bei der Codierung und Dekodierung Benötigt man noch sehr leistungsfähige PCs. Um sich ein DivX Codiertes Video anzugucken sollte man mindestens 20 Mhz haben. Um Videos zu codieren brauch man schon etwas Leistungsfähigeres, mit einer CPU von 800 Mhz kann man schon eigene Videos gestalten und aufnehmen. Der Nachteil ist das man bei 800 Mhz sehr lange warten muss bis es Gerändert ist (in ein anderes Format umgewandelt oder stärker komprimiert wird). Videoaufnahmen sind sehr abhängig von der Mhz Zahl, darum sollte man sich beim kauf eines neuen PC, um Videos vernünftig zu bearbeiten mindestens einen 1,6 Ghz getakteten PC kaufen. Da der PC sonst bei zu hohen Auflösungen Bilder in der Sekunde verliert oder Bild und Ton bei der fertigen Aufnahme Asinkron laufen.
Videofilme setzen sich aus einer Reihe einzelner Bilder zusammen. Ein einzelnes Bild des Films wird als Frame bezeichnet. Durch das Projizieren mehrerer Frames pro Sekunde wird der Eindruck bewegter Bilder erzeugt.
1. Videonormen
NTSC
Einführung: 1953 vom National Television System Comitee
Länder: USA und Kanada
Anmerkung: Führt bei Hauttönen zu Übertragungsfehlern
PAL (Phase Alternation Line)
Modifikation der NTSC-Norm
Einführung: 1962
Länder: Westeuropa (außer Frankreich)
SECAM
Einführung: 1957
Länder: Frankreich
Anmerkung: Dieses Verfahren weist bei extremen und schnellen Farbwechseln Flimmereffekte auf
2. Dateiformate
2.1. QuickTime
QuickTime ist eine Systemsoftware-Erweiterung und ermöglicht das Abspielen und Bearbeiten von digitalen Videofilmen und virtuellen Räumen (QTVR > Quick Time Virtuell Reality).
QuickTime arbeitet mit folgenden Softwarekomponenten:
3. Aufbau eines Digitalen Films
Filme haben zwei verschiedene Spuren oder Tracks: eine Videospur und eine Audiospur. QuickTime – Filme sind im Prinzip genauso aufgebaut, jedoch nicht auf zwei Spuren beschränkt. Sie können mehrere Spuren im Audio- und Videobereich haben.
Hinzu kommt eine Spur mit einer Zeitskala. Der Film wird über eine numerische Zeitskala gesteuert. Positive Zahlen bewirken einen normalen Vorlauf, negative Zahlen lassen den Film rückwärts laufen.
QuickTime – Filme haben ein eigenes Zeitkoordinatensystem.
Es beinhaltet eine Zeitskala und eine -dauer.
Der Component Manager steuert den Zeitablauf derart, dass die Filme auf verschiedenen Rechnersystemen immer in der richtigen Geschwindigkeit ablaufen.
4. Vorschau
Die Vorschau wird als Kontrolle des Schneidergebnisses genutzt. Eignet sich nicht zur Kontrolle komplexer Übergänge oder Animationen, da hier mit reduzierten Videospuren und einer veränderten Timebase gearbeitet wird.
5. Digitalisieren von Videomaterial
Hardwarevoraussetzungen: eine S-VHS-Videoquelle sowie eine Video Capture Card (Digitalisierungskarte)
Die Bildgröße, die Farbtiefe und die Framerate bestimmen die anfallende Datenmenge. Da es sich um sehr hohe Datenmengen handelt, ist es notwendig, die benötigten Datenmengen zu reduzieren.
Es gibt drei Möglichkeiten der Datenreduzierung:
6. Komprimierung
Unter Komprimierung versteht man den Vorgang des Entfernens oder Umstrukturierens von Daten mit dem Ziel, die Datei zu verkleinern.
Für das Komprimieren und Dekomprimieren von Videos werden Komprimierungsalgorithmen – oder auch Codecs genannt – benötigt. Codecs sind mit Plug-ins vergleichbar. Sie vergrößern den Funktionsumfang der Videoschnittsoftware.
Verschiedene Codecs:
Animation, Cinepak, Grafik, Video, MPEG
Diese Codecs verwenden verschiedene Methoden des Entfernens und Umstrukturierens der Daten.
6.1. Verlustfreie Komprimierungsmethoden
6.2. Verlustreiche Komprimierungsmethoden
6.3. Räumliche Komprimierung
Hierbei werden die Daten jedes einzelnen Frames komprimiert (immer verlustreich)
6.4. Zeitliche Komprimierung:
Hier werden die Daten durch Vergleich der einzelnen Bilder über einen Zeitraum komprimiert (weitäsgehend verlustfrei). Häufige Nebeneffekte: Verschwimmen, Streifen und Konturbildung im Film Beispiel: Framedifferenzierung
Es werden die Daten der Frames gespeichert, die Änderungen zum vorherigen Frame enthalten. Gut geeignet für Filme mit wenig Bewegung und hohen Anteilen n Wiederholungen von einem Frame zum nächsten.
6.5. JPEG-Bilddatenkompression
Wenn längere digitale Videosequenzen übertragen und gespeichert werden müssen, ist dies ohne Bilddatenkompression nicht möglich. Ohne eine Video-Digitalisierungskarte erfolgt die Kompression über Software-Codecs, welche die Komprimierung bzw. die Dekomprimierung mit Hilfe der CPU durchführen. Das Aufzeichnen von Videosequenzen in voller Bildgröße und -anzahl auf eine Festplatte ist mit einem Codec-Verfahren nicht machbar.
Mit einer Digitalisierungskarte ist dies möglich, da diese einen Komprimierungsprozessor für die Bilddatenkomprimierung zur Verfügung stellt.
Komprimierungsabfolge
Die JPEG-Kompression besteht aus den folgenden fünf Schritten:
1. Farbraumtransformation in YUV
2. Color-Subsampling 4:2:2
3. Einteilung in 8*8 Pixelblöcke und DCT
4. verlustbehaftete Quantisierung
5. Huffmancodierung (Lauflängencodierung)
Bei der Filmwiedergabe erfolgen die Schritte in umgekehrter Reihenfolge.
7. MPEG-Standards
MPEG steht für Motion Picture Expert Group. Dies ist der Ausschuss, welcher die Standards für die Komprimierung und Dekomprimierung von Digitalvideos festlegt.
Es gibt folgende Normen:
MPEG 1, -2, -4 und –7.
8. Datenmengenberechnung
(Formel nach Kompendium der Mediengestaltung, 4. Auflage)
B = Breite in Pixel
H = Höhe in Pixel
fv = Bildwiederholfrequenz in Hz
F = Farbtiefe in Bit
t = Gesamtlänge in Sekunden
Beispiel:
720 px * 576 px * 25 Hz * 24 bit * 60 s = 14929920000 bit |:8*1024*1024 = 1779,78 MB
Filmmontage bezeichnet das Zusammenfügen von Einstellungen, Szenen und Sequenzen zu einer erzählerischen Einheit.
Im Schnitt oder der Montage entsteht der eigentlich Flim. Die verschiedenen Bausteine eines Flims werden in der endgültigen Abfolge aneinder montiert.
Anleitung für das Wiki
In diesem Wiki könnt ihr gemeinsam Lerninhalte erstellen. Jedes Wiki ist direkt und für jeden angemeldeten User editierbar. Wenn bereits bei vorherigen Prüfungen Wikis zum Thema (manchmal auch nur Teilgebiete streifend) erstellt wurden, so werden sie unten verlinkt. Ansonsten einfach hier diesen Eintrag überschreiben und mit entsprechenden Inhalten füllen. Konkrete Aufgaben gemeinsam lösen oder besprechen könnt ihr zudem in der Lerngruppe.
https://mediencommunity.de/lerngruppe-mediengestalter-ap-sommer-2023
Viel Erfolg beim Lernen.
Das Team der mediencommunity
( ( Auflösung * Samplefrequenz * Kanäle) * Zeit ) : (8 * 1024 * 1024) = X Mebibyte
Die Auflösung bei digital vorliegenden Audiodaten ist entweder 8 bit oder 16 bit. (CD-Qualität = 16 bit) 8bit nimmt übrigens keiner, da die Qualität zu stark leidet bei der Audiodatei!
Die Samplefrequenz ist die Anzahl der gemessenen Signale pro Zeiteinheit. Gut, hilft jetzt auch nicht weiter. Diese Anzahl wird in Hertz (kHz = Kilohertz; 1 Hz = 1 Messung pro Sekunde) angegeben und liegt zwischen 12000 und 44100 hz (44kHz). Warum 44100 kHz? Weil zu dem doppelten Wert des oberen Endes des hörbaren Bereichs (22000 hz bzw. 22kHz * 2 = 44kHz) noch 10% hinzugerechnet werden.
Bei Audiodaten gibt es entweder Mono-, Stereo- oder verschiedene Versionen von Surroundsound. Entsprechend gibt es eine bestimmte Anzahl an Kanälen für jede Audiodatei. Mono = 1 Kanal, Stereo = 2, Surround 5+1 = 6 Kanäle. (CD-Qualität = Stereo)
Daraus errechnet sich der Datenstrom pro Zeiteinheit. Bei einer popligen CD, wie sie fast jeder wohl zuhause irgendwo rumfliegen haben wird, wäre das dann: 44.100 hz * 16 bit * 2 (Stereo) = ca. 1411kbit/s
Das Lieder eine gewisse Länge vorweisen sollte jedem klar sein. Die Länge der Audiodatei berechnet man in Sekunden (s).
Genau. Und wenn man nun hingeht und den Datenstrom mit der Zeit multipliziert hat man die komplette Datenmenge einer Audiodatei errechnet. Kann man nun noch in die entsprechende Datenmengenangabe umrechnen. Im Normalfall wird die Datenmenge für Audiodaten in MB (Megabyte) angegeben, aber es soll auch schon Fälle gegeben haben (bei wav Dateien, denn die sind unkomprimiert) wo die Datenmenge so groß war, dass GB (Gigabyte) gefragt waren.
Bedienen wir uns dem beliebten ZFA Beispiel (angeblich, mein Lehrer meinte dem wäre so) der CD-Qualität.
Eine Audiodatei von 3 Minuten und 15 Sekunden liegt in CD-Qualität vor. Errechnen Sie die entstehende Datenmenge (in MB).
Dauer des Liedes: 3 Minuten + 15 Sekunden = 3 * 60s + 15s = 195s
Datenstrom: 44.100 * 16 * 2 = ~1411000
1411000 bit * 195s = 275145000 bit
275145000 : (8 * 1024 * 1024) = ca. 32,8 Mebibyte
Videodatenberechnung
Beim Einbinden eines Videos mit HTML5 muss man darauf achten, dass nicht alle HTML5 fähigen Browser die gleichen Videoformate wiedergeben können.
Die Konvertierung des Ausgangsvideos kann mit einem Konverter, den es kostenlos gibt, konvertiert werden. http://www.freemake.com/de/free_video_converter/
So wird ein Video beispielsweise eingebunden:
<source src="video.ogv" type='video/ogg; codecs="theora, vorbis"'/>
<source src="video.webm" type='video/webm' >
<source src="video.mp4" type='video/mp4'>
<p>Ihr Browser unterstützt kein HTML5 (Alternativtext für alte Browser)</p>
</video>
Bzgl. der Bereitstellung von Filmen (betrifft auch Audio-Dateien), ist es vielleicht zum Vorteil die Unterschiede von "Download, Progressiver Download und Streaming" zu kennen.
• Das Zeilensprungverfahren stammt aus der Fernsehtechnik und wurde 1920 zur Verringerung des Bildschirmflimmerns entwickelt
• Die damalige Übertragungsfrequenz (UHF) konnte nur eine begrenzte Menge an Informationen übertragen (25 Pics./s), was ein starkes Flimmern und keinen sonderlichen Sehgenuss mit sich bringen würde.
• Beim Zeilensprungverfahren (Interlacing) wird jedes Bild in 2 Halbbilder aufgeteilt, die nacheinander gesendet und jew. Um eine Zeile versetzt auf den Bildschirm geschrieben werden.
==> Im ersten Halbbild (Upper-Field) werden alle ungeraden Zeilen angezeigt ( 1, 3, 5, 7...)
==> Im zweiten Halbbild (Lower-Field) werden alle geraden Zeilen angezeigt ( 2, 4, 6, 8 ...)
• Das menschliche Auge nimmt die einzelnen Zeilen nicht als flimmernd, sondern als wandernd wahr. Es integriert die Zeilensprünge im Idealfall zu einem Gesamtbild.
b. Standard-Daten des deutschen PAL
• ein Vollbild (Frame) hat 625 Zeilen, davon sind 587 (bzw. 575) sichtbar
• 25 Vollbilder pro Sekunde (= 40 ms für jedes Vollbild, davon 2,4 ms (= 32 Zeilen) unsichtbar für den Bildrücklauf)
• 833 Bildpunkte pro Zeile (= 520 625 Pixel pro Vollbild)
• Zeilendauer ist 64 μs, was einer Zeilenfrequenz von 15625 Hz entspricht (1 s / 625 Zeilen x 25 Vollbilder), davon sind ca. 52 μs sichtbar und 12 μs nicht sichtbar für den Zeilenrücklauf
• unter Berücksichtigung der Augenträgheit, der Rücklaufzeiten für Zeile und Bild und der Nachleuchtzeit des Bildschirms wird eine Videobandbreite von mindestens 5 MHz benötigt.
c. Vorteile
• Reduktion des Bildflimmerns
• Verringerter Bandbreitenbedarf
• Hohe vertikale (zeitliche Auflösung) → Voraussetzung: Das Quellmaterial ist im Filmmodus aufgezeichnet worden.
d. Nachteile
• Zeilenflimmern, besonders bei Fernsehern mit „modernen“ Bildröhren (erhöhte Auflösung)
==> Die Displays haben eine kürzere Nachleuchtzeit, die jedoch ein schärferes Bild liefert.
==> Durch die kürzere Nachleuchtzeit ist das zuerst geschriebene Halbbild ein wenig dunkler als das darauf folgende Halbbild. Dieser, wenn auch geringe, Helligkeitsunterschied bewirkt eine störende, besonders an detailreichen Teilen des Bildes wahrzunehmende Helligkeitsmodulation.
==> Der Effekt kann durch Erhöhung der Bildfolgefrequenz (100Hz) oder durch Konvertierung ("De-Interlacen") in progressive Abtastung vermieden werden. Letzteres erfordert dann allerdings auch die Wiedergabe auf progressiven Displays.
e. De-Interlacing „klassisch“
• Das Zeilensprungverfahren hat nur Sinn bei der Betrachtung am Fernseher, da PC-Monitore mit einer flimmerfreien, höheren Frequenz arbeiten.
• Das Zusammenführen von Halbbildern zu Vollbildern (De-Interlacing) hat verschiedene Gründe
==> Bestimmte Videoformate lassen keine Halbbilder zu (z.B. MPEG-1)
==> Oder um aus einem Video ein Standbild zu exportieren
• De-Interlacing Verfahren:
==> Zusammenlegen
i. Beim einfachen Zusammenlegen von Halbbildern entsteht eine Kammstruktur bzw. eine Sägezahneffekt.
==> Interpolieren
i. Hierbei werden bei den Teilen beider Halbbilder, die sich unterscheiden (Kämme) interpoliert und Mittelwerte gebildet.
==> Halbieren
i. Die Hälfte der Halbbilder wird einfach weggelassen. Da dadurch die Anzahl der Zeilen halbiert wird. Das hat allerdings auch die Halbierung der Bildhöhe, oder um das Seitenverhältnis zu erhalten, auch der Bildgröße zur Folge.
ii. Die Methode empfiehlt sich wenn die Bildgröße ohnehin reduziert werden sollte.
• Nachteile des De-Interlacing Verfahrens
==> Es ist nur unter Verlust durchzuführen
==> Schmale Strukturen können leicht verschwinden
==> Schräge Kanten werden ggf. stufig dargestellt
==> Bei der Interpolation können Bereiche „matschig“ aussehen
==> Das Video hat dann nur 25 Bilder/s, was nur akzeptabel ist, wenn Dateigröße wichtiger ist als Bildqualität
f. Von Interlaced (analog) zu Progressiv (digital)
• Aufnahmegeräte die ein Band oder DVD als Medium verwenden zeichnen → Interlaced auf
• Aufnahmegeräte die SD-Karten o.ä. als Medium verwenden zeichnen → Progressiv auf
• Da digitales Video komprimiert ist, steht wesentlich mehr Bandbreite zur Verfügung und Bilder können mit höherer horizontaler und vertikaler Auflösung (= Vertikalfrequenz) dargestellt werden. Ein Zerlegen von Vollbilder in Halbbilder und das Verschachteln sind nicht mehr notwendig. Es können Vollbilder vollständig ohne Zeilensprung (progressiv oder non-interlaced) flimmerfrei dargestellt werden.
==> Ein Nachteil der progressiven Abtastung ist die im Vergleich zum Interlaced Video bei gleicher Vertikalfrequenz deutlich verringerte zeitliche (vertikale) Auflösung. Bei schnellen Bewegungen im Bild können diese dann ruckelig wirken.
• Bei der Umwandlung von Interlaced Videos zu Progressiv MUSS! Die Funktion De-Interlacing genutzt werden, da es sonst zu schweren Interlaced-Artefakten kommen kann.
g. De-Interlacing bei der Umwandlung
• Weave
==> Im Weaver-Modus wird kein Deinterlacing vorgenommen. Beide Halbbilder werden ineinander verwoben. Bei im Kamera-Mode aufgezeichneten Videos können starke Interlace-Artefakte auftreten. Weave eignet sich nur für im Film-Mode aufgenommene Videos.
• Angleichen/Blending
==> Beide Halbbilder werden durch Zeilenverdopplung zu Vollbildern gewandelt. Jede Zeile des Bildes wird aus dem Mittelwert einer Zeile aus dem ersten Halbbild und einer Zeile aus dem zweiten Halbbild berechnet. Da der zeitliche Zusammenhang zwischen den Halbbildern durch das Mischen verloren geht, eignet sich Blending nur für Videos im Kamera-Modus. Videos im Film-Mode ruckeln stark.
• Wippen/Bobbing
==> Beide Halbbilder werden durch Zeilenverdopplung (per Interpolation zwei benachbarter Zeilen eines Halbbildes) zu Vollbildern gewandelt. Beide Vollbilder werden nacheinander gezeigt. Das Bild wird beim Bobbing zwar etwas weichgezeichnet, der temporale Zusammenhang zwischen den Halbbildern bleibt aber erhalten, was zu flüssigen Bewegungen führt.
• Verwerfen/Skip/Discard
==> Ein Halbbild wird mittels Interpolation zwei benachbarter Zeilen des Halbbildes zu einem Vollbild gewandelt. Das zweite Halbbild wird verworfen. Das deinterlacete Bild ist recht stark weichgezeichnet.
• Linear
==> Das Prinzip ist ähnlich wie beim Bobbing. Nur werden die Zeilen des zweiten Halbbildes aus den benachbarten Zeilen des ersten Halbbilds linear interpoliert. Zeile 2 wird also aus Zeile 1 und Zeile 3 berechnet.
• Adaptive Verfahren
==> Ein adaptives Deinterlacing kann nur mit erheblichen Hardwareaufwand und Prozessorleistung durchgeführt werden. Zur Berechnung eines bestimmten Vollbildes werden mehrere weitere vorangegangene und nachfolgende Vollbilder in einem Bildspeicher gehalten und miteinander verglichen. Sich bewegende Bildanteile werden mittels Mustererkennung detektiert und aus den Änderungen werden Bewegungsvektoren berechnet. Diese werden dann auf das zu bearbeitende Bild angewendet.
==> Die meisten Signalprozessoren in Flachbildschirmen verwenden adaptives Interlacing.
h. Exportieren von Videos aus Schnittprogrammen
• Interlaced ist immer dann zu wählen, wenn die Quelle analoges Video im Zeilensprungverfahren von VCR, Camcoder, TV oder in den digitalen Formaten DV, MiniDV, DVCAM, Digital8, HDV, DVCPro ist.
• Progressiv ist nur bei progressiv abgetasteten Quellen wie progressives digitales Video von Camcordern (z.B. MPEG-4 AVC/AVCHD, H.265 HEVC) oder DVD und Blu-ray einzustellen. MPEG-1 (CDi, VCD) ist übrigens immer progressiv!
• Videos von der DVD können sowohl interlaced oder als auch progressiv sein (je nachdem wie sie gedreht worden sind: Chemischer Film / Analog-Videokamera / Digitalkamera).