Videodaten
Datenmenge eines Videos hängt von mehreren Faktoren ab:
- Bildformat und -auflösung sowie der Fernsehnorm(4:3-PAL = 720x576px; 16:9-HDTV z.B. 1440x1880px; Internet z.B. 360x288px)
- Farbtiefe in Bit
- Bildwiederholfrequenz(Framerate) wird ebenfalls durch gewählte Fernsehnorm vorgegeben – bei PAL und HDTV 25 Vollbilder pro Sekunde (Hz)
- Gesamtlänge des Videos in s
- Codec zur Reduktion der Datenmenge
- Audioanteil
- Berechnung der Datenmenge:
B x H x fv x F x t
D = ---------------------- [MB]
8 x 1024 x 1024
B=Breite in px, H=Höhe in px, fv=Bildwiederholfrequenz in Hz, F=Farbtiefe in Bit, T=Gesamtlänge in s
- mit unkrompimierten Videos kann in der Praxis nicht gearbeitet werden
- absolute Datenmenge spielt eine untergeordnete Rolle
- für Wiedergabe des Videosignals von CD, DVD, oder Blue-ray oder Streaming im Internet ist die Angabe des Datenstroms von größerer Bedeutung(Datenmenge, die jede Sekunde des unkomprimierten Videos liefert)
- Berechnung des Datenstroms:
B x H x fv x F
d = ------------------ [Mbps]
1000 x 1000*) Datenraten werden mit k=1000 und M=1.000.000 gerechnet
- Videos auf DVDs werden mit 4-8MBit/s abgespeichert
- Bei Video Streaming muss die Datenrate deutlich reduziert sein z.B. 500kBit/s
Ich habe eine Zusammenfassung zu diesem Thema geschrieben. Vielleicht ist es für Euch interessant.
Hallo,
ich hoffe, dass ich hier mit meinem Anliegen richtig bin...
Momentan lerne ich mit dem Kompendium der Mediengestaltung (4. Auflage) Produktion und Technik.
Zum Themenbereich "Datenmenge berechnen" finde ich aber jedoch weder im Stichwortverzeichnis
noch in den Kapiteln eine aussagekräftige Zusammenfassung.
Ich habe mit diesem Bereich schon in der Schule Probleme gehabt, weshalb ich das alles nochmal durchlernen und eben mit besagter Zusammenfassung beginnen möchte.
Habe ich das Themengebiet nur übersehen oder ist es wirklich nicht im Kompendium vorhanden? Wenn letzteres zutreffen sollte, kann mir jemand gute Links (oder Literatur) dazu empfehlen? Sollte es doch vorhanden sein, wäre ich über die Nennung der betreffenden Seiten sehr dankbar.
Grüße,
fresh_44
Ich habe hier mal eine PDF da habe ich die Sachen die ich zu Datenmenge gefunden habe zusammengefasst mit Beispielen. Meint ihr das reicht? Oder gehört da noch mehr zu?
Anhang | Größe |
---|---|
U1 Datenmengen berechnen.pdf | 423.01 KB |
Sehr häufig wird im Rahmen von Datenmengenberechnungen gefordert an Hand der Pixelangaben einer Digitalkamera die Datengröße eines Bildes zu berechnen.
Datenmenge (in MB) = b x h x d bits
8(bits / Byte)x1024(Bytes / KB)x1024(KB /MB)
b = Breite des Bildes in pixel
h = Höhe des Bildes in pixel
d = Datentiefe
Die Berechnung setzt sich aus folgenden Teilen zusammen:
t(Minuten) x 60s(Umrechnung in Sekunden) x 8 Bit oder 16 Bit x Mono(1-Kanal) oder Stereo(2-Kanäle) x Hz = Datenmenge
Zur Erklärung:
11,025 KiloHertz (schlechte Quali)
22,5 kHz (Kassettenradio)
44,1 kHz (CD)
48 kHz (DVD)
96 kHz (Studioqualität)
Hier noch eine Beispielrechnung:
Welche Datenmenge ergibt sich bei 15 Minuten Sprachaufnahme mit folgenden Parametern: 16 Bit, Stereo, 22,05 kHz?
Lösung:
15 x 60s x 2 Byte x 2 x 22050 Hz = 79380000 Byte = 75,70 MB
Es gibt auch Rechnungen mit vorgegebenem Datenspeicherplatz und man muss eine bestimmte Zeit unterbringen.
Beispiel: Auf einer CD stehen für die Sounds 70 MB zur Verfügung. Schlagen Sie geeignete Aufnahmeparameter vor, wenn Sie 15 Min. Musik zu verarbeiten haben.
Nun probiert man mit verschiedenen Parameter rum, bis man unter oder bis zur vorhandenen Grenze an Datenmenge kommt.
Lösung:
15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 44100 Hz = 151,41 MB > 70 MB --> zu groß
15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 22500 Hz = 77,25 MB > 70 MB --> zu groß
15 x 60s x 2Byte(16 Bit) x 1(Mono) x 22500 Hz = 38,62 MB <70 MB --> passt
Die Videokomprimierung
Das wichtigste bei der Digitalen Videoaufnahme und Speicherung ist die Komprimierung ohne die wären
Videodateien sogar zu groß um auf eine DVD zu passen. Eine Stunde unkomprimiertes Video wären über
75 Gigabyte groß. Und um das zu verhindern benutzt man Video Decoder die Videos verkleinern z.B.
mpeg 1 bis 4 hier werden Bewegungen nicht in Aufnahmequalität dargestellt sondern stärker gepixelt und
dadurch wird die Datei kleiner. Ein Videostandart "Phase Alternation Line" kurz PAL ist 25 Bilder pro
Sekunde und einer Auflösung von 768*576 das entspricht einer Datenübertragung von 21 MB pro
Sekunde. Da sich aber nicht auf jedem dieser Bilder alles bewegt, sondern Stellen im Film gleich bleiben,
wir bei der Komprimierung der Unterschied der Pixel vom vorigen Bild genommen und nur die
unterschiede abgespeichert so werden ganze 97 Prozent überflüssige Daten gelöscht. Würde man einen 1
Stündigen Film nicht so Komprimieren hätte man 90000 Einzelbilder die fast alle den gleichen
Speicherplatz verbrauchen. Im durchschnitt wäre dann ein Bild 900 KB groß und die Anzahl der
Einzelbilder mal die Große von einem Bild ergibt die ungefähre große eines unkomprimiertem Video, hier
wären das 81000000 KB oder 80 GB. Zu diesen angaben kommen jeweils noch 500 MB Tondaten hinzu.
Neben der Norm PAL mit 768*576 Bildpunkten gibt es auch noch die Norm "Nation Television Systems
Committee" kurz NTSC die in Amerika benutzt wird, hier sind es nur 640 mal 480 Bildpunkte aber 29,97
Bilder pro Sekunde und somit liegt die Datenübertragung nur bei 17,6 MB pro Sekunde.
Um nun einen solchen Film auf eine DVD oder CD zu bekommen muss man in komprimieren. Dafür gibt
es zwei Möglichkeiten:
1. der MPEG Standard der für die DVDs benutzt wird, mit der Dateiendung ....mpeg.
2. DivX mit der Dateiendung ....avi, den Privat Benutzer für eigene Videos benutzen und diese dann auf
CDs brennen.
Auf einer DVD mit dem NTSC Format wird der Ton in dem Format AC-3 komprimiert, das ist ein Dolby
Digital Surround Sound System. Bei PAL Formaten wird der MPEG-2 Audio Komprimierungsstandard
benutzt.
Um eine eigene Video-CD zu erstellen muss man den MPEG Standard benutzen, damit ein DVD-Spieler
diese auch abspielen kann. Man kann zwischen Video-CD (VCD) mit einer maximalen Auflösung von
320*200 oder Super Video CD (SVCD) mit einer Auflösung über 640*480 wählen, bei VCD kann man
nur den MPEG-1 Standard benutzen und bei SVCD nur den MPEG-2 Standard.
Bei der Videokomprimierung ist die Datenrate wichtig, mit einer hohen Datenrate muss das Video nicht
start Komprimiert werden, die Videodatei fällt größer aus. Bei einer kleineren Datenrate Muss das Video
stärker komprimiert werden, die Videodatei wird kleiner. Bei Videos die man selber aufnimmt kann man
diese Datenrate bestimmen. Bei einer Datenrate von 3000 Kilobit pro Sekunde und einer mp3
Audiokomprimierung kann man eine Stunde Video mit einer Auflösung von 640*460 auf eine CD
brennen.
In der Videokomprimierung ist der MPEG ein Guter Standart Decoder der am meisten benutzt wird, trotz
das er noch einige Mängel hat, MPEG steht für "Moving Picture Experts Group". Das ist eine
Internationale Gruppe von Experten, die sich mit der Speicherung von Videos- und Audiodaten
beschäftigt, die Gruppe wurde 1988 gegründet. Die entwickelten Standards für die Verschlüsselung von
audio-visuellen Informationen als digital komprimierte Daten werden ebenfalls MPEG-Standart genannt.
Die Vorteile von MPEG ist das es durch sehr gute Kompressionsverfahren sehr viele kleine Dateien
erzeugt, ohne dabei die Qualität zu beeinflussen.
Es gibt verschiedene MPEG-Standards MPEG-1,MPEG-2 und MPEG-4. Ein MPEG-3 Standard wurde
ursprünglich angestrebt, es stellte sich aber heraus das die Bilder eben so gut waren wie mit dem MPEG-2
Standart.
MPEG-1
Der MPEG-1 Standart besteht aus 5 Abschnitten: System, Video, Audio, Conference Testing und
Software Simulation.
System:
Hier wird das Problem beseitigt das Bild und Ton zusammen passen. Erreicht wird es dadurch, dass die
verschiedenen Datenströme (Video und Audio) Zeitmarken erhalten, die es ermöglichen, sie zu
synchronisieren.
Video:
Verschiedene Techniken sorgen für eine hohe Kompressionsrate. Als erstes wird eine angemessene
räumliche Aufteilung des Bildes vorgenommen. Es werden in aufeinanderfolgenden Bildern die Blöcke
ausgewählt, die sich verändern. Diese Veränderungen werden kodiert und komprimiert gespeichert. So
muss nicht das gesamte Bild jeweils neu übertragen werden, sondern nur die Informationen über die
Veränderungen.
Audio:
In dem Teil der Spezifikation ist die Darstellung von Audio-Informationen festgelegt. Daher kommt auch
die Bezeichnung "MP3" für MPEG-Dateien, die nur Audiodaten enthalten. Sowohl Mono- als auch
Stereoaufnahmen können dadurch effizient gespeichert werden. Eins der Verfahren, wodurch die
Audiodaten stark komprimiert werden können, nimmt die Frequenzen, die außerhalb des für den
Menschen hörbaren Bereiches liegen, heraus und berücksichtigt beim Kodieren nur den Rest.
Conformance Testing:
Dieser Bereich ist nur für die Herausgeber von MPEG-1kodierten Videosequenzen und für Hersteller von
Software und Hardware für die Verschlüsselung interessant. Hier wird z.B. festgelegt das der Datenstrom
eine bestimmte vorgegebene Größe nicht überschreitet.
Software Simulation:
Beinhaltet einen Enkoder und einen Dekoder. Die Simulation war lediglich für interne Testzwecke des
MPEG-Komitees vorgesehen.
MPEG-2
Der MPEG-2 Standart ist eine Erweiterung und Anpassung des MPEG-1 Standards. Eine Erweiterung
deshalb, weil neue Eigenschaften und Fähigkeiten hinzugefügt wurden. Ziel der Entwicklung war den
MPEG-2 Standart mit dem Vorgänger so kompatibel zu machen, dass Abspielgeräte, die MPEG-2
unterstützen, auch MPEG-1 kodierte Daten abspielen können.
Der MPEG-2 Standart wurde 1994 anerkannt.
Auch der MPEG-2 Standart hat mehrere Abschnitte die sich aber vom MPEG-1 Standart nicht groß
unterscheiden.
System:
Der MPEG-2 Standart bietet wesentlich mehr Möglichkeiten als der MPEG-1 Standart. Dabei gibt es im
MPEG-2 Standart zwei Formen.
1-Der Program Stream
und
2-Der Transport Stream
Jeder dieser beiden formen ist für ihren jeweiligen Bestimmungszweck optimiert. Er ist die Kombination
eines oder mehrerer "Packetised Elementary Streams" kurz PES, die eine gemeinsamen Zeitbasis haben in
einem einzelenen Datenstrom. Diese Methode ist besonders gut geeignet für Umgebungen, in denen kaum
Übertragungsfehler auftreten.
Die zweite Form. Der "transport Stream" kombiniert mehrere PES mit einem oder verschiedenen
Zeitbasen. Einzelne Ströme mit gemeinsamen Zeitbasis formen ein Programm. Diese Methode ist gut
geeignt für die Speicherung oder Übertragung, wenn man mit einigen Datenverlusten rechen muss. Jedes
"Transport Stream" -Paket ist 188 Bytes lang.
Video:
Dieser Abschnitt stützt sich auf die starken Video-Komprimierungs-Fähigkeiten des MPEG-1 Standards.
Das "Multiview profil" kurz MVP wurde 1996 anerkannt und dem Standard nachträglich hinzugefügt.
MVP erlaubt es, mehrere Bilder in dem Datenstrom zu integrieren und, je nach Bedarf, übereinander zu
legen, oder dem Betrachter die Möglichkeit zu geben, zwischen verschiedenen Ansichten zu wählen. Es
ist auch damit möglich stereoskopische Bilder zu erzeugen.
Audio:
Die Audiokomprimierung verläuft genauso wie im MPEG-1 Standard.
MPEG-4
Der MPEG-4 Standart ist die neuste Entwicklung des MPEG-Komitees. MPEG-4 ermöglicht es dem
Anwender, mit der Szene zu interagieren, z.B. Objekte darin zu bewegen.
Videodateien mit der Endung AVI
AVI steht für "Audio Video Interleave" Audio/Videoformat von WINDOWS (Video für WINDOWS ).
"Audio Video Interleave" heißt nichts anderes, als dass Audio- und Videodaten ineinander verzahnt, also
"interleaved" abgespeichert werden. Die erste Definition von AVI ist so alt wie die Multimedia-PCs. Das
Format wurde von Microsoft als einheitliche Lösung für die Wiedergabe von kurzen Videoclips
geschaffen. Die ursprünglichen Festlegungen aus den Jahren 1992/93 lesen sich dabei fast vorsintflutlich:
15 Bilder pro Sekunde bei einer maximalen Auflösung von 160 x 120 Pixeln stellten damals die Obergrenze von AVI dar.
Im Gegensatz zu anderen damals üblichen Animationsformaten wurde bei AVI die sogenannte
Keyframe-Technik eingesetzt. Dabei wird lediglich jedes 12. bis 17. Bild (abhängig vom Bildinhalt) als
Vollbild gespeichert. Für die dazwischen liegenden Fames werden nur die Unterschiede zum jeweils
vorhergehenden Bild angegeben. Auch wenn diese ersten Definitionen alles andere als zukunftsträchtig
klingen, gelang dem AVI-Format doch sehr schnell ein beachtlicher Siegeszug. Ein Grund dafür ist
sicherlich die Tatsache, dass AVI als Bestandteil von "Video für Windows" bald fest mit Windows
verknüpft war. Die entsprechenden Treiber standen und stehen für Endbenutzer kostenlos zur Verfügung.
DivX
Mittels dieser Technologie lassen sich nämlich Videodateien so stark komprimieren, dass sie - auch
unautorisiert - relativ bequem über das Internet verschickt werden können. DivX basiert strukturell auf
dem MPEG-4 Video Standard und entsprechend kodierte Filme (in der Regel AVI-Dateien) können mit
Hilfe eines passenden Codes in gängigen Video-Bearbeitungs- und Wiedergabe-Programmen editiert und
angezeigt werden. Es gibt Codes für alle wichtigen Betriebssysteme wie Windows, Linux, MacOS und BEOS.
Mit DivX ist vermutlich die größte Hürde für die Videobearbeitung am PC genommen worden, denn mit
DivX steht ein ausreichend gutes Kompressionsverfahren zur Verfügung, um einen kompletten
MPEG-2-DVD-Film auf eine CD-R zu brennen, um einen Zwei-Stunden-Kinofilm in passabler Qualität
über normale CDs zu betrachten. Durch DivX kann die Dateigröße eines DVD-Films um das Zehn- bis
Zwölffache reduziert werden, so dass sich ein sechs Gigabyte großer Film auf relativ schlanke 700
Megabyte (und weniger) schrumpfen läßt. Die Qualität bleibt dabei deutlich über den VHS-Standard.
Die Erfinder von DivX behaupten, einen Microsoft-Codec für MPEG-4 geknackt zu haben. Darum ist der
DivX-Code auch Illegal. Microsofts erste Implementierung von MPEG-4 ist seit Windows 98 auf jedem
Windows-PC installiert und beschränkt die maximale Datenrate auf 256 Kilobit pro Sekunde. Für ein
ruckelfreies Video in ansprechender Qualität ist das zu wenig. Durch den Hack wurde die Erhöhung der
Bitrate auf bis zu 6000 Kilobit pro Sekunde möglich. Doch eine so hohe Bitrate ist gar nicht notwendig:
600 Kilobits pro Sekunde sind völlig ausreichend. Zudem wird vor der eigentlichen Frame-Codierung ein
Weichzeichner eingeschaltet. Dieser ist nötig, da MPEG-Verfahren bei hohen Kontrastsprüngen für ein
scharfes Bild mehr hochfrequente Signale und damit hohe Datenraten benötigen. Stehen diese nicht zur
Verfügung, entstehen im Bild unansehnliche Artefakte, denen der Weichzeichner entgegen wirkt.
Für die Weiterentwicklung von DivX will der französische Hacker Jérome Rota (alias Gej) verantwortlich
sein. Der nächste DivX-Nachfolger - "DivX Deux" - soll noch leistungsfähiger sein.
Dazu gesellen sich Entwickler, die an weiteren Video-Komprimierungsverfahren arbeiten. Besonders
erwähnenswert ist (Anfang 2001) z.B. "3ivX": Diese DivX-Weiterentwicklung soll bei bis zu 60%
höherer Kompression eine noch bessere Bildqualität zu erzielen.
Allerdings müssen DivX-Dateien immer mit der Version abgespielt werden, mit der sie komprimiert
wurden, da auch die neueren DivX-Codecs nicht mit ihren älteren Versionen kompatibel sind.
Mit DivX lassen sich übrigens nur die Bilder einer Videos bearbeiten - nicht jedoch der Ton. Dafür wird
meist das bewährte MP3-Format hinzugezogen. Es gibt bereits (Anfang 2001) einige Programme, die sich
DivX bedienen, um DVD-Filme in DivX-Dateien umzuwandeln. Ein weit verbreitetes heißt FlaskMPEG.
Der Grund für die Benutzung von DivX, bei den Meisten Anwendern, ist das dieser Decoder
Benutzerfreundlicher ist fast jedes Videobearbeitungsprogramm unterstützt DivX. Diese Möglichkeiten
bietet auch MPEG-1, was sich aber durch die schwächere Komprimierung nicht lohnt.
Bei der Codierung und Dekodierung Benötigt man noch sehr leistungsfähige PCs. Um sich ein DivX Codiertes Video anzugucken sollte man mindestens 20 Mhz haben. Um Videos zu codieren brauch man schon etwas Leistungsfähigeres, mit einer CPU von 800 Mhz kann man schon eigene Videos gestalten und aufnehmen. Der Nachteil ist das man bei 800 Mhz sehr lange warten muss bis es Gerändert ist (in ein anderes Format umgewandelt oder stärker komprimiert wird). Videoaufnahmen sind sehr abhängig von der Mhz Zahl, darum sollte man sich beim kauf eines neuen PC, um Videos vernünftig zu bearbeiten mindestens einen 1,6 Ghz getakteten PC kaufen. Da der PC sonst bei zu hohen Auflösungen Bilder in der Sekunde verliert oder Bild und Ton bei der fertigen Aufnahme Asinkron laufen.
Videofilme setzen sich aus einer Reihe einzelner Bilder zusammen. Ein einzelnes Bild des Films wird als Frame bezeichnet. Durch das Projizieren mehrerer Frames pro Sekunde wird der Eindruck bewegter Bilder erzeugt.
1. Videonormen
NTSC
Einführung: 1953 vom National Television System Comitee
Länder: USA und Kanada
Anmerkung: Führt bei Hauttönen zu Übertragungsfehlern
PAL (Phase Alternation Line)
Modifikation der NTSC-Norm
Einführung: 1962
Länder: Westeuropa (außer Frankreich)
SECAM
Einführung: 1957
Länder: Frankreich
Anmerkung: Dieses Verfahren weist bei extremen und schnellen Farbwechseln Flimmereffekte auf
2. Dateiformate
2.1. QuickTime
QuickTime ist eine Systemsoftware-Erweiterung und ermöglicht das Abspielen und Bearbeiten von digitalen Videofilmen und virtuellen Räumen (QTVR > Quick Time Virtuell Reality).
QuickTime arbeitet mit folgenden Softwarekomponenten:
3. Aufbau eines Digitalen Films
Filme haben zwei verschiedene Spuren oder Tracks: eine Videospur und eine Audiospur. QuickTime – Filme sind im Prinzip genauso aufgebaut, jedoch nicht auf zwei Spuren beschränkt. Sie können mehrere Spuren im Audio- und Videobereich haben.
Hinzu kommt eine Spur mit einer Zeitskala. Der Film wird über eine numerische Zeitskala gesteuert. Positive Zahlen bewirken einen normalen Vorlauf, negative Zahlen lassen den Film rückwärts laufen.
QuickTime – Filme haben ein eigenes Zeitkoordinatensystem.
Es beinhaltet eine Zeitskala und eine -dauer.
Der Component Manager steuert den Zeitablauf derart, dass die Filme auf verschiedenen Rechnersystemen immer in der richtigen Geschwindigkeit ablaufen.
4. Vorschau
Die Vorschau wird als Kontrolle des Schneidergebnisses genutzt. Eignet sich nicht zur Kontrolle komplexer Übergänge oder Animationen, da hier mit reduzierten Videospuren und einer veränderten Timebase gearbeitet wird.
5. Digitalisieren von Videomaterial
Hardwarevoraussetzungen: eine S-VHS-Videoquelle sowie eine Video Capture Card (Digitalisierungskarte)
Die Bildgröße, die Farbtiefe und die Framerate bestimmen die anfallende Datenmenge. Da es sich um sehr hohe Datenmengen handelt, ist es notwendig, die benötigten Datenmengen zu reduzieren.
Es gibt drei Möglichkeiten der Datenreduzierung:
6. Komprimierung
Unter Komprimierung versteht man den Vorgang des Entfernens oder Umstrukturierens von Daten mit dem Ziel, die Datei zu verkleinern.
Für das Komprimieren und Dekomprimieren von Videos werden Komprimierungsalgorithmen – oder auch Codecs genannt – benötigt. Codecs sind mit Plug-ins vergleichbar. Sie vergrößern den Funktionsumfang der Videoschnittsoftware.
Verschiedene Codecs:
Animation, Cinepak, Grafik, Video, MPEG
Diese Codecs verwenden verschiedene Methoden des Entfernens und Umstrukturierens der Daten.
6.1. Verlustfreie Komprimierungsmethoden
6.2. Verlustreiche Komprimierungsmethoden
6.3. Räumliche Komprimierung
Hierbei werden die Daten jedes einzelnen Frames komprimiert (immer verlustreich)
6.4. Zeitliche Komprimierung:
Hier werden die Daten durch Vergleich der einzelnen Bilder über einen Zeitraum komprimiert (weitäsgehend verlustfrei). Häufige Nebeneffekte: Verschwimmen, Streifen und Konturbildung im Film Beispiel: Framedifferenzierung
Es werden die Daten der Frames gespeichert, die Änderungen zum vorherigen Frame enthalten. Gut geeignet für Filme mit wenig Bewegung und hohen Anteilen n Wiederholungen von einem Frame zum nächsten.
6.5. JPEG-Bilddatenkompression
Wenn längere digitale Videosequenzen übertragen und gespeichert werden müssen, ist dies ohne Bilddatenkompression nicht möglich. Ohne eine Video-Digitalisierungskarte erfolgt die Kompression über Software-Codecs, welche die Komprimierung bzw. die Dekomprimierung mit Hilfe der CPU durchführen. Das Aufzeichnen von Videosequenzen in voller Bildgröße und -anzahl auf eine Festplatte ist mit einem Codec-Verfahren nicht machbar.
Mit einer Digitalisierungskarte ist dies möglich, da diese einen Komprimierungsprozessor für die Bilddatenkomprimierung zur Verfügung stellt.
Komprimierungsabfolge
Die JPEG-Kompression besteht aus den folgenden fünf Schritten:
1. Farbraumtransformation in YUV
2. Color-Subsampling 4:2:2
3. Einteilung in 8*8 Pixelblöcke und DCT
4. verlustbehaftete Quantisierung
5. Huffmancodierung (Lauflängencodierung)
Bei der Filmwiedergabe erfolgen die Schritte in umgekehrter Reihenfolge.
7. MPEG-Standards
MPEG steht für Motion Picture Expert Group. Dies ist der Ausschuss, welcher die Standards für die Komprimierung und Dekomprimierung von Digitalvideos festlegt.
Es gibt folgende Normen:
MPEG 1, -2, -4 und –7.
8. Datenmengenberechnung
(Formel nach Kompendium der Mediengestaltung, 4. Auflage)
B = Breite in Pixel
H = Höhe in Pixel
fv = Bildwiederholfrequenz in Hz
F = Farbtiefe in Bit
t = Gesamtlänge in Sekunden
Beispiel:
720 px * 576 px * 25 Hz * 24 bit * 60 s = 14929920000 bit |:8*1024*1024 = 1779,78 MB
Filmmontage bezeichnet das Zusammenfügen von Einstellungen, Szenen und Sequenzen zu einer erzählerischen Einheit.
Im Schnitt oder der Montage entsteht der eigentlich Flim. Die verschiedenen Bausteine eines Flims werden in der endgültigen Abfolge aneinder montiert.