Videodatenmenge
Videofilme setzen sich aus einer Reihe einzelner Bilder zusammen. Ein einzelnes Bild des Films wird als Frame bezeichnet. Durch das Projizieren mehrerer Frames pro Sekunde wird der Eindruck bewegter Bilder erzeugt.
Videonormen
NTSC
Einführung: 1953 vom National Television System Comitee
Länder: USA und Kanada
Anmerkung: Führt bei Hauttönen zu Übertragungsfehlern
PAL (Phase Alternation Line)
Modifikation der NTSC-Norm
Einführung: 1962
Länder: Westeuropa (außer Frankreich)
SECAM
Einführung: 1957
Länder: Frankreich
Anmerkung: Dieses Verfahren weist bei extremen und schnellen Farbwechseln Flimmereffekte auf
QuickTime
QuickTime ist eine Systemsoftware-Erweiterung und ermöglicht das Abspielen und Bearbeiten von digitalen Videofilmen und virtuellen Räumen (QTVR > Quick Time Virtuell Reality).
QuickTime arbeitet mit folgenden Softwarekomponenten:
- Movie Toolbox
zuständig für Zeitmanagement eines Films - Image Compression Manager (ICM)
zuständig für die Komprimierung und Dekomprimierung des Videos - Component Manager
Verwaltungsmanagement zur Unterstützung der Hard- und Software
Aufbau eines Digitalen Films
Filme haben zwei verschiedene Spuren oder Tracks: eine Videospur und eine Audiospur. QuickTime – Filme sind im Prinzip genauso aufgebaut, jedoch nicht auf zwei Spuren beschränkt. Sie können mehrere Spuren im Audio- und Videobereich haben.
Hinzu kommt eine Spur mit einer Zeitskala. Der Film wird über eine numerische Zeitskala gesteuert. Positive Zahlen bewirken einen normalen Vorlauf, negative Zahlen lassen den Film rückwärts laufen.
QuickTime – Filme haben ein eigenes Zeitkoordinatensystem.
Es beinhaltet eine Zeitskala und eine -dauer.
Der Component Manager steuert den Zeitablauf derart, dass die Filme auf verschiedenen Rechnersystemen immer in der richtigen Geschwindigkeit ablaufen.
Vorschau
Die Vorschau wird als Kontrolle des Schneidergebnisses genutzt. Eignet sich nicht zur Kontrolle komplexer Übergänge oder Animationen, da hier mit reduzierten Videospuren und einer veränderten Timebase gearbeitet wird.
Digitalisieren von Videomaterial
Hardwarevoraussetzungen: eine S-VHS-Videoquelle sowie eine Video Capture Card (Digitalisierungskarte)
Die Bildgröße, die Farbtiefe und die Framerate bestimmen die anfallende Datenmenge. Da es sich um sehr hohe Datenmengen handelt, ist es notwendig, die benötigten Datenmengen zu reduzieren.
Es gibt drei Möglichkeiten der Datenreduzierung:
- Komprimieren der Videodaten
- Verringern der Bildmaße des aufgenommenen Videos
- Verringern der Framerate des aufgenommenen Videos
Komprimierung
Unter Komprimierung versteht man den Vorgang des Entfernens oder Umstrukturierens von Daten mit dem Ziel, die Datei zu verkleinern.
Für das Komprimieren und Dekomprimieren von Videos werden Komprimierungsalgorithmen – oder auch Codecs genannt – benötigt. Codecs sind mit Plug-ins vergleichbar. Sie vergrößern den Funktionsumfang der Videoschnittsoftware.
Verschiedene Codecs:
Animation, Cinepak, Grafik, Video, MPEG
Diese Codecs verwenden verschiedene Methoden des Entfernens und Umstrukturierens der Daten.
Verlustfreie Komprimierungsmethoden
- Originaldaten bleiben erhalten
- in den meisten Fällen wird eine Lauflängen-Kodierung verwendet (hier werden fortlaufende Bereiche gleicher Farbe entfernt)
- eignet sich für Bilder, bei denen z.B. Hintergründe oft aus einer Farbe gebildet werden
- oft kein großer Einspareffekt
Verlustreiche Komprimierungsmethoden
- Bildinformationen gehen verloren
- es wird versucht, Bildinformationen zu entfernen, die dem Betrachter nicht auffallen
- viele dieser Methoden bewirken einen zusätzlichen Datenverlust, wenn diese Bilder erneut komprimiert werden
- es gibt jedoch Codecs, die eine frühere Komprimierung registrieren und somit eine zweite Komprimierung zu einem sehr geringen Datenverlust führt
Räumliche Komprimierung
Hierbei werden die Daten jedes einzelnen Frames komprimiert (immer verlustreich)
Zeitliche Komprimierung:
Hier werden die Daten durch Vergleich der einzelnen Bilder über einen Zeitraum komprimiert (weitäsgehend verlustfrei). Häufige Nebeneffekte: Verschwimmen, Streifen und Konturbildung im Film Beispiel: Framedifferenzierung
Es werden die Daten der Frames gespeichert, die Änderungen zum vorherigen Frame enthalten. Gut geeignet für Filme mit wenig Bewegung und hohen Anteilen n Wiederholungen von einem Frame zum nächsten.
JPEG-Bilddatenkompression
Wenn längere digitale Videosequenzen übertragen und gespeichert werden müssen, ist dies ohne Bilddatenkompression nicht möglich. Ohne eine Video-Digitalisierungskarte erfolgt die Kompression über Software-Codecs, welche die Komprimierung bzw. die Dekomprimierung mit Hilfe der CPU durchführen. Das Aufzeichnen von Videosequenzen in voller Bildgröße und -anzahl auf eine Festplatte ist mit einem Codec-Verfahren nicht machbar.
Mit einer Digitalisierungskarte ist dies möglich, da diese einen Komprimierungsprozessor für die Bilddatenkomprimierung zur Verfügung stellt.
Komprimierungsabfolge
- Wandlung von RGB in YUV-Format
(Y = Helligkeit/Luminanz, U und V liefern die Farbinformation/Chrominanz) - Chrominance-Subsampling CSS
Dabei wird berücksichtigt, dass das menschliche Auge Helligkeitsunterschiede besser wahrnehmen kann als Farbunterschiede. Das bedeutet, dass die Farbanteile zugunsten von Helligkeitswerten im Verhältnis 4:2:2 reduziert werden. Auf vier Helligkeitsinformationen kommen nur zwei Farbinformationen U und V. - DCT-Transformation
Die Bildinformationen werden mit der sogenannten Diskreten Cosinus Transformation in eine leichter komprimierbare Form gebracht. - Lauflängencodierung
Diese Art der Kodierung reduziert Bereiche gleicher Farbe und gibt nur deren Häufigkeit im Film an. - JPEG-Kodierung
Bei der Filmwiedergabe erfolgen die Schritte in umgekehrter Reihenfolge.
MPEG-Standards
MPEG steht für Motion Picture Expert Group. Dies ist der Ausschuss, welcher die Standards für die Komprimierung und Dekomprimierung von Digitalvideos festlegt.
Es gibt folgende Normen:
MPEG 1, -2, -4 und –7.
Kommentare