Video-Daten

Videodaten

Datenmenge eines Videos hängt von mehreren Faktoren ab:
- Bildformat und -auflösung sowie der Fernsehnorm(4:3-PAL = 720x576px; 16:9-HDTV z.B. 1440x1880px; Internet z.B. 360x288px)
- Farbtiefe in Bit
- Bildwiederholfrequenz(Framerate) wird ebenfalls durch gewählte Fernsehnorm vorgegeben – bei PAL und HDTV 25 Vollbilder pro Sekunde (Hz)
- Gesamtlänge des Videos in s
- Codec zur Reduktion der Datenmenge
- Audioanteil
- Berechnung der Datenmenge:

            B x H x fv x  F x t
  D =   ----------------------  [MB]
            8 x 1024 x 1024


B=Breite in px, H=Höhe in px, fv=Bildwiederholfrequenz in Hz, F=Farbtiefe in Bit, T=Gesamtlänge in s
- mit unkrompimierten Videos kann in der Praxis nicht gearbeitet werden
- absolute Datenmenge spielt eine untergeordnete Rolle
- für Wiedergabe des Videosignals von CD, DVD, oder Blue-ray oder Streaming im Internet ist die Angabe des Datenstroms von größerer Bedeutung(Datenmenge, die jede Sekunde des unkomprimierten Videos liefert)
- Berechnung des Datenstroms:

            B x H x fv x  F
  d =   ------------------  [Mbps]
           1000 x 1000*) Datenraten werden mit k=1000 und M=1.000.000 gerechnet

- Videos auf DVDs werden mit 4-8MBit/s abgespeichert
- Bei Video Streaming muss die Datenrate deutlich reduziert sein z.B. 500kBit/s

Bewertung: 
0
Bisher keine Bewertung

Berechnung von Datenmengen

Bewertung: 
1
Durchschnitt: 1 (1 Stimme)

Audiodaten-Berechnung

Ich habe eine Zusammenfassung zu diesem Thema geschrieben. Vielleicht ist es für Euch interessant.

http://mg2012.bestweb.cc/?audiodatenberechnung

http://mg2012.bestweb.cc

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Datenmenge berechnen - Aufgaben

Hallo,

ich hoffe, dass ich hier mit meinem Anliegen richtig bin...

Momentan lerne ich mit dem Kompendium der Mediengestaltung (4. Auflage) Produktion und Technik.
Zum Themenbereich "Datenmenge berechnen" finde ich aber jedoch weder im Stichwortverzeichnis
noch in den Kapiteln eine aussagekräftige Zusammenfassung.

Ich habe mit diesem Bereich schon in der Schule Probleme gehabt, weshalb ich das alles nochmal durchlernen und eben mit besagter Zusammenfassung beginnen möchte.

Habe ich das Themengebiet nur übersehen oder ist es wirklich nicht im Kompendium vorhanden? Wenn letzteres zutreffen sollte, kann mir jemand gute Links (oder Literatur) dazu empfehlen? Sollte es doch vorhanden sein, wäre ich über die Nennung der betreffenden Seiten sehr dankbar.

Grüße,
fresh_44

Bewertung: 
0
Bisher keine Bewertung

Datenmengen berechnen

Ich habe hier mal eine PDF da habe ich die Sachen die ich zu Datenmenge gefunden habe zusammengefasst mit Beispielen. Meint ihr das reicht? Oder gehört da noch mehr zu?

AnhangGröße
PDF icon U1 Datenmengen berechnen.pdf423.01 KB
Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Datenmengenberechnung Digitalkamera

Sehr häufig wird im Rahmen von Datenmengenberechnungen gefordert an Hand der Pixelangaben einer Digitalkamera die Datengröße eines Bildes zu berechnen.

 

Datenmenge (in MB) = b x h x d bits

                                     8(bits / Byte)x1024(Bytes / KB)x1024(KB /MB)

b = Breite des Bildes in pixel
h = Höhe des Bildes in pixel
d = Datentiefe

Bewertung: 
3
Durchschnitt: 3 (3 Stimmen)

Sounddatenberechnung

Die Berechnung setzt sich aus folgenden Teilen zusammen:

 

t(Minuten) x 60s(Umrechnung in Sekunden) x 8 Bit oder 16 Bit x Mono(1-Kanal) oder Stereo(2-Kanäle) x Hz = Datenmenge

 

Zur Erklärung:

  • t = Zeit, wird meistens in Minuten angegeben, darum brauchen wir die 60 zur Umrechnung in Sekunden
  • 8 Bit oder 16 Bit am besten gleich mit 1 Byte oder 2 Byte rechnen, dann fällt das umrechnen weg
  • Mono oder Stereo d.h. mit 1 oder mit 2 rechnen
  • und dann mit wieviel Hertz, es gibt folgende Qualitäten:

        11,025 KiloHertz (schlechte Quali)

        22,5 kHz (Kassettenradio)

        44,1 kHz (CD)

        48 kHz (DVD)

        96 kHz (Studioqualität)

 

Hier noch eine Beispielrechnung:

Welche Datenmenge ergibt sich bei 15 Minuten Sprachaufnahme mit folgenden Parametern: 16 Bit, Stereo, 22,05 kHz?

Lösung:

15 x 60s x 2 Byte x 2 x 22050 Hz = 79380000 Byte = 75,70 MB

 

Es gibt auch Rechnungen mit vorgegebenem Datenspeicherplatz und man muss eine bestimmte Zeit unterbringen.

Beispiel: Auf einer CD stehen für die Sounds 70 MB zur Verfügung. Schlagen Sie geeignete Aufnahmeparameter vor, wenn Sie 15 Min. Musik zu verarbeiten haben.

Nun probiert man mit verschiedenen Parameter rum, bis man unter oder bis zur vorhandenen Grenze an Datenmenge kommt.

Lösung:

15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 44100 Hz = 151,41 MB > 70 MB  --> zu groß

15 x 60s x 2Byte(16 Bit) x 2(Stereo) x 22500 Hz = 77,25 MB > 70 MB --> zu groß

15 x 60s x 2Byte(16 Bit) x 1(Mono) x 22500 Hz = 38,62 MB <70 MB --> passt

 

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Datenkonvertierung (Video)

Der Begriff Konvertierung bezeichnet die Überführung einer Datei von einem Dateiformat in ein anderes. Prinzipiell gibt es dabei drei Möglichkeiten:
1.Die verlustfreie Konvertierung, 
während der keine Daten verloren gehen. Dies ist der Fall, wenn zwei kompatible Formate ineinander überführt werden. Zum Beispiel eine Konvertierung eines Rasterbildes von TIFF nach PNG
2.Die verlustbehaftete Konvertierung.
Datenverlust kann aus folgenden Gründen entstehen:
Verlustbehaftete Datenkompression, also die Reduzierung der Daten, indem (aus Sicht des Endergebnisses) nicht notwendige Daten weggelassen werden. Ein Beispiel ist die Konvertierung einer Audiodatei von WAV nach MP3. Dem Zielformat fehlt die Möglichkeit, alle Informationen des Quellformates darzustellen. Ein Beispiel ist die Konvertierung von HTML in eine Textdatei, bei der sämtliche Formatierungen verloren gehen.
3.Die sinnhafte Konvertierung. 
Bei dieser Konvertierungsart werden Daten „dem Sinne nach“ konvertiert, also unter Beibehaltung des als wesentlich betrachteten Inhaltes. Dies kann mit oder ohne Informationsverlust geschehen, oder es können auch Informationen aus zusätzlichen Quellen durch die Konvertierung angereichert werden. Konvertierung einer Tabelle von Microsoft Excel XLS nach CSV oder umgekehrt.
 

Die Videokomprimierung
Das wichtigste bei der Digitalen Videoaufnahme und Speicherung ist die Komprimierung ohne die wären
Videodateien sogar zu groß um auf eine DVD zu passen. Eine Stunde unkomprimiertes Video wären über
75 Gigabyte groß. Und um das zu verhindern benutzt man Video Decoder die Videos verkleinern z.B.
mpeg 1 bis 4 hier werden Bewegungen nicht in Aufnahmequalität dargestellt sondern stärker gepixelt und
dadurch wird die Datei kleiner. Ein Videostandart "Phase Alternation Line" kurz PAL ist 25 Bilder pro
Sekunde und einer Auflösung von 768*576 das entspricht einer Datenübertragung von 21 MB pro
Sekunde. Da sich aber nicht auf jedem dieser Bilder alles bewegt, sondern Stellen im Film gleich bleiben,
wir bei der Komprimierung der Unterschied der Pixel vom vorigen Bild genommen und nur die
unterschiede abgespeichert so werden ganze 97 Prozent überflüssige Daten gelöscht. Würde man einen 1
Stündigen Film nicht so Komprimieren hätte man 90000 Einzelbilder die fast alle den gleichen
Speicherplatz verbrauchen. Im durchschnitt wäre dann ein Bild 900 KB groß und die Anzahl der
Einzelbilder mal die Große von einem Bild ergibt die ungefähre große eines unkomprimiertem Video, hier
wären das 81000000 KB oder 80 GB. Zu diesen angaben kommen jeweils noch 500 MB Tondaten hinzu.

Neben der Norm PAL mit 768*576 Bildpunkten gibt es auch noch die Norm "Nation Television Systems
Committee" kurz NTSC die in Amerika benutzt wird, hier sind es nur 640 mal 480 Bildpunkte aber 29,97
Bilder pro Sekunde und somit liegt die Datenübertragung nur bei 17,6 MB pro Sekunde.
Um nun einen solchen Film auf eine DVD oder CD zu bekommen muss man in komprimieren. Dafür gibt
es zwei Möglichkeiten:


1. der MPEG Standard der für die DVDs benutzt wird, mit der Dateiendung ....mpeg.
2. DivX mit der Dateiendung ....avi, den Privat Benutzer für eigene Videos benutzen und diese dann auf
CDs brennen.


Auf einer DVD mit dem NTSC Format wird der Ton in dem Format AC-3 komprimiert, das ist ein Dolby
Digital Surround Sound System. Bei PAL Formaten wird der MPEG-2 Audio Komprimierungsstandard
benutzt.


Um eine eigene Video-CD zu erstellen muss man den MPEG Standard benutzen, damit ein DVD-Spieler
diese auch abspielen kann. Man kann zwischen Video-CD (VCD) mit einer maximalen Auflösung von
320*200 oder Super Video CD (SVCD) mit einer Auflösung über 640*480 wählen, bei VCD kann man
nur den MPEG-1 Standard benutzen und bei SVCD nur den MPEG-2 Standard.

 

Bei der Videokomprimierung ist die Datenrate wichtig, mit einer hohen Datenrate muss das Video nicht
start Komprimiert werden, die Videodatei fällt größer aus. Bei einer kleineren Datenrate Muss das Video
stärker komprimiert werden, die Videodatei wird kleiner. Bei Videos die man selber aufnimmt kann man
diese Datenrate bestimmen. Bei einer Datenrate von 3000 Kilobit pro Sekunde und einer mp3
Audiokomprimierung kann man eine Stunde Video mit einer Auflösung von 640*460 auf eine CD
brennen.


In der Videokomprimierung ist der MPEG ein Guter Standart Decoder der am meisten benutzt wird, trotz
das er noch einige Mängel hat, MPEG steht für "Moving Picture Experts Group". Das ist eine
Internationale Gruppe von Experten, die sich mit der Speicherung von Videos- und Audiodaten
beschäftigt, die Gruppe wurde 1988 gegründet. Die entwickelten Standards für die Verschlüsselung von
audio-visuellen Informationen als digital komprimierte Daten werden ebenfalls MPEG-Standart genannt.
Die Vorteile von MPEG ist das es durch sehr gute Kompressionsverfahren sehr viele kleine Dateien
erzeugt, ohne dabei die Qualität zu beeinflussen.
Es gibt verschiedene MPEG-Standards MPEG-1,MPEG-2 und MPEG-4. Ein MPEG-3 Standard wurde
ursprünglich angestrebt, es stellte sich aber heraus das die Bilder eben so gut waren wie mit dem MPEG-2
Standart.


MPEG-1
Der MPEG-1 Standart besteht aus 5 Abschnitten: System, Video, Audio, Conference Testing und
Software Simulation.


System:
Hier wird das Problem beseitigt das Bild und Ton zusammen passen. Erreicht wird es dadurch, dass die
verschiedenen Datenströme (Video und Audio) Zeitmarken erhalten, die es ermöglichen, sie zu
synchronisieren.


Video:
Verschiedene Techniken sorgen für eine hohe Kompressionsrate. Als erstes wird eine angemessene
räumliche Aufteilung des Bildes vorgenommen. Es werden in aufeinanderfolgenden Bildern die Blöcke
ausgewählt, die sich verändern. Diese Veränderungen werden kodiert und komprimiert gespeichert. So
muss nicht das gesamte Bild jeweils neu übertragen werden, sondern nur die Informationen über die
Veränderungen.


Audio:
In dem Teil der Spezifikation ist die Darstellung von Audio-Informationen festgelegt. Daher kommt auch
die Bezeichnung "MP3" für MPEG-Dateien, die nur Audiodaten enthalten. Sowohl Mono- als auch
Stereoaufnahmen können dadurch effizient gespeichert werden. Eins der Verfahren, wodurch die
Audiodaten stark komprimiert werden können, nimmt die Frequenzen, die außerhalb des für den
Menschen hörbaren Bereiches liegen, heraus und berücksichtigt beim Kodieren nur den Rest.


Conformance Testing:
Dieser Bereich ist nur für die Herausgeber von MPEG-1kodierten Videosequenzen und für Hersteller von
Software und Hardware für die Verschlüsselung interessant. Hier wird z.B. festgelegt das der Datenstrom
eine bestimmte vorgegebene Größe nicht überschreitet.


Software Simulation:
Beinhaltet einen Enkoder und einen Dekoder. Die Simulation war lediglich für interne Testzwecke des
MPEG-Komitees vorgesehen.


MPEG-2
Der MPEG-2 Standart ist eine Erweiterung und Anpassung des MPEG-1 Standards. Eine Erweiterung
deshalb, weil neue Eigenschaften und Fähigkeiten hinzugefügt wurden. Ziel der Entwicklung war den
MPEG-2 Standart mit dem Vorgänger so kompatibel zu machen, dass Abspielgeräte, die MPEG-2
unterstützen, auch MPEG-1 kodierte Daten abspielen können.
Der MPEG-2 Standart wurde 1994 anerkannt.
Auch der MPEG-2 Standart hat mehrere Abschnitte die sich aber vom MPEG-1 Standart nicht groß
unterscheiden.


System:
Der MPEG-2 Standart bietet wesentlich mehr Möglichkeiten als der MPEG-1 Standart. Dabei gibt es im
MPEG-2 Standart zwei Formen.


1-Der Program Stream
und
2-Der Transport Stream


Jeder dieser beiden formen ist für ihren jeweiligen Bestimmungszweck optimiert. Er ist die Kombination
eines oder mehrerer "Packetised Elementary Streams" kurz PES, die eine gemeinsamen Zeitbasis haben in
einem einzelenen Datenstrom. Diese Methode ist besonders gut geeignet für Umgebungen, in denen kaum
Übertragungsfehler auftreten.


Die zweite Form. Der "transport Stream" kombiniert mehrere PES mit einem oder verschiedenen
Zeitbasen. Einzelne Ströme mit gemeinsamen Zeitbasis formen ein Programm. Diese Methode ist gut
geeignt für die Speicherung oder Übertragung, wenn man mit einigen Datenverlusten rechen muss. Jedes
"Transport Stream" -Paket ist 188 Bytes lang.


Video:
Dieser Abschnitt stützt sich auf die starken Video-Komprimierungs-Fähigkeiten des MPEG-1 Standards.
Das "Multiview profil" kurz MVP wurde 1996 anerkannt und dem Standard nachträglich hinzugefügt.
MVP erlaubt es, mehrere Bilder in dem Datenstrom zu integrieren und, je nach Bedarf, übereinander zu
legen, oder dem Betrachter die Möglichkeit zu geben, zwischen verschiedenen Ansichten zu wählen. Es
ist auch damit möglich stereoskopische Bilder zu erzeugen.

Audio:
Die Audiokomprimierung verläuft genauso wie im MPEG-1 Standard.


MPEG-4
Der MPEG-4 Standart ist die neuste Entwicklung des MPEG-Komitees. MPEG-4 ermöglicht es dem
Anwender, mit der Szene zu interagieren, z.B. Objekte darin zu bewegen.


Videodateien mit der Endung AVI
AVI steht für "Audio Video Interleave" Audio/Videoformat von WINDOWS (Video für WINDOWS ).
"Audio Video Interleave" heißt nichts anderes, als dass Audio- und Videodaten ineinander verzahnt, also
"interleaved" abgespeichert werden. Die erste Definition von AVI ist so alt wie die Multimedia-PCs. Das
Format wurde von Microsoft als einheitliche Lösung für die Wiedergabe von kurzen Videoclips
geschaffen. Die ursprünglichen Festlegungen aus den Jahren 1992/93 lesen sich dabei fast vorsintflutlich:
15 Bilder pro Sekunde bei einer maximalen Auflösung von 160 x 120 Pixeln stellten damals die Obergrenze von AVI dar.
Im Gegensatz zu anderen damals üblichen Animationsformaten wurde bei AVI die sogenannte
Keyframe-Technik eingesetzt. Dabei wird lediglich jedes 12. bis 17. Bild (abhängig vom Bildinhalt) als
Vollbild gespeichert. Für die dazwischen liegenden Fames werden nur die Unterschiede zum jeweils
vorhergehenden Bild angegeben. Auch wenn diese ersten Definitionen alles andere als zukunftsträchtig
klingen, gelang dem AVI-Format doch sehr schnell ein beachtlicher Siegeszug. Ein Grund dafür ist
sicherlich die Tatsache, dass AVI als Bestandteil von "Video für Windows" bald fest mit Windows
verknüpft war. Die entsprechenden Treiber standen und stehen für Endbenutzer kostenlos zur Verfügung.


DivX
Mittels dieser Technologie lassen sich nämlich Videodateien so stark komprimieren, dass sie - auch
unautorisiert - relativ bequem über das Internet verschickt werden können. DivX basiert strukturell auf
dem MPEG-4 Video Standard und entsprechend kodierte Filme (in der Regel AVI-Dateien) können mit
Hilfe eines passenden Codes in gängigen Video-Bearbeitungs- und Wiedergabe-Programmen editiert und
angezeigt werden. Es gibt Codes für alle wichtigen Betriebssysteme wie Windows, Linux, MacOS und BEOS.
Mit DivX ist vermutlich die größte Hürde für die Videobearbeitung am PC genommen worden, denn mit
DivX steht ein ausreichend gutes Kompressionsverfahren zur Verfügung, um einen kompletten
MPEG-2-DVD-Film auf eine CD-R zu brennen, um einen Zwei-Stunden-Kinofilm in passabler Qualität
über normale CDs zu betrachten. Durch DivX kann die Dateigröße eines DVD-Films um das Zehn- bis
Zwölffache reduziert werden, so dass sich ein sechs Gigabyte großer Film auf relativ schlanke 700
Megabyte (und weniger) schrumpfen läßt. Die Qualität bleibt dabei deutlich über den VHS-Standard.
Die Erfinder von DivX behaupten, einen Microsoft-Codec für MPEG-4 geknackt zu haben. Darum ist der
DivX-Code auch Illegal. Microsofts erste Implementierung von MPEG-4 ist seit Windows 98 auf jedem
Windows-PC installiert und beschränkt die maximale Datenrate auf 256 Kilobit pro Sekunde. Für ein
ruckelfreies Video in ansprechender Qualität ist das zu wenig. Durch den Hack wurde die Erhöhung der
Bitrate auf bis zu 6000 Kilobit pro Sekunde möglich. Doch eine so hohe Bitrate ist gar nicht notwendig:
600 Kilobits pro Sekunde sind völlig ausreichend. Zudem wird vor der eigentlichen Frame-Codierung ein
Weichzeichner eingeschaltet. Dieser ist nötig, da MPEG-Verfahren bei hohen Kontrastsprüngen für ein
scharfes Bild mehr hochfrequente Signale und damit hohe Datenraten benötigen. Stehen diese nicht zur

Verfügung, entstehen im Bild unansehnliche Artefakte, denen der Weichzeichner entgegen wirkt.
Für die Weiterentwicklung von DivX will der französische Hacker Jérome Rota (alias Gej) verantwortlich
sein. Der nächste DivX-Nachfolger - "DivX Deux" - soll noch leistungsfähiger sein.
Dazu gesellen sich Entwickler, die an weiteren Video-Komprimierungsverfahren arbeiten. Besonders
erwähnenswert ist (Anfang 2001) z.B. "3ivX": Diese DivX-Weiterentwicklung soll bei bis zu 60%
höherer Kompression eine noch bessere Bildqualität zu erzielen.


Allerdings müssen DivX-Dateien immer mit der Version abgespielt werden, mit der sie komprimiert
wurden, da auch die neueren DivX-Codecs nicht mit ihren älteren Versionen kompatibel sind.


Mit DivX lassen sich übrigens nur die Bilder einer Videos bearbeiten - nicht jedoch der Ton. Dafür wird
meist das bewährte MP3-Format hinzugezogen. Es gibt bereits (Anfang 2001) einige Programme, die sich
DivX bedienen, um DVD-Filme in DivX-Dateien umzuwandeln. Ein weit verbreitetes heißt FlaskMPEG.
Der Grund für die Benutzung von DivX, bei den Meisten Anwendern, ist das dieser Decoder
Benutzerfreundlicher ist fast jedes Videobearbeitungsprogramm unterstützt DivX. Diese Möglichkeiten
bietet auch MPEG-1, was sich aber durch die schwächere Komprimierung nicht lohnt.


Bei der Codierung und Dekodierung Benötigt man noch sehr leistungsfähige PCs. Um sich ein DivX Codiertes Video anzugucken sollte man mindestens 20 Mhz haben. Um Videos zu codieren brauch man schon etwas Leistungsfähigeres, mit einer CPU von 800 Mhz kann man schon eigene Videos gestalten und aufnehmen. Der Nachteil ist das man bei 800 Mhz sehr lange warten muss bis es Gerändert ist (in ein anderes Format umgewandelt oder stärker komprimiert wird). Videoaufnahmen sind sehr abhängig von der Mhz Zahl, darum sollte man sich beim kauf eines neuen PC, um Videos vernünftig zu bearbeiten mindestens einen 1,6 Ghz getakteten PC kaufen. Da der PC sonst bei zu hohen Auflösungen Bilder in der Sekunde verliert oder Bild und Ton bei der fertigen Aufnahme Asinkron laufen.

 

Bewertung: 
0
Bisher keine Bewertung

Videodatenmenge

Videofilme setzen sich aus einer Reihe einzelner Bilder zusammen. Ein einzelnes Bild des Films wird als Frame bezeichnet. Durch das Projizieren mehrerer Frames pro Sekunde wird der Eindruck bewegter Bilder erzeugt.

1. Videonormen
NTSC
Einführung: 1953 vom National Television System Comitee
Länder: USA und Kanada
Anmerkung: Führt bei Hauttönen zu Übertragungsfehlern

PAL (Phase Alternation Line)
Modifikation der NTSC-Norm
Einführung: 1962
Länder: Westeuropa (außer Frankreich)

SECAM
Einführung: 1957
Länder: Frankreich
Anmerkung: Dieses Verfahren weist bei extremen und schnellen Farbwechseln Flimmereffekte auf

2. Dateiformate

2.1. QuickTime
QuickTime ist eine Systemsoftware-Erweiterung und ermöglicht das Abspielen und Bearbeiten von digitalen Videofilmen und virtuellen Räumen (QTVR > Quick Time Virtuell Reality).
QuickTime arbeitet mit folgenden Softwarekomponenten:

  • Movie Toolbox
    zuständig für Zeitmanagement eines Films
  • Image Compression Manager (ICM)
    zuständig für die Komprimierung und Dekomprimierung des Videos
  • Component Manager
    Verwaltungsmanagement zur Unterstützung der Hard- und Software



3. Aufbau eines Digitalen Films
Filme haben zwei verschiedene Spuren oder Tracks: eine Videospur und eine Audiospur. QuickTime – Filme sind im Prinzip genauso aufgebaut, jedoch nicht auf zwei Spuren beschränkt. Sie können mehrere Spuren im Audio- und Videobereich haben.

Hinzu kommt eine Spur mit einer Zeitskala. Der Film wird über eine numerische Zeitskala gesteuert. Positive Zahlen bewirken einen normalen Vorlauf, negative Zahlen lassen den Film rückwärts laufen.
QuickTime – Filme haben ein eigenes Zeitkoordinatensystem.
Es beinhaltet eine Zeitskala und eine -dauer.

Der Component Manager steuert den Zeitablauf derart, dass die Filme auf verschiedenen Rechnersystemen immer in der richtigen Geschwindigkeit ablaufen.


4. Vorschau
Die Vorschau wird als Kontrolle des Schneidergebnisses genutzt. Eignet sich nicht zur Kontrolle komplexer Übergänge oder Animationen, da hier mit reduzierten Videospuren und einer veränderten Timebase gearbeitet wird.


5. Digitalisieren von Videomaterial
Hardwarevoraussetzungen: eine S-VHS-Videoquelle sowie eine Video Capture Card (Digitalisierungskarte)

Die Bildgröße, die Farbtiefe und die Framerate bestimmen die anfallende Datenmenge. Da es sich um sehr hohe Datenmengen handelt, ist es notwendig, die benötigten Datenmengen zu reduzieren.
Es gibt drei Möglichkeiten der Datenreduzierung:

  • Komprimieren der Videodaten
  • Verringern der Bildmaße des aufgenommenen Videos
  • Verringern der Framerate des aufgenommenen Videos



6. Komprimierung

Unter Komprimierung versteht man den Vorgang des Entfernens oder Umstrukturierens von Daten mit dem Ziel, die Datei zu verkleinern.
Für das Komprimieren und Dekomprimieren von Videos werden Komprimierungsalgorithmen – oder auch Codecs genannt – benötigt. Codecs sind mit Plug-ins vergleichbar. Sie vergrößern den Funktionsumfang der Videoschnittsoftware.
Verschiedene Codecs:
Animation, Cinepak, Grafik, Video, MPEG

Diese Codecs verwenden verschiedene Methoden des Entfernens und Umstrukturierens der Daten.


6.1. Verlustfreie Komprimierungsmethoden

  • Originaldaten bleiben erhalten
  • in den meisten Fällen wird eine Lauflängen-Kodierung verwendet (hier werden fortlaufende Bereiche gleicher Farbe entfernt)
  • eignet sich für Bilder, bei denen z.B. Hintergründe oft aus einer Farbe gebildet werden
  • oft kein großer Einspareffekt


6.2. Verlustreiche Komprimierungsmethoden

  • Bildinformationen gehen verloren
  • es wird versucht, Bildinformationen zu entfernen, die dem Betrachter nicht auffallen
  • viele dieser Methoden bewirken einen zusätzlichen Datenverlust, wenn diese Bilder erneut komprimiert werden
  • es gibt jedoch Codecs, die eine frühere Komprimierung registrieren und somit eine zweite Komprimierung zu einem sehr geringen Datenverlust führt


6.3. Räumliche Komprimierung
Hierbei werden die Daten jedes einzelnen Frames komprimiert (immer verlustreich)

6.4. Zeitliche Komprimierung:
Hier werden die Daten durch Vergleich der einzelnen Bilder über einen Zeitraum komprimiert (weitäsgehend verlustfrei). Häufige Nebeneffekte: Verschwimmen, Streifen und Konturbildung im Film Beispiel: Framedifferenzierung
Es werden die Daten der Frames gespeichert, die Änderungen zum vorherigen Frame enthalten. Gut geeignet für Filme mit wenig Bewegung und hohen Anteilen n Wiederholungen von einem Frame zum nächsten.

6.5. JPEG-Bilddatenkompression
Wenn längere digitale Videosequenzen übertragen und gespeichert werden müssen, ist dies ohne Bilddatenkompression nicht möglich. Ohne eine Video-Digitalisierungskarte erfolgt die Kompression über Software-Codecs, welche die Komprimierung bzw. die Dekomprimierung mit Hilfe der CPU durchführen. Das Aufzeichnen von Videosequenzen in voller Bildgröße und -anzahl auf eine Festplatte ist mit einem Codec-Verfahren nicht machbar.

Mit einer Digitalisierungskarte ist dies möglich, da diese einen Komprimierungsprozessor für die Bilddatenkomprimierung zur Verfügung stellt.

Komprimierungsabfolge
Die JPEG-Kompression besteht aus den folgenden fünf Schritten:
1. Farbraumtransformation in YUV
2. Color-Subsampling 4:2:2
3. Einteilung in 8*8 Pixelblöcke und DCT
4. verlustbehaftete Quantisierung
5. Huffmancodierung (Lauflängencodierung)

Bei der Filmwiedergabe erfolgen die Schritte in umgekehrter Reihenfolge.


7. MPEG-Standards
MPEG steht für Motion Picture Expert Group. Dies ist der Ausschuss, welcher die Standards für die Komprimierung und Dekomprimierung von Digitalvideos festlegt.

Es gibt folgende Normen:
MPEG 1, -2, -4 und –7.

8. Datenmengenberechnung


(Formel nach Kompendium der Mediengestaltung, 4. Auflage)

B = Breite in Pixel
H = Höhe in Pixel
fv = Bildwiederholfrequenz in Hz
F = Farbtiefe in Bit
t = Gesamtlänge in Sekunden

Beispiel:
720 px * 576 px * 25 Hz * 24 bit * 60 s = 14929920000 bit |:8*1024*1024 = 1779,78 MB

Tags: 
Bewertung: 
5
Durchschnitt: 5 (4 Stimmen)

Videoschnitt

Filmmontage bezeichnet das Zusammenfügen von Einstellungen, Szenen und Sequenzen zu einer erzählerischen Einheit.

Im Schnitt oder der Montage entsteht der eigentlich Flim. Die verschiedenen Bausteine eines Flims werden in der endgültigen Abfolge aneinder montiert.

Schnittformen

Schnitt:
Die Bezeichnung Schnitt betrifft die eher handwerkliche Tätigkeit im Schneideraum, sie hat sich aus dem Arbeitsprozess des Auseinanderschneidens und Kürzen einzelner Einstellungen entwickelt.
 
Montage:
Spricht man von Montage, so geht es in erster Linie um den Inhalt und die Gestaltung. Während Schnitt eher das Aussondern und Kürzen des Materials betont, verweist die Bezeichnung Montage auf das Zusammenfügen der Einstellungen. Es ist das Konzept gemeint, nach dem dies geschieht.
 
Kriterien:
Wie jede Gestaltung muss auch jeder Schnitt, jede Überblendung und jeder von Ihnen eingesetzte Effekt motiviert und begründet sein. Die Schnittfolge muss die Handlung des Films weiterbringen und das Interesse des Zuschauers erhalten oder noch besser: steigern. Einstellungsgrößen und -längen sollten variiert werden. Allgemein erzeugen schnelle Schnittfolgen Spannung und Emotionen, lange Schnittfolgen wirken ruhig und sachlich
 
Im Schnitt sollen die Einstellungen so miteinander kombiniert werden, dass sie inhaltlich und optisch als zusammengehörig wahrgenommen werden.
vorhandene Bildmaterial sollte im Schnitt möglichst logisch und folgerichtig geordnet werden
jeder Schnitt sollte motiviert sein z.B. Anlässe für einen Schnitt können Bildimpulse sein, Tonimpulse im Text oder auf Geräuschebene)
ähnliche Bilder, die man aneinander schneidet, irritieren den Betrachter (kann aber auch als Stilmittel verwendet werden siehe Jump Cut)
ein Schnitt sollte ein eindeutig neues Bildangebot schaffen
unterschiedliche Kamerabewegungen sollte man im Schnitt nicht direkt aneinander setzen
durch einen Tempowechsel beim Schnitt kann die Aufmerksamkeit des Publikums gesteigert werden
bei erzählenden Darstellungen signalisiert die Blende Zeit- und Ortswechsel
mit Effektblenden sollte man äußerst sparsam und bewusst umgehen
 

Arbeitsablauf beim Schnitt:

- Material sichten
- unbrauchbare Aufnahmen ausmustern/ entfernen z.B. unscharfe, ablenkende oder verwirrende Aufnahmen
- gelungene und für das Projekt in Frage kommende Aufnahmen kennzeichnen
- digitalisieren des Materials in das Schnittsystem
- Rohschnitt *
- Feinschnitt**
- einfügen von Blenden
 
* Beim Rohschnitt wird die erste Auswahl und Anordnung des gedrehten Filmmaterials bezeichnet und festgelegt.
** Beim Feinschnitt werden die in ihrer Reihenfolge bereits festgelegten Einstellungen auf ihre endgültige Länge gebracht.
 
Motivierter Schnitt = Jeder Schnitt sollte einen Grund haben. Die Motivation kann durch die Bild- und Tonebene begründet sein. Man spricht hier auch von Bildimpulsen und Tonimpulsen.
Beispiel: Ein Mann zeigt auf etwas und es ist nur ein klingelndes Telefon zu hören. Hier sollte idealerweise der nächste Schnitt zu dem Telefon führen.
 
Irritierende Schnitte = Schnitte irritieren, wenn die Kontinuität der Darstellung nicht gewahrt wird. Wenn 2 aufeinander folgende Einstellungen keinen logischen oder optischen Zusammenhang aufweisen, spricht man auch von einem Anschlussfehler
Beispiel: Aufgabe ist 6 kurze Statements einer Straßenumfrage aneinander zu schneiden, dann sollte das Bildmaterial in Bezug auf den Abbildungsmaßstand der Person auf ihre Positionierung innerhalb des Bildrahmens und ihre Blickrichtung möglichst abwechselnd gestaltet sein.
 
Jump Cut = Schnitte, die einen Sprung des Motivs innerhalb des Bildrahmens erzeugen
Match Cut = bezeichnet eine Schnittfolge, bei der 2 auffällig ähnliche Bildinhalte aufeinander folgen, die zeitlich oder räumlich auseinanderliegen
Insert Schnitt = zeigen erläuternde Groß-oder Dateilaufnahmen
Diffuser Schnitt = immer dann, wenn eine Einstellung kein konkretes Blickzentrum (mehr) aufweist
 
Inhaltliche Montageformen
Erzählende Montage: Die einzelnen Stadien eines längeren Prozesses werden exemplarisch gezeigt.
Analysierende Montage: Darstellung von Ursache und Wirkung.
Intellektuelle Montage: Ideen und Begriffe werden visuell übersetzt.
Kontrast-Montage: z.B. Hunger - Essen
Analogie-Montage: z.B. Schafherde und Fabrikeinheiten in modernen Zeiten.
Parallel-Montage: Zwei Handlungsstränge laufen parallel nebeneinander her und werden ständig wechselnd geschnitten, z.B. eine Verfolgungsjagd. Die Stränge werden am Ende zusammengeführt, beide Stränge wissen meist von Anfang an voneinander.
Parallelisierende Montage: Die beiden Handlungsstränge sind wie bei der Parallel-Montage zeitgleich, sie wissen aber nichts voneinander und müssen sich nicht treffen.
Metaphorische Montage: Im Bereich der Handlung angesiedelte oder fremde Metapher.
 
Wahrnehmungsästhetische Schnittform
Harte Montage/harte Schnitte: Krass aufeinander folgend, Brüche, wechselnde Bewegungsrichtung.
Weiche Montage/weiche Schnitte: Harmonisch, kaum wahrnehmbare Übergänge.
Rhythmische Montage: Der Schnittrhythmus wird durch die Filmmusik bestimmt - die Filmmusik orientiert sich am Bilderrhythmus.
Springende Montage: Nicht harmonisch, zerfällt in einzelne Einstellungen, Aufzählung, harte Brüche.
Schockmontage: Zwei aufeinander folgende Einstellungen haben scheinbar keine Verbindung, bewusste Desorientierung des Zuschauers.
 

Schnitttechniken

Überblende
Filmschnitttechnik, die im Gegensatz zum harten Schnitt steht. Hierbei wird das alte Bild langsam ausgeblendet und das neue Bild gleichzeitig eingeblendet. Dadurch entsteht ein fließender Übergang zwischen beiden, was häufig verwendet wird, um zwei zeitlich oder räumlich weit voneinander entfernte Szenen zu suggerieren.
 
Wischblende
Filmschnitttechnik, bei der das alte Bild vom neuen Bild kontinuierlich überblendet bzw. ersetzt wird. Dies kann in vielfacher Art geschehen, z.B. auch horizontal, vertikal, diagonal, sternförmig oder im Uhrzeigersinn. Diese Schnitttechnik wird verwendet, um eine gleichzeitige Handlung an verschiedenen Orten darzustellen. Diese Technik wird in modernen Filmen nur noch selten verwendet, am bekanntesten dürfte die Verwendung von Wischblenden in den Filmen der Star-Wars-Reihe sein.
 
Akustische Klammer
Einstellungen oder Szenen werden durch filmischen Ton unterstützt. In den meisten Fällen wird dies durch den Soundtrack oder andere musikalische Beiträge bewerkstelligt. Oft wird aber auf das Stilmittel der vorgezogenen Soundeffekte und Dialoge verwendet. Das heißt, man hört z.B. schon eine Person reden, obwohl sich erst im Szenenwechsel klärt, dass dies zu einem späteren Zeitpunkt oder an einem anderen Ort geschieht.
Gängig ist auch der umgekehrte Weg, um beispielsweise von der Planung einer Aktion zu deren Durchführung zu schneiden, während die Tonspur mit der Erläuterung des Plans fortfährt.
 

Einstellungsgrößen

Unter Einstellungsgrößen bezeichnet man das Größenverhältnis des abgebildeten Objekts zum Bildfeld. Es handelt sich um verschiedene zueinander in Beziehung stehende Bildausschnitte. Sie sind ein wichtiges Mittel des bildlichen Erzählens und können psychologische Akzente setzen. Sie werden in der Regel in einem Storyboard definiert.
 
Jede Einstellungsform eignet sich für bestimmte Zwecke besonders gut. Eine wichtige Informationsquelle ist aber der Wechsel der Einstellungen. An ihr lassen sich stilistische Merkmale und auch die Handschrift des Regisseurs erkennen. Auch verschiedene Filmtraditionen und -kulturen verwenden traditionell sehr unterschiedliche Wechsel in den Einstellungen.
Actionfilme oder Dokumentarfilme weisen oft einen hohen Anteil an long shots auf, weil für diese Filme Mimik und nonverbale Ausdrucksformen weniger wichtig sind, sondern gesamte Vorgänge eingefangen werden. Die erforderlichen schauspielerischen Leistungen sind bei diesen Filmtypen vergleichsweise gering. Auch quasidokumentarische Filme enthalten oft viele totale Einstellungen und verraten hiermit ihre Herkunft aus dem Dokumentarfilm. Filme, die Beziehungen der Figuren und das Gefühl in den Vordergrund stellen, enthalten viele close-ups.
 
Die wichtigsten Einstellungen sind:
Totale (long shot)
Halbtotale (medium long shot)
Amerikanische Einstellung (american shot)
Halbnahaufnahme (medium close- up)
Nahaufnahme (close-up)
Großaufnahme (very close-up)
Detailaufnahme (extreme close-up)
 
Totale - long shot
Mit der Totalen wird dem Betrachter ein Überblick/Orientierung geboten. Er wird in die Thematik der Szene eingeführt.
 
Halbtotale - medium long shot
Es wird ein beschränkter Ausschnitt der Totalen gezeigt. So wird der Blick des Betrachters auf das bildwichtige Motiv gelenkt.
 
Amerikanische Einstellung - american shot
Es handelt sich um eine in Western häufig eingesetzte Einstellungsgröße. Beim Duell sehen wir einen Revolverhelden mit seinem Colt vom Knie an aufwärts im Vordergrund, sein Gegner steht leicht seitlich versetzt im Bildmittelgrund.
 
Halbaufnahme - medium close-up
Es werden erste Details gezeigt, z.B. die obere Körperhälfte einer Person.
 
Nahaufnahme - close-up
Es werden weitere Details des Motivs gezeigt. Für den Betrachter gehen der Überblick und die Möglichkeit zur Einordnung in die Umgebung verloren.

 

 

Bewertung: 
0
Bisher keine Bewertung