Wiki zu Druck und Medien

Datenbearbeitung

Bildbearbeitung

Einige Stichworte und Sammlungen zum Thema Bildbearbeitung

Gradationskorrektur

  • man spricht von einer Filterfunktion, die auf den Kontrast und die Schärfe im Bild einwirken
  • Tonwertverlauf kann weicher oder härter gestaltet werden
  • eine Kontraststeigerung ist bis zur vollständigen Strichumsetzung möglich
  • auch Schärfe und Detailkontrast lassen sich beeinflussen

Pixelretusche

  • die Fehlstellen im Bild werden durch die Retusche korrigiert
  • hierfür stehen Pinsel und Airbrush zur Verfügung
  • mit Hilfe der Airbrush-Funktion können z.B. einfarbige Fotos coloriert werden

Bildmontage

  • auch Composing genannt, erlaubt das Kombinieren von 2 oder mehr Vorlagen
  • best. Bildbereiche können freigestellt und nahtlos eingefügt werden
  • um einen Bildteil zu trennen und auf einen anderen Hintergrund zu stellen, ist Maskenherstellung erforderlich

Geometrieänderung

  • durch sie werden die Dimensionen und Positionen der Bilder festgelegt
  • hier sind folgende Möglichkeiten gegeben:
  • Skalieren (stufenlos vergrößern oder verkleinern)
  • Verschieben
  • Drehen
  • Spiegeln
  • Dehnen oder Verzerren

Bildgestaltende Möglichkeiten

  • vergrößern, verkleinern
  • einpassen des Bildes in vorgegebene Flächen
  • Spiegeln, Neigen, Drehen
  • Zoomen, Dehnen, Stauchen
  • Herstellen von Farbverläufen
  • Strichumsetzungen
  • Gradationsänderungen
  • Einfärben von Flächen
  • Weichzeichnereffekte oder Soften
  • Herstellung von Bildkombinationen
  • Vervielfältigung
  • Entfernung
  • Farbänderung von Bildteilen
  • Airbrusheffekte
  • Schwächung und Hervorhebung von Bildteilen
  • diverse Filter

Retuschierende Bearbeitung

  • Pinselretusche
  • lasierende und deckende Retusche
  • glättende Retusche
  • Pixelcopy-Retusche (kopierende Retusche)
  • Airbrushfunktionen
  • Plus- und Minuskorrektur
  • Steigerung der Lichter- und Tiefenzeichnung
  • Verbesserung der Detailzeichnung und der Bildschärfe
  • Kontraststeigerung
  • Farbstichentfernung
  • selektive Farbkorrektur
  • Entfernen von Flecken und Fehlstellen
  • Erzeugung von Masken zur Freistellung oder Überlagerung von Bildteilen

Druckverfahrensbezogene Bildbearbeitung

  • Kontrolle des elektronisch errechneten Schwarzauszugs
  • Kontrolle der Farbbalance
  • Unterfarbenentfernung
  • Unbuntaufbau und Buntaddition
  • Kontrolle konvertierter Datenformate
  • Kontrolle und Ergänzung zur elektronischen Seitenmontage aus Bildern und Text
  • Über- und Unterfüllungen
  • Abstimmung der Bilddateien auf Ausgabestation und Druckverfahren
  • Festlegung von Rasterweite
  • Rasterwinkelung
  • Kompensation des Druckverfahrens
  • Bildgestaltende Bearbeitung ist in Zusammenarbeit mit Auftraggebern, Werbeagenturen und Grafikdesignern lösbar
  • die Gestaltungsmöglichkeiten die von den einzelnen Programmen geboten werden, werden allerdings meistens nicht genutzt
  • Reprofachleute konzentrieren sich auf elektronischen Retuschen und Berücksichtigung des Druckverfahrens
  • nach dem Scannen liegen Ton- und Farbwerte analog zu den messbaren Dichtewerten des Bildes in digitalisierter Form vor
  • sie sind als Datei auf der Festplatte gespeichert
  • Bilddateien für elektronische Retusche benötigen Speichermedien hoher Kapazität und leistungsfähige Rechner
  • die allg. Bildqualität ist mit dem Auflösungsvermögen verbunden
  • Hochauflösung erfordert längere Rechenzeiten
  • bei Korrekturen und Veränderungen verlängert sich der Rechenprozess

Grundlegende Bildeinstellungen, Retuschen und Änderungen

  • Bildbearbeitungsprogrammen bieten auch technische Funktionen für eine erfolgreichen Reproduktion an
  • sie dienen der Bildeinstellungen in bezug auf das Druckverfahren
  • es gibt Funktionen für die Beeinflussung von:
  • Bildformat – Kontrast- und Schärfeverbesserung
  • Dateigröße – Beseitigung von Bildfehlern und Störungen
  • Dateientransfer
  • Farbraumumrechnungen
  • Datenkompression
  • Farbkorrekturen, Farbtrennung
  • Tonwertkorrektur
  • Vergrößerung und Verkleinerung von Farbflächen
  • Messung
  • Grau- und Farbbalance
  • Freistellungen
  • Rasterung
  • Text- und Bild- Bild- Integration

Optimierung der Bildschärfe

  • ist nach dem Scannen und der Übernahme von Bildern aus Photo-CD´s oft notwendig
  • hierzu gibt es spezielle Filter und Einstelloptionen, die versch. Grade der Schärfeverbesserung erlauben
  • die Filter heißen Unscharf maskieren, Scharfzeichnen und stark scharfzeichnen

Weiß- und Schwarzeinstellung

  • für die Ausgabe im Druck kann die Bilddatei Weiß und Schwarz in bezug auf das aktuelle Bild abgeändert oder festgelegt werden
  • es lässt sich mit virtuellen Weiß- und Schwarzpunktpipetten der Weiß- und Schwarzpunkt im Bild verändern
  • in der Regel können die Werte in RGB-Zahlen von 0 für Schwarz bis 255 für Weiß oder in CMYK-Rasterprozentsätzen zwischen 0% für Weiß und 100% für Schwarz gemessen werden
  • zwischen diesen Prozentsätzen für Weiß und Schwarz liegt die Abstufung der Tonwerte, die im Druck wiedergegeben werden können
  • für die Messung von Bildtonwerten und ihren Änderungen ist ein virtuelles Densitometer-Tool vorhanden

Tonwert- und Bildkontrastkorrektur

  • für diese Korrekturen stehen Fenster mit Interaktions- oder Eingriffsmöglichkeiten zur Verfügung
  • der Bildzustand vor und nach der Änderung wird für die Tonwertkorrektur über ein Histogramm sichtbar gemacht
  • das Histogramm zeigt den Tonwertbestand des Bilds in Form einer statistischen Verteilung der Tonwerte im Bild für die vorgegebenen RGB-Abstufungen von max. 0 bis 255
  • diese Extremwerte sind im Druck nicht reproduzierbar
  • deswegen muss der Tonwertumfang begrenzt oder angepasst werden
  • die korrekte Einstellung entspricht der Weiß- und Schwarzbestimmung für zu druckende Bilder
  • mit Reglern unter dem Histogramm lassen sich extreme Tonwertstufen am Anfang und Ende zusammenfassen oder nach innen versetzen
  • der Bildkontrast kann zusätzlich geändert werden
  • der Bildkontrast wird als Zahl oder Gammawert angezeigt
  • ein Gammawert von 1,00 bedeutet keine Kontraständerung
  • ein erhöhter Wert bedeutet im RGB-Modus Bildaufhellung

Gradationskurven

  • sie zeigen das Verhältnis zwischen bestehenden Tonwerten und abgeänderten Tonwerten
  • wenn keine Änderung erfolgt, ist die Gradationskurve eine Kennlinie, die im Winkel von 45° verläuft
  • den vorhandenen Tonwerten auf der Abszisse lassen sich Ausgabewerte auf der Ordinate zuordnen
  • hierbei sind gezielte Änderungen möglich
  • mit der Gradationskurve ist es möglich, unter Beibehaltung der Eckwerte für das eingestellte Weiß und Schwarz Tonwertbereiche selektive anzuheben oder abzusenken
  • Lichter, Schatten, Vierteltöne, Mitteltöne und Dreivierteltöne sind beliebig einstellbar
  • eine differenzierte Festlegung der Kontrastverhältnisse ist im Bild möglich

Farbkorrekturen

  • alle Farbumrechungen basieren auf augenbezogenen, errechneten Normfarbwerten CIE XYZ und hierauf aufbauenden CIE-Farbenordnungen wie dem CIE L*a*b*-System
  • deshalb können die Farbkorrekturen intuitiv nach den Parametern Farbton, Sättigung und Helligkeit (engl. Hue, Saturation, Value oder Brightness) vorgenommen werden
  • das zugeordnete Farbmodell heißt HSV, HSB oder Lab.
  • mit den Einstellgrößen werden Farben unter visueller Kontrolle regelbar
  • sie lassen sich durch Farbumrechnung in geräte- und prozessbezogene Farbsysteme wie RGB für den Monitor und CMYK für den Druck vor der Ausgabe übertragen

Grau- oder Farbbalance, Farbton, Sättigung, Helligkeit

  • mit diesen Einstellungen lassen sich gezielt Korrekturen vornehmen
  • sie lassen sich alle getrennt voneinander regeln, um den Farbtonwert zu optimieren

Selektivkorrektur

  • sie bezeichnet Farbwertänderungen, die nur in ausgewählten Farbbereichen wirksam werden
  • z.B. können Cyananteile in Hauttönen vermindert, im Violettblau verstärkt werden

Gradationskorrektur

  • erfolgt entweder während der Farbberechnung oder in einem separaten Gradationsprozess
  • Lichter, Mitteltöne und Tiefen sind gezielt veränderbar, Anfangs- und Enddichten sowie der Bildkontrast werden festgelegt

Grau- oder Farbbalance

  • ist dann gegeben, wenn die Gradationskurven der Teilfarben Gelb, Magenta, Cyan im Farbauszug in einem bestimmten Verhältnis zueinander stehen
  • nur dann ergeben sich neutrale Grautöne
Bewertung: 
3.333335
Durchschnitt: 3.3 (3 Stimmen)

Bildkorrektur

Es gibt viele Arten von Korrekturen, die man an einem Bild durchführen kann und die meisten Korrekturen können mit unterschiedlichen Herangehensweisen erreicht werden.

Wenn ein Bild im RAW-Format vorliegt, kann man es bereits vor dem eigentlichen Öffnen in Photoshop sehr umfangreich bearbeiten. Hier ist es möglich z.B. Belichtung, Weißabgleich/Farbtemperatur, Objektivverzerrung, Bildschärfe/Rauschreduzierung am RAW, welches noch die vollständige Bildinformation besitzt, nachträglich einzustellen.

Öffnet man das Bild nun in Photoshop, sind viele Möglichkeiten geboten diverse Korrekturen und Veränderungen am Bild durchzuführen. Natürlich gibt es die Einstellung Automatisierten Bildkorrektur, jedoch liegt hierin der Nachteil, dass man nicht selbst bestimmen kann, was am Bild verändert wird. Photoshop macht quasi was es für richtig hält, was aber nicht zwangsläufig auch dem gewünschten Ergebnis entspricht.

Daher ist es ratsam sich das Bild genau anzuschauen, zu überlegen, was ist gut, was ist schlecht, was möchte ich verändern/verbessern und anschließend die Korrekturen manuell auswählen und einstellen.

Generell macht es sinn gute Bildauswahlen zu erstellen und mit Hilfe von Masken nur die Teilbereiche zu bearbeiten, die der jeweiligen Korrektur bedürfen.

Wichtige Korrekturen und einige Möglichkeiten sie umzusetzen sind z.B.:

Helligkeitsveränderungen (zu helle Bilder abdunkeln, zu dunkle Bilder aufhellen):

  • Gradationskurve,
  • Bildkorrektur Tiefen/Lichter,
  • Tonwertkorrektur

Kontrast (bei flauen Bildern erhöhen):

  • Gradationskurven,
  • Tonwertkorrektur,
  • Ebenen ineinanderkopieren

Farbstiche entfernen: 

  • Gradationskurven
  • Farbbalance
  • Farbton/Sättigung
  • Selektive Farbkorrektur

Retusche/Bildmanipulation:

  • Ausbessern-Werkzeug,
  • Kopierstempel,
  • Dodge&Burn-Methode,

Schärfen/Struktur hervorheben:

  • Filter: Unscharf maskieren
  • Filter: Hochpass + Ebeneneinstellung Ineinanderkopieren
  • Filter scharfzeichnen

Hauttöne überarbeiten:

  • Gradationskurven (meist etwas weniger Cyan, damit die Haut im Druck nicht "dreckig" wirkt)

Freisteller:

  • Ebenenmaske über freizustellendes Objekt legen und die Bereiche, die ausgeblendet werden sollen, auf der Maske mit schwarz füllen, was zu sehen sein soll hingegen weiß einfärben
Bewertung: 
0
Bisher keine Bewertung

Graubalance

Bei der Graubalance handelt es sich um das Zusammenspiel der drei Grundfarben Cyan, Magenta und Yellow im Druck....

Wenn man mit diesen drei Farben ein neutrales Grau drucken möchte, muss man bestimmte Rasterwerte einhalten damit es neutral (also ohne Farbstich) wird. Dies geschieht in der Reproduktion bzw. ist in den ICC-Farbprofilen vorgegeben.

Man könnte glauben, dass z.B. 40% Cyan, 40% Magenta und 40% Yellow grau ergeben – so ist es aber leider nicht.

Warum nicht?: Weil die Beschaffenheit der Pigmente in den drei Farben nicht optimal ist. Und somit hat man ermittelt, dass Cyan einen höheren Tonwert benötigt als etwa Magenta und Yellow. So kam man auf Werte wie: C. 50%, M: 40%, Y: 40%...

Bei der GCR-Farbseparation versucht man graue Farbtöne oder Grauanteile der Mischfarbe durch Schwarz anstelle der drei Farbanteile C,M,Y zu drucken. Dadurch hat der Drucker weniger Probleme ein Bild mit den richtigen Farben  zu drucken. Grau wird immer ohne Farbstich gedruckt, da keine bunten Farben mitdrucken und in Farben in denen 3 Grundfarben vorkommen (Tertiärfarbe) wird die mögliche Farbabweichung minimiert.

 Außerdem hat der Drucker mit dem Graubalance-Feld im Druckkontrollstreifen ein Hilfsmittel, um visuell zu prüfen, ob er die Farbeinstellung der Farbwerke richtig vorgenommen hat. Er erkennt am Graubalancefeld, welches im 40% und 80% Tonwert-Bereich vorhanden ist, ob ein Farbstich und somit eine falsche Farbeinstellung der Druckmaschine vorliegt. Vorraussetzung: Richtige ICC-Profile bei der Farbseparation und richtig belichtete Druckplatten, richtige Papierwahl, etc.

 

Bewertung: 
3.5
Durchschnitt: 3.5 (2 Stimmen)

Keying

Bewertung: 
0
Bisher keine Bewertung

Farbdefinition

Farbdefintion, Farbdichte, Farbräume, ...

Bewertung: 
0
Bisher keine Bewertung

Farbtemperatur

Laut wissenschaftlicher Definition ist die Farbtemperatur die Temperatur, die ein Schwarzer Körper (der alles Licht schluckt) haben müsste, um der jeweiligen Lichtquelle zu entsprechen – er müsste vereinfacht gesagt glühen, so wie z.B. Metall bei unterschiedlichen Temperaturen mit unterschiedlichen Farben glüht.

Mit der Farbtemperatur und der Einheit K (Kelvin) wird die Lichtfarbe gemessen, die eine spezifische Lichtquelle abgibt. Das Spektrum geht dabei von Rot über Gelb und Weiß zu blau. Je niedriger die Farbtemperatur ist, desto roter ist das abgegebene Licht.

Besondere Bedeutung kommt der Messung der Farbtemperatur bei der Fotografie und der Farbbeurteilung im Druck zu.
In der Fotografie muss die Farbtemperatur eingestellt werden, um die aufgenommenen Farben realistisch wiederzugeben. Das geschieht in der Digitalfotografie über den Weißabgleich, in der Analogfotografie über die Wahl von Tageslicht- oder Kunstlichtfilmen bzw. über entsprechende Filter.
Für die Farbbeurteilung im Druck muss ein neutralweißes Licht (Normlicht, D50) als Lichtquelle gewählt werden, da das menschliche Auge einen automatischen Weißabgleich vornimmt und Farben unter Lichtquellen mit »Farbstich« nicht richtig beurteilt werden können.

Abbildung

Übersicht der Farbtemperatur häufiger Lichtquellen:

Kerze: 1500 K
Glühlampe (40 W): 2200 K
Halogenlampe: 3000 K
Abendsonne: 3400 K
Normlicht: 5000 K
Tageslicht (Sonne): 5500 K
Bewölkter Himmel: 6500 bis 7500 K
Nebel: 8500 K
Himmel (blau) vor Sonnenaufgang: 9.000 bis 12.000 K

Bewertung: 
0
Bisher keine Bewertung

U7: YCbCr-Farbmodell

Von JAESMINDA:

U7. YCbCr-Farbmodell (ro. Buch, Kap. 11, ab S.814)

Definition
ist ein Helligkeit-Farbigkeit-Modell
damals Farbmodell für Digitalfernseh entwickelt
      Norm: PAL (=Phase Alternating Line = Verfahren zur Farbüber-
    tragung bei Analogfernseh, Ziel: störende Farbton-Fehler 
    automatisch zu kompensieren)
heute auch für Aufnahmen von analogen und digitalen Videos/JPG/DVD
Wofür YCbCr?
Verfahren indem Farbtöne weggelassen werden, die der Mensch (physisch) nicht wahrnehmen kann = „Color-Subsampling“ (=Farb-Unterabtastung)
aber warum weglassen?? = da menschl. Auge Helligkeitsunterschiede deutlich besser wahrnehmen kann als Farbtonunterschiede oder Sättigungsunterschiede
weglassen von Farbtönen bedeutet verlustbehaftete Kompression der Datenmenge 
Datei ist nach Kompression nicht mehr 1:1 herstellbar
durch zu starkes Komprimieren (Wegfall von Bilddaten) können Bildfehler entstehen= ARTEFAKTE
im Modell RGB ist Helligkeit in allen drei Kanälen enthalten
bei der Fernseh-/Videotechnik soll Helligkeit als eigenes Signal zur Verfügung stehen
analoges Signal nicht sendefähig, muss erst im Studio bearbeitet werden
Von  RGB zum analogen Signal YUV
Y lässt sich aus : Y= 0,3 R + 0,59 G + 0,11 B errechnen
Grün trägt knapp 60% Anteil zur Helligkeit bei
um Farbe zu beschreiben werden aus
Von  RGB zum digitalen Signal YCbCr
Modell zerlegt Bilder in 3 Komponenten = Y (Helligkeit) und Cb Cr 
(2 Farbkomponenten)
Y = Grundhelligkeit => entspricht Helligkeitsempfindlichkeit des 
Auges
Cb = Blue-Yellow Chrominance 
Cr = Red-Green Chrominance
Formel:
    Y          0        1        R
    Cb    =    128    +    0    x    G
    Cr     =   128        0        B

Ohne Matrizenschreibweise sieht die Umrechnung wie folgt aus:

Y' = (0,299) * R' + (0,587) * G' + (0,114) * B'

Cb = -(0,168) * R' - (0,330 )* G' + (0,498) * B' + 128

Cr = (0,498) * R' - (0,417) * G' - (0,081) * B' + 128

„Verschiebewert“ um von RGB in den YCbCr-Farbraum umrechnen zu können (128=Mittelwert, da Wert für neutrales Grau)
Überführung von analog in digital
Sampling (Abtastung) des Analogsignals (mit 13,5 MHz) = Abtastung erfolgt mit hoher Frequenz da Bilder viele Informationen enthalten
Digitalisierung erfolgt mit 8 oder 10 Bit
 

Digitalisierungsmöglichkeiten
4:4:4
- die 3 Signale Y Cb Cr werden mit jeweils der gleichen Abtastfrequenz (13,5Mhz) digitalisiert 
= beste Bildqualität
= höchste Datenmenge
= im Profibereich
4:2:2
- Cb und Cr werden „Color-gesampled“ = halbe Abtastfrequenz
- d.h. für 4px werden zwar alle Helligkeitswerte, aber nur jeweils 2 Farbwerte abgespeichert
= außgehend vom 1. Verfahren: Datenmenge wird um 33% verringert
= Semiprofibereich - Profibereich
4:2:0
- von 4px werden alle Helligkeitsinformationen behalten, jedoch nur jeweils 1 Farbinfo abgespeichert
- außgehend vom 1. Verfahren: Datenmenge reduziert sich um 50%
= Consumerbereich - Semiprofibereich

https://de.wikipedia.org/wiki/YCbCr-Farbmodell
https://kompendium.infotip.de/farbraeume-und-farbmodelle.html
https://www.youtube.com/watch?v=5pgIihxwG48

 

Bewertung: 
0
Bisher keine Bewertung

Videosignale

Videosignale

 

1.    Analoge Videosignale

1.1   YUV (YCbCr)

-         Anwendung in der Fernseh-Videotechnik

-         Y=Helligkeitssignal; U=Farbdifferenz; V=Farbdifferenz

-         Die beiden Farbsignale U und V sind vom Helligkeitssignal Y getrennt

-         Durch Verwendung von drei Signalen ist das Signal nicht sendefähig und wird nur für die professionelle Studiobearbeitung verwendet

 

1.2   Y/C (S-Video)

-         U und V werden zu einem Signal zusammengefasst;

-         Findet durch Digitalisierung kaum noch Beachtung

-         Anwendung in der semiprofessionellen Videoproduktion

 

1.3   FBAS Composeite

-         „Farbe Bild Austast Synchron“

-         Standardsignalform von Fernsehen und VHS

-         Helligkeits- und Farbsignale werden zu einem zusammengefasst

-         Fernseher ermittelt RGB-Anteile des FBAS-Signals

-         Nachteil: Auftretende Störungen durch Cross-Color (z.B. die Darstellung von karierter Kleidung im TV)

 

 

2.    Digitale Videosignale

2.1   Vorgang

-         SAMPLING (Abtasten): mit 13,5 MHz

-         DIGITALISIEREN: Abtasttiefe 8-10 Bit

-         Dadurch entsteht eine sehr hohe Datenmenge, weswegen Color-Subsampling angewandt wird (mehrere Pixel werden zusammengefasst, Verzicht von Farbinformation spart Datenmenge)

 

2.2   4:4:4

-         Y, Cb und Cr werden mit der gleichen Abtastfrequenz von 13,5 MHz digitalisiert

-         Vorteil: Höchste Qualität

-         Nachteil: Größte Datenmenge

 

2.3   4:2:2

-         Cb und Cr werden mit der halben Abtastfrequenz abgetastet (->Color-Subsampling, siehe 2.1)

-         Bsp: für 4 Pixel werden 4 Y, aber lediglich je 2 Cb und Cr abgespeichert

-         Reduktion der Datenmenge um 33%

 

2.4   4:2:0

-         DV-Format

-         Findet im Consumer-Bereich Anwendung

-         Bsp: für 4 Pixel werden wieder 4 Y, aber lediglich nur je 1 Cb und Cr abgespeichert

-

         Reduktion der Datenmenge um 50%

Bewertung: 
0
Bisher keine Bewertung

Farbensehen – Farbmetrik

  • die lichtempfindliche Struktur des Auges ist die Netzhaut
  • die enthält die Photorezeptoren (Stäbchen und Zapfen) sowie verschiedenartige Nervenzellen, die sich schließlich zum Sehnerv vereinen
  • die Rezeptoren wandeln als Messfühler den Lichtreiz in Erregung um
  • nur die Zapfen sind farbtüchtig
  • es gibt 3 verschiedene Zapfentypen, die je ein spezifisches Photopigment besitzen, dessen Lichtabsorption in einem ganz bestimmten Wellenlängenbereich ein Maximum aufweist
  • diese Maxima liegen im Rotbereich bei 600 – 610 nm (Rotrezeptor), im Grünbereich bei 550 – 570 nm (Grünrezeptor) und im Blaubereich bei 450 – 470 nm (Blaurezeptor)
  • durch die Überschneidung der Absorptionskurven sprechen auf viele Wellenlängen mehrere Zapfentypen in unterschiedlicher Stärke an
  • jede Farbe wird durch ein für sie typisches Erregungsverhältnis der 3 Rezeptorentypen bestimmt
  • die Farbvalenz ist die Bewertung eines Farbreizes durch die 3 Empfindlichkeitsfunktionen des Auges
  • pathologisch können eine oder mehrere Komponenten gestört sein oder ganz fehlen – es kommt dann zu Farbsehstörungen, der Farbenschwäche oder Farbenblindheit
  •  diese Störungen werden durch das X-Chromosom rezessiv vererbt
Farbmetrik
  • die Farbmetrik entwickelt Systeme zur quantitativen Erfassung und Kennzeichnung der Farbeindrücke (Farbvalenzen)
  • das menschliche Farbensehen wird messtechnisch erfassbar und ermöglicht somit eine objektive Prozesssteuerung des gesamten Workflows
  • die Normfarbwertanteile x, y und z kennzeichnen den geometrischen Farbort einer Farbe
  • sie lassen sich einfach aus den Farbvalenzen errechnen
Farbseparation
  • wenn es um das Drucken von Farben geht, hört man oft den Begriff Farbseparation. Dies kann mehreres bedeuten: Spotfarben, Schmuckfarben
  • als Spot- oder Schmuckfarben werden Farben bezeichnet, die nicht durch Farbmischung beim Drucken erzeugt werden, sondern dadurch, dass der jeweilige Farbton beim Drucken dazugegeben wird.
  • werden Spotfarben gedruckt, dann ist für jede Farbe eine separate Druckvorlage notwendig
  • will man 7 verschiedene Farben, benötigt man auch 7 Filme pro Seite
  • Farbseparation bedeutet hier, dass die einzelnen verwendeten Farben herausgefiltert und auf separaten Filmen belichtet werden
Vierfarbdruck
  • Farbseparation bedeutet beim Vierfarbdruck, dass die verwendeten Farben in ihre Grundbestandteile zerlegt werden, so dass 4 Filme benötigt werden
  • 16,7 Mio. Farbnuancen werden durch Mischen von 3 Grundfarben erzeugt
  • die 4. Farbe schwarz dient zur Qualitätssteigerung
  • durch ein satteres Schwarz werden Tiefen erzeugt, die durch die Mischung der 3 Grundfarben nicht erreichbar wären
  • dabei müssen die einzelnen Punkte so angeordnet werden, dass kein Moiré entsteht
  • Rasterweiten und Rasterwinkelungen müssen für jede Farbe unterschiedlich und sehr präzise eingestellt werden
  • hier werden sehr hohe Anforderungen an alle Komponenten gestellt
  • z.B. benötigt das Belichtungsstudio Belichter mit hoher Genauigkeit, die in klimatisierten Räumen stehen müssen
  • auch werden für Belichtungen von Filmen für den Vierfarbdruck neue Möglichkeiten der Rasterung (z.B. andere Punktformen) entwickelt
Analytische Farbmetrik
  • Normale = deskriptive (beschreibende) und analytische Farbmetrik
  • die „normale“ Farbmetrik hat die Aufgabe Farben zu messen und zu beschreiben und darüber hinaus in der „höheren“ Farbmetrik auch Farbunterschiede möglichst empfindungsgemäß richtig zu bewerten. Diese Aufgaben sind zusammenfassend als deskriptive einzustufen
  • die „analytische Farbmetrik“ geht der Farbe „auf den Grund“, bewertet die optischen Materialeigenschaften z.B. einer Lackfarbe in Gestalt ihrer optischen Daten, d.h. ihrer wellenlängenabhängigen Absorptions- und Streukoeffizienten
  • die normale Farbmetrik bestimmt z.B. eine Farbdifferenz, die analytische klärt ihre Ursache und ermöglicht ihre Beseitigung
  • während die normale, deskriptive Farbmetrik nur z.B. feststellen kann, dass zwischen 2 blauen Testaufstrichen eine Ursache dieser Farbdifferenz auf eine um 5% geringere Farbstärke zurückzuführen und die Farbdifferenz durch entsprechende Änderung der Konzentration zu beseitigen
  • s/w – Kontrast – appliziert man einen Lack in nicht deckender Schicht auf schwarz-weißem Kontrastkarton so ist zwischen Schwarz und Weiß ein Kontrast – die Berechnung des Deckvermögens des Lackes anhand der optischen Daten, die aus den R-Werten über Schwarz und Weiß berechnet werden können
Farbrezeptberechnung
  • mittels der optischen Daten, die sich aus den R-Werten von „Eichfärbungen“ berechnen lassen, werden die Konzentrationen von Farbmitteln berechnet, welche den gleichen Farbeindruck wie die Vorlage hervorrufen
  • die analytische ermöglicht die Berechnung von Farben aus optischen Materialkonstanten

 

Bewertung: 
0
Bisher keine Bewertung

Farbseparation

Siehe auch hier: Farbseparation

- ursprünglich eine klassische Aufgabe der Druckvorstufe, wird die Farbseparation für immer mehr Fotografen zum Thema
– mit den noch wenig verbreiteten Colormanagementsystemen und den passenden ICC-Profilen ist diese Problematik recht einfach zu lösen
– immer wieder hört man, einer der Hauptvorteile der Digitalfotografie sei die Tatsache, dass der Druck auf den Auslöser in Sekundenschnelle druckreife Bilddaten liefere
– da auch die Kunden diesen Schwachsinn vernehmen, verlangen immer mehr Auftraggeber aus Kosten- und Zeitgründen nicht nur digitale, sondern auch druckfertige Bilddaten
– zwar lässt sich das Digifoto tatsächlich sofort auf jedem beliebigen Fotodrucker ausgeben; vor den „echten“ Druck in Katalog, Zeitschrift oder Anzeige hat der Herr der Bilder allerdings die Farbseparation gestellt
– dieser Prozess bestimmt, wie der Bildinhalt auf die 4 Druckfilme verteilt wird
– es ist ein sehr komplexer Prozess, bei dem zahlreiche Faktoren berücksichtigt werden müssen
– die endgültige Farbgebung wird von der Vorstufe erst nach der Farbseparation festgelegt
– sinnvoll wäre es jedoch, dass ein digital arbeitendes Fotostudio den Schritt in den CMYK-Farbraum wagt: die Bilddaten sind vorhanden, ebenso wie das erforderliche „Werkzeug“
– der gut bezahlte Job der Farb-Reprografen wird heute langsam in Maschinen- bzw. Softwarewissen überführt
– wenn allerdings ein digitales Bild über einen Filmrekorder auf Diamaterial ausbelichtet wird, ist keine Farbseparation erforderlich
– Filmrekorder und Dia arbeiten im RGB-Farbraum

Separationssoftware
– Spezialprogramme wie etwa Linocolor (früher: Linotype), ResoLUT oder die speziell für Leaf-Digitalkameras abgestimmte Variante ColorShop von Scitex liefern exzellente Ergebnisse
– aber auch Photoshop bietet ein Fülle von Funktionen. Allerdings gehen hier die Meinungen was die Qualität angeht auseinander: eine Seite verschmäht die Separationsergebnisse von Photoshop, für die andere Seite ist es das Non Plus Ultra
– Photoshop ist auf einem kalibrierten System durchaus in der Lage, exzellente Resultate zu zeigen. Aber bereits eine einzige fehlerhafte Einstellung kann zum kompletten Bildermüll im Druck führen
– nur mit dem Klick auf den CMYK-Modus ist es nicht getan

– für gute Ergebnisse ist die absolut sorgfältige Eingabe der versch. Parameter entscheidend
– man kann versuchen mit der Trial-And-Error-Methode zu den korrekten Einstellungen zu kommen
– für ein echtes Verständnis der Farbseparation ist es aber ohnehin unabdingbar, sich mit den
theoretischen und praktischen Grundlagen des Prozesses vertraut zu machen

Basics: Addition und Subtraktion
– die Wurzel der Problematik liegt im Unterschied zwischen den Farbmodellen, die im Produktionsprozess eine Rolle spielen
– Digitalfotografie findet im RGB Farbraum statt
– für die Darstellung auf dem Monitor stehen 256 Abstufungen zur Verfügung
– insgesamt also 16,8 Mio Farben
– es ist das additive Farbmodell
– Legt man alle 3 Farben in voller Intensität übereinander entsteht weiß
– das Übereinanderlegen in minimaler Intensität (0,0,0) ergibt schwarz
– subtraktives Farbmodell: CMYK, verhält sich gegenüber RGB genau andersherum
– es ist das subtraktive Farbmodell
– Druckt man alle 3 Bunt-Farben (c,m,y) in voller Intensität übereinander entsteht Schwarz
– das Übereinanderlegen in minimaler Intensität ergibt lichte Töne
– Farbe auf dem Monitor ist selbstleuchtend. Gilt auch für Dias (wirkt wie Filter zwischen Netzhaut und Umgebungslicht). Gedruckte Farbe: matter Reflex: das einfallende Licht wird von den Farbpigmenten reflektiert und auf das Auge projiziert
– Folge: die Farbwirkung des Drucks weicht auch dann von der Monitordarstellung ab, wenn alle RGB-Farben tatsächlich den CMYK-Werten entsprechen (weiß & schwarz auf Monitor wirken anders als auf Papier)
– die Kunst der Farbseparation besteht darin, die grundsätzlichen Probleme bei der „Übersetzung“ jedes RGB-Wertes in ein CMYK-Wert so weit wie möglich zu eliminieren und ein visuell gefälliges Ergebnis im Druck sicherzustellen
– es kommt dabei nicht darauf an, dass einzelne Farben absolut exakt wiedergegeben werden, wichtiger ist viel mehr, dass der Gesamteindruck stimmt
– ebenso entscheidend ist, dass vor der Separation mechanisch-physikalische Eigenschaften des Druckprozesses vorhergesehen und bei der Berechnung der Farbwerte für die einzelnen Bildpunkte berücksichtigt werden.

– Die wichtigsten sind:

Tonwertzuwachs
– der gleichen Tropfen Tinte ergibt auf grobem Löschpapier einen größeren Fleck als auf glattem Briefpapier
– dasselbe zeigt sich beim 4-Farbdruck auf versch. Papiersorten
– auf entsprechend saugfähigem Papier kann eine am Monitor auf 50% Grau eingestellte Fläche wesentlich dunkler ausfallen, da die einzelnen Rasterpunkte auslaufen
– verschiedene Druckarten haben unterschiedlichen Tonwertzuwachs, da die Druckform unterschiedlich stark an das Papier gedrückt wird; das bewirkt, dass der Druckpunkt leicht auseinandergedrückt wird.
– im Photoshop wird dieser Wert unter den Separationseinstellungen eingestellt

UCR

– UCR steht für Under Color Removal (Unterfarbenreduzierung) und bewirkt, dass bei dunklen Farben die Tiefe vor allem durch den Schwarzauszug erreicht wird – hierzu reduzieren die entsprechenden Separationsalgorithmen gleiche Anteile der drei Druckfarben und ersetzen diese durch schwarz.

GCR
– GCR steht für Gray Component Replacement (Unbuntaufbau)

– GCR ist für einen Großteil der Produktionsmethoden (besonders im Rollenoffset) der Standard
– Beim GCR-Schwarzaufbau wird eine wählbare Menge von Grauanteilen einer Farbe ersetzt.
– Vorteil: Neutrale Grautöne bekommen bei schwankendem Farbauftrag im Druck keinen Farbstich
– Nachteile: subtile Farbverläufe (etwa in Hauttönen) fallen unter Umständen zu hart aus

Step-by-Step
– ausgehend von einem RGB-Bild erfordert die erstmalige Farbseparation mit Photoshop zum einen die Grundkalibrierung des Systems, zum anderen die Eingabe der eigentlichen Separationseinstellungen

Schritt 1: Kalibrierung
– umfaßt die Einstellung des Monitorgammas und die Abstimmung des Bildschirm-Weiß auf die Farbe des später im Druck verwendeten Papiers
– dazu kommt die Monitorfarbeinstellungen, die deshalb besonders wichtig sind, weil die hier vorgenommenen Änderungen die Umwandlung von RGB in CMYK beeinflussen (Grundkalibrierung muß nur einmal gemacht werden)

Schritt 2: Bearbeitung
– RGB-Bild kann nun beliebig bearbeitet werden
– Warum führt man nicht die komplette Bildbearbeitung nach der Farbseparation durch? Weil die Bilddatei durch die Separation um ein Drittel größer wird, was die Performance des Rechners vermindert
– viel gravierender ist, dass eine Reihe von Photoshop-Funktionen (vor allem Filter) für Bilder im CMYK-Modus nicht zur Verfügung stehen
– schwierig ist auch, in einigen CMYK-Situationen Korrekturen vorzunehmen
– wenn das alles nicht stört, spricht nix gegen die Bearbeitung im CMYK-Modus, allerdings nur dann wenn Separations- und Druckfarbeneinstellungen schon vor der Separation des Bildes korrekt eingegeben wurden

Schritt 3: Separationseinstellungen
– vor der eigentlichen Farbseparation sind Separationseinstellungen festzulegen
– diese umfassen die Separationsart (GCR mit Wahl des Schwarzaufbaus oder UCR) sowie den Wert für max. schwarz
– genauen Werte für alle Einstellungen sind bei der Druckerei zu erfragen
– Optionen des Schwarzaufbaus zeigen die Kurven an, wie die Neutraltöne (x-Achse) durch die 4 Prozeßfarben gemischt werden
– Schwarzaufbau bestimmt, wie die neutralen Tonwerte zwischen Weiß und Schwarz durch Mischen der 4 Druckfarben generiert wird
– Standardeinstellung: mittel ohne: Bild wird nur in CMY separiert (Schwarzkanal bleibt leer)
Maximal: alle Neutraltöne werden komplett in den Schwarzauszug verschoben

Schritt 4: Druckfarben
– als nächstes sind die Druckfarben festzulegen
– es handelt sich hier um ein „Einstellungspaket“, dass Papierart, Druckfarben und Tonwertzuwachs definiert
– Standard-Vorgabe von Photoshop: SWOP gestrichen
(Specifications for Web Offset Publications auf gestrichenem P.)
– in Deutschland ist „Euroskala“ gebräuchlich

Schritt 5: Separation
– jetzt kann man endlich per Mausklick auf Bild – Modus – CMYK die Separation in Gang setzen
– Photoshop erstellt die Separationstabelle und ändert nach der Umwandlung gegebenenfalls die Bilddarstellung, um eine Vorschau des zu erwartenden Druckergebnisses zu geben – sollte diese nicht zufrieden stellen, macht es keinen Sinn, nun die Separations- und Druckfarbeneinstellungen zu ändern, denn diese werden nur beim eigentlichen Separationsvorgang berücksichtigt
– stattdessen sollte man sofort den Widerruf-Befehl anwenden oder zum Ausgangsbild zurückkehren, bei den Schritten 2-4 Änderungen vornehmen und das Bild dann erneut separieren
– wichtig zu wissen: wenn man rückkonvertiert (von CMYK auf RGB) wird nicht das ursprüngl. Bild wiedergegeben, sondern auf Grund der Rundungsfehler ein leicht verändertes. Deshalb sollte man auf jeden Fall eine nicht separierte Variante des Bildes sichern um später mit den Originaldaten gegebenenfalls eine andere Separation durchführen zu können.

Schritt 6: Separationstabellen
– nach der Separation, sollte man abschließende Farb- und Kontrastkorrekturen vornehmen
– diese werden das Ziel verfolgen, ungewollte, durch die Umwandlung verursachte Farbabweichungen zu kompensieren

Goldene Regeln
– Bilder sollten nicht mehrmals zwischen RGB und CMYK hin- und herkonvertiert werden, da hierbei jedesmal ein gewisser Informationsverlust auftritt
– es empfiehlt sich, in Photoshop die Funktion Farbumfang-Warnung zu aktivieren.
Diese zeigt bereits bei der Bearbeitung eines RGB-Bildes an, wenn bestimmte Farben in CMYK nicht druckbar sind. Spezialfunktion der Informationen-Palette (relativ unbekannt): wird der Mauszeiger über nicht druckbare Farben bewegt, erscheint in ihr hinter den CMYK-Werten ein Ausrufezeichen
– Änderungen der Separationseinstellungen bei einem CMYK-Bild werden in Photoshop nach dem Klick auf OK zwar bei der Bilddarstellung berücksichtigt; die eigentlichen Bilddaten bleiben jedoch unverändert und werden erst dann korrekt modifiziert, wenn das ursprüngliche RGB-Bild erneut separiert wird – für besonders anspruchsvolle Produktionen lassen sich die farblichen Einschränkungen des CMYK-Modells umschiffen (z.B. mit dem Hexachrom-Prozeß von Pantone). Hierbei werden – zusätzlich zu verbesserten CMYK-Farben – 2 weitere Druckfarben eingesetzt: orange & grün.
Dadurch kann mehr als die doppelte Anzahl der Pantone-Farben simuliert werden wie im herkömmlichen Vierfarbdruck. Andere setzen auf 7 Farben und können damit sogar die Anzahl der Nuancen des RGB-Farbraums übertreffen.
– Vorsicht mit Selbstbezichtungen, wenn ein separiertes Bild im Druck einmal völlig daneben geht, denn nicht immer ist der Fehler bei der Separation zu suchen. Manche Vorstufenbetriebe und Druckereien lassen separationswillige Fotografen gern einmal gegen die Wand fahren. Die Methoden reichen von schlichter Verweigerung der notwendigen Info bis hin zur regelrechter Sabotage.

Farbseparation:
Übergabe zwischen RGB- und CMYK-Farbmodus
a) Vor- und Nachteile der Farbmodi RGB und CMYK
– eigentlich sind alle Tonwert- und Farbkorrekturen sowohl im RGB als auch im CMYK-Modus durchführbar, man sollte sich trotzdem vorher genau überlegen, welchen Modus man verwendet
– mehrfache Konvertierungen zwischen den Modi sollte vermieden werden, da bei jeder Konvertierung Farbwerte gerundet werden und verloren gehen
– falls ein RGB-Bild nur auf dem Monitor verwendet wird, muss es nicht in ein CMYK-Bild umgewandelt werden
– umgekehrt brauchen Korrekturen nicht im RGB-Modus vorgenommen werden, wenn ein CMYK-Scan
separiert und gedruckt werden soll
– wenn das Bild jedoch ohnehin von einem Modus in den anderen konvertiert werden muss, ist es sinnvoll die meisten Tonwert- und Farbkorrekturen im RGB-Modus und die Feineinstellungen im CMYK-Modus vorzunehmen
– beim Arbeiten im RGB-Modus hat man folgende Vorteile:
– man spart Arbeitsspeicher und verbessert die Leistung
– die Arbeit ist weniger geräteabhängig, da RGB-Farbräume nicht von Monitoren oder Druckfarben abhängig sind. Im RGB-Modus vorgenommene Korrekturen bleiben unabhängig vom verwendeten Monitor, Computer oder Ausgabegerät erhalten. Wird eines dieser Geräte ausgetauscht, muss nur die entsprechenden CMYK-Einstellungsoption geändert und das RGB-Bild anschließend wie der in ein CMYK-Bild konvertiert werden
– bei bestimmten Farbauszügen kann ohnehin nur im RGB-Modus gearbeitet werden
– wenn ein Bild z.B. mit der Option „Schwarzaufbau: Maximum“ im Separations-Einstellungsdialog separiert wurde, ist es schwierig, wenn nicht sogar unmöglich, Korrekturen vorzunehmen, für die die Cyan-, Magenta- oder Gelbanteile stark erhöht werden müssen. In diesem Fall muss das Bild wieder in den RGB-Modus umgewandelt, die Farben korrigiert und dann das Bild erneut separiert werden

b) die verschiedenen Farbumfänge
– der Farbumfang eines Farbsystems ist der Farbbereich, der in diesem System angezeigt oder gedruckt werden kann.
– eine nicht druckbare Farbe ist eine Farbe, die im RGB- oder HSB-Modell angezeigt, aber nicht gedruckt werden kann, weil es keine Entsprechung im CMYK-Modell gibt
– das vom Auge wahrnehmbare Farbspektrum ist größer als der Farbumfang verschiedener Farbmodelle
– unter den Farbmodellen hat das Lab-Modell den größten Farbumfang – es umfasst Farben des RGB- und CMYK-Farbumfangs
– der RGB- Farbumfang ist Teilmenge der Farben, die Computer- und Fernsehmonitore anzeigen können
– einige Farben (z.B. reines Cyan oder Gelb) können daher am Bildschirm nicht korrekt angezeigt werden
– der CMYK- Umfang ist kleiner und enthält nur Farben, die mit Vierfarbdruckfarben produziert werden können
– Farben, die am Bildschirm dargestellt, aber nicht gedruckt werden können, werden als nicht druckbare Farben bezeichnet; sie liegen außerhalb des CMYK-Farbumfangs

c) Notwenigkeit einer digitalen Farbsteuerung
– die meisten Schwierigkeiten, die beim Reproduzieren von Farben, welche mit dem Computer erstellt wurden entstehen, ergeben sich aus dem Farbumfang, der mit Monitoren mit Rot, Grün und Blau dargestellt wird und der sich stark von dem Farbumfang der in herkömmlichen Druckverfahren benutzten Farben Cyan, Magenta, Gelb und Schwarz unterscheidet
– die Unterschiede zeigen sich jedoch auch zwischen verschiedenen Monitoren, Druckern und Layoutprogrammen
– deswegen ist eine Abstimmung zwischen den beteiligten Geräten, eine sogenannte „Kalibrierung“ notwendig, um zu einwandfreien Ergebnissen zu kommen.

Bewertung: 
3
Durchschnitt: 3 (2 Stimmen)

Farbauszüge und Farbseparation

Farbauszüge

Bei den Farbauszügen wird für jede Farbe, bezogen auf den CMYK-Standard, aber auch für eingesetzte Sonderfarben, ein Farbauszug gerastert. Durch den Übereinanderdruck der Farbauszüge entsteht das Druckbild. Überwiegend wird in der Vierfarben-Euroskala (CMYK) gedruckt, der die subtraktive Farbmischung zugrunde liegt. Für jede Sonderfarbe ist eine weitere Druckplatte erforderlich.

Farbseparation/Farbtrennung

Die Farbseparation erfolgt durch die Umrechnung von RGB in den CMYK-Farbraum mit den erforderlichen Rasterprozentwerten. Jede Farbe, sowohl RGB als auch CMY, ist im jeweiligen Farbraum durch Koordinaten definiert. Durch das Hinzufügen von Schwarz ist der dimensionale Farbraum überbestimmt. Nun wird durch die Separation festgelegt, mit welchem Anteil die Verschwärzung erfolgt.

Die Konvertierung der RGB-Farben in die CMYK-Farben des Ausgabeprozesses wird durch standardisierte Farbprofile gesteuert. Die Separation erfolgt von einem RGB-Quellprofil in ein CMYK-Zielprofil, mit den Angaben für die Erzeugung des zusätzlichen Schwarzkanals. Definiert wird ebenfalls die Tonwertsumme, die das Maximum der Prozentwert für die vier Farben festlegt. Die maximale Flächendeckung der übereinanderdruckenden Farben liegt in der Summe der vier Farben immer deutlich unter 400 %. Dafür werden bei der Farbseparation die Farbgradationen der Dreivierteltöne und Volltöne abgesenkt.

Buntaufbau - UCR, Under Color Removal
Die Reduzierung der bunten Farben, die unter dem Schwarz liegen, wird als Unterfarbenreduktion bzw. UCR (Under Color Removal) bezeichnet. Oft findet man auch den Begriff Buntaufbau für UCR (Under Color Removal). Die Reduzierung der Buntfarben wird nur bei Tertiärfarben angewendet, d.h. bei Verwendung aller drei Farben (CMY). Die Unbuntanteile eines Farbwertes werden nur in den Tiefen durch Schwarz ersetzt, um die Buntfarben zu reduzieren.

Die Reduzierung der Farbwerte hat eine positive Auswirkung auf das Farbannahmeverhalten, die Trocknung und Tiefenbalance beim Drucken selbst.

Unbuntaufbau - GCR, Grey Component Replacement
Der Ersatz der Unbuntanteile durch Schwarz kann über den gesamten Tonwertumfang und in allen Farben eingesetzt werden. Es gibt verschiedene Stärken von niedriger Reduzierung der Buntfarben (entspricht fast UCR) bis hin zu starker Reduzierung der Buntfarben. Das wäre ein radikaler Unbuntaufbau, bei dem alle Unbuntanteile durch Schwarz ersetzt werden. Man arbeitet mit „Skelett-Farbauszügen“ für die Buntfarben CMY und mit einem vollen Farbauszug für Schwarz. Das widerspricht in gewisser Weise dem klassischen Vierfarbdruck.

Der Unbuntaufbau hat beim Drucken folgende Vorteile: Die Stabilisierung des Druckprozesses, einen geringen Farbverbrauch bei den Buntfarben CMY, weniger Trocknungsprobleme, weniger Makulatur und teilweise bessere Bildwiedergabe.

Der Nachteil bei zu starkem GCR (Grey Component Replacement): eine geringe Sättigung in den Tiefen, gerade wenn das Schwarz nicht die notwendige Dichte aufweist.

Weiterführende Links
Bewertung: 
4
Durchschnitt: 4 (1 Stimme)
Textoptimierte Version in Einfacher Sprache: 

Farbseparation

Bei der Farbseparation werden RGB-Farben in CMYK-Farben umgerechnet.

Kurz: RGB-Quellprofil → CMYK-Zielprofil 

Diese Umwandlung wird durch standardisierte Farbprofile gesteuert.

Bei der subtraktiven Farbmischung wird der größtmögliche Farbraum durch die 3 Farben CMY (Cyan, Magenta, Gelb) erreicht. Aber sie ergeben zusammen kein reines Schwarz. Schwarz (K) wird als vierte Prozessfarbe ergänzt, damit Konturen und Kontraste besser dargestellt werden.
Außerdem muss man die Tonwertsumme definieren.

Die maximale Deckung der Farben, die auf einer Fläche übereinander gedruckt werden, ist für alle 4 Farben weniger als 400 %. Dafür werden bei der Farbseparation die Gradationen der Dreivierteltöne und Volltöne abgesenkt.

Buntaufbau – UCR (Under Color Removal)

UCR =  Under Color Removal (deutsch: Unterfarben-Reduzierung).  

Unbuntfarben werden aus C + M + Y gebildet. Bei Unbuntfarben ist die Flächendeckung sehr hoch.  Dieser Nachteil kann mit UCR ausgeglichen werden. Die Unbunt-Anteile eines Farbwertes werden in den Tiefen durch Schwarz ersetzt. 

Vorteile beim Buntaufbau:
  • Weniger Farbauftrag insgesamt
  • Bessere Farbannahme
  • Bessere Trocknung
  • Bessere Tiefenbalance

Unbunt-Aufbau – GCR (Grey Component Replacement)

GCR =  Grey Component Replacement (deutsch: Grau-Komponenten-Ersetzung).

Die Unbunt-Anteile der Farbwerte kann man im gesamten Tonwertumfang und in allen Farben durch Schwarz ersetzen. Die Buntfarben kann man verschieden stark reduzieren. 

Eine sehr niedrige Reduzierung entspricht fast dem UCR, bei einer starken Reduzierung werden die Unbuntanteile durch Schwarz ersetzt. Das ist dann ein radikaler Unbuntaufbau.

Man arbeitet mit „Skelett-Farbauszügen“ für die Buntfarben CMY und mit einem vollen Farbauszug für Schwarz. Das widerspricht jedoch dem klassischen Vierfarbdruck.

Vorteile beim Unbuntaufbau:
  • Stabiler Druckprozess
  • Weniger Farbverbrauch bei den Buntfarben CMY
  • Weniger Probleme bei der Trocknung
  • Weniger Fehldrucke
  • Oft bessere Bildqualität
Nachteil bei zu starkem GCR:

Wenig Sättigung in den Tiefen, besonders wenn das Schwarz nicht so dicht ist. 

Farbauszüge

Praxis in der Druckvorstufe, auch unter dem Begriff Farbseparation zu finden.

Es handelt sich um eine Verfahren, welches für den Mehrfarbendruck angewendet wird.

In diesem Beispiel geht es um den Vierfarbdruck, da er am weitesten verbreitet ist. Alle in einem Dokument vorhandenen Farben werden von RGB in den CMYK-Farbraum, in die Prozessfarben Cyan, Magenta, Gelb und Schwarz umgerechnet. Damit erhält man Farbauszüge von Cyan, Magenta, Gelb und Schwarz. Wie das Ganze aussieht, kann man zum Beispiel in Adobe Photohop im Fenster Kanäle nachvollziehen.

Nächster Schritt ist das Drucken der Farbauszüge bzw. die Belichtung. Dafür ist eine Rasterung notwendig, welche bei jeder Farbe einen anderen Winkel hat, um den Moiré-Effekt zu minimieren.

Gebräuchliche Rasterwinkel sind nach DIN 16 547:

  • Gelb = 0°, Cyan = 75°, Schwarz = 135°, Magenta = 15°

    oder
     

  • Gelb = 0°, Cyan = 15°, Schwarz = 45°, Magenta = 75°

Die gerasterten Farbauszüge werden abschließend separat auf die Druckplatten übertragen.

 

 

Bewertung: 
0
Bisher keine Bewertung
Textoptimierte Version in Einfacher Sprache: 

Farbauszüge 

Farbauszüge sind typisch für den Mehrfarbendruck. Ein anderer Begriff für Farbauszüge ist Farbseparation.

Am weitesten verbreitet ist der 4-Farbdruck
Zuerst werden RGB-Farben  in CMYK-Farben umgerechnet (Cyan, Magenta, Yellow = Gelb, Schwarz). Dann bekommt man Farbauszüge von Cyan, Magenta, Gelb und Schwarz.

Hinweis:

Bei Photoshop kann man im Menüpunkt Kanäle die einzelnen Farbauszüge ansehen.

Farbauszüge drucken bzw. belichten (Belichtung).

Jeder Farbauszug braucht einen anderen Rasterwinkel, d.h. die Farben werden in verschiedenen Winkeln übereinander gedruckt. So vermeidet man den Moiré-Effekt.

Häufige Rasterwinkel nach DIN 16 547:

Gelb = 0°, Cyan = 75°, Schwarz = 135°, Magenta = 15° - oder
Gelb = 0°, Cyan = 15°, Schwarz = 45°, Magenta = 75°

Die Skizze zeigt 4 gerade Linien, die von einem Nullpunkt ausgehend verschiedene Winkel haben. Auf den Linien liegen große Punkte in den Farben Magenta, Black, Cyan und Yellow. Die Rasterwinkelung für Magenta ist 75 Grad, für Black 45 Grad, für Cyan 15 Grad und für Yellow Null Grad.

Die gerasterten Farbauszüge werden einzeln auf die Druckplatten übertragen.

Das Druckbild entsteht durch das Übereinander-Drucken der Farbauszüge. Für jede CMYK-Farbe wird ein Farbauszug gerastert. Für jede Sonderfarbe braucht man eine neue Druckplatte.

Bei der 4-Farben-Euroskala (CMYK) entstehen die Farben durch die subtraktive Farbmischung aus CMYK.

Kamera-Raw

Raw-Daten von Kameras sind vergleichbar mit den Negativen der analogen Kameras und diese lassen sich ähnlich wie analoge Daten in Raw-Convertern »entwickeln«. Dabei bleiben die Raw-Daten unberührt und die Entwicklungseinstellungen werden in eine gesonderte Datei geschrieben.

  • Roh-Datenformat von Digitalkameras
  • geräteabhängig, kein einheitlicher Standard
  • Eine Raw Datei wird nicht komprimiert (JPG ist immer komprimiert, ausser JPEG 2000)
  • spezielle Software zur Anzeige nötig

RAW-Format ist ein jeweils vom Kameramodell abhängiges Dateiformat, bei dem die Daten ohne Bearbeitung auf das Speichermedium geschrieben werden.

Definiert jeder Kamerahersteller sein eigenes RAW-Format, gibt es Probleme, wenn es mit der Bildbearbeitungssoftware nicht kompatibel ist.
Um das Problem zu lösen, hat Adobe einen Standard entwickelt, wie Rohdaten kompatibel gesichert werden können: das digitale Negativ, kurz DNG.

Bei Raw Dateien werden pro Kanal 4000 Tonwertstufen gespeichert (bei JPG sind es 256 Tonwertstufen). Mit Raw-Dateien hat man unendlich viele Möglichkeiten das Bild zu bearbeiten

  • nachträglicher Weißabgleich
  • Objektivkorrekturen
  • Farbe, Sättigung und Helligkeit (geht zwar auch mit  JPG, es entstehen aber bei weitem nicht so schnell hässliche Artefakte).

Raw Dateien heißen niemals XXXX.raw , sondern die Endung ist Hersteller spezifisch z.B.:

Nikon = .nef
Olympus = .orf
Canon = .cr2 
Sony = .arw
Minolta = .mrw
Sigma = .x3f
Adobe= .dng


Mehr zum Thema auf Heise Foto: "Raw-Entwicklung: Rohkost für Feinschmecker" (3-teilige Artikelserie) und bei Laserline unter "Was ist Camera-raw?".

 

Vorteile und Nachteile von RAW:
(wenn euch noch was einfällt, bitte ergänzen. Danke)

Vorteile:

  • bessere und mehr Möglichkeiten in der Nachbearbeitung
  • Originalbild bleibt erhalten und Korrekturen können wieder verändert werden, da korrigierte Einstellungen in einer seperaten Datei gespeichert werden
  • größere Datentiefe 
  • Korrektur von Objektivfiltern
  • nachträglicher Weißabgleich
  • keine Kompressionsverluste
  • RAW (engl. raw = roh) ist keine Abkürzung sondern steht für roh sowie unbearbeitet.

    Mit einem RAW-Konverter kann man sehr viele Faktoren beeinflussen:

  • keine Verluste bei der Bearbeitung der RAW-Datei, sie bleibt immer im Original-Aufnahmezustand gespeichert.
  •  16 Bit Farbtiefe statt 8 Bit = viel mehr Reserve im Datenmaterial, Helligkeits-und Farbverläufe werden harmonischer dargestellt.
  •  Korrektur vom Weißabgleich - die Farbtemperatur kann von Sonne, Schatten, Wolken, bis Blitzlicht usw. per Mausklick oder händisch von 2000 bis 10000 Kelvin eingestellt werden.
  • Das Bildrauschen kann sehr gut korrigiert werden
  • Der Tonwertumfang kann einfach gespreizt oder gestaucht werden
  • Die Gradation kann individuell angepaßt werden
  • Der Blendenspielraum beträgt +/- 2 Blenden um zu "pushen" oder "pullen"
  • die Vignettierung kann eliminiert werden
  • die chromatische Abberation (Farbfehler der Objektive an den Bildrändern) kann ebenfalls korrigiert werden

Der Nachteil der RAW-Dateien ist der große Speicherbedarf und die zeitaufwändige Nachbearbeitung sowie die unterschiedlichen RAW-Formate der Kamerahersteller. Für hochwertige Bilder sollten sie also auf jeden Fall im RAW-Format fotografieren.

 

Nachteile:

  • größere Dateigröße (RAW benötigt mehr Speicherplatz als ein JPG)
  • keine Rauschunterdrücken (moderne Bildprozessoren haben einen Rauschfilter, der beim Abspeichern von RAW Dateien nicht angewendet wird)
  • kein Einheitliches Format (jeder (Kamera)Hersteller macht sein eigenes Format)
  • keine direkte Weiterverarbeitung möglich (die RAW Datei muss erst in ein "normales" Format umgewandelt werden z.B. TIFF oder JPG)

 

Bewertung: 
4.333335
Durchschnitt: 4.3 (3 Stimmen)

Metamerie

Jeder hat es wohl schon erlebt, dass ein Kleidungsstück im Geschäft unter Kunstlicht einen anderen Farbton zu haben schien als später draußen bei Tageslicht. Eben dieses Phänomen versteht man unter Metamerie: ein Farbton ändert sich mit der vorhandenen Lichtquelle bzw. dem Umgebungslicht.

Das hängt mit der Farbtemperatur der jeweiligen Lichtquelle zusammen, die zum Beispiel ein gelblicheres Licht (wie eine Glühbirne) oder ein weißes Licht (Tageslicht bzw. Normlicht) abgeben kann.

Zur verlässlichen, sicheren Beurteilung von Farben ist daher immer ein standardisiertes, weißes Licht (Normlicht) nötig, um Metamerie-Effekte zu vermeiden.

Die Firma Cleverprinting hat einen Testkeil mit metameren Farben entwickelt, der in etwa so aussieht wie das Bild unten zeigt. Mit ihm kann man zum einen die Farbtemperatur des Umgebungslichtes beurteilen, zum anderen sieht man, welche Auswirkungen Metamerie-Effekte bzw. die Farbdarstellung unter nicht-Normlicht haben kann.
Abbildung
Im oberen Fall ist das Umgebungslicht neutral, d.h. bei ca. 5000 K. Alle Farbfelder scheinen den gleichen Farbton zu haben. Im unteren Fall jedoch weicht das Umgebungslicht von 5000 K ab, so dass die Farbfelder deutlich unterschiedliche Töne zu haben scheinen.

Bewertung: 
0
Bisher keine Bewertung

Metamerie und Metamerieindex

Das Phänomen der Metamerie ist die bedingte Gleichheit von Farben. Zwei oder mehr Farben erscheinen nur unter einer bestimmten Lichtart (z.B. Neonlampe) gleich und unterscheiden sich ansonsten aufgrund ihrer spektralen Eigenschaften (z.B. die verwendeten Pigmente und Farbstoffe) bei jeder anderen Beleuchtung.
Metamarie entsteht nie an einer Farbe allein. Z.B. wirkt ein weißes Hemd in rotem Sonnenlicht anders als in gelben Sonnenlicht. Metamarie ist der mit dem Licht veränderliche Farbunterschied zwischen zwei und mehreren Farben.

Der Metamerieindex ist der Delta-E-Wert im CIE- L*a*b – System unter jeweils zwei Lichtarten – meist von der Tageslicht- (C, D50, D60) zur Kunstlichtart (A).

Bewertung: 
0
Bisher keine Bewertung

Unscharfmaskierung

Die Unscharfmaskierung ist eine Methode, mit der ein Bild nachgeschärft werden kann. Im Gegensatz zur allgemeinen Scharfzeichnung sind dabei an drei Parametern Einstellungen möglich. Ziel ist es nicht, das komplette Bild zu schärfen, sondern nur die Stellen, die ohnehin schon eine gewisse Schärfe haben – oder anders gesagt, der Unterschied zwischen den scharfen und unscharfen Bildstellen wird verstärkt.

Abbildung

Generell funktioniert eine Scharfzeichnung so, dass die Software versucht, Kanten im Bild zu finden und diese dann zu betonen. Das ist bei der Unscharfmaskierung nicht anders, und so stellt man über den Radius ein, wie viele Pixel eine Kante aufweisen darf. Bei einem hohen Radius wird der Kontrast zwischen hellen und dunklen Bildpartien extrem erhöht.

Abbildung

Der Schwellenwert gibt an, wie ab welchem Helligkeitsunterschied überhaupt eine Kontur vorhanden ist. Ist der Wert niedrig, werden mehr Bildteile als Kontur wahrgenommen als bei einem hohen Wert.

Abbildung 

 

Bei der Stärke (im Fenster ganz oben) stellt man ein, welchen Unterschied die Kante zum Ursprungswert haben darf – sei es zum Hellen oder Dunklen hin. Bei hoher Stärke und gleichzeitig niedrigem Schwellenwert wirkt das Bild gesprenkelt.

Bewertung: 
0
Bisher keine Bewertung

Audiobearbeitung

Aufnahme

Grundsätzlich gilt: Nehmen Sie in hoher Qualität auf und reduzieren Sie die Datenmenge am Ende der Bearbeitung auf das benötigte Enddateiformat.

 

Making of

 

Qualitäteinstellen:

  • Abtastfrequenz (Samplingrate) z. B. 96 kHz
  • Abtasttiefe z. B. 24 Bit
  • Kanalanzahl z. B. Stereo

 

Grundsätzlich gilt, dass der Pegel so nahe wie möglich an der Aussteuergrenze von 0 dB liegen sollte, um

den Abstand zwischen Signal und (unvermeidlichem) Rauschen so groß wie möglich zu machen.

Achten Sie aber darauf, dass die Aufnahme nicht übersteuert wird, da es sonst zum Abschneiden (Clipping) der Abtastwerte kommt.

 

Schneiden

gehört sicherlich zu den wichtigsten Aufgaben der Soundbearbeitung. Ziele könnten sein,

  • eine Aufnahme auf eine gewünschte Länge zu reduzieren,
  • Teile einer Aufnahme in eine andere Tonspur zu kopieren oder
  • Störanteile einer Aufnahme zu löschen.

 

Mischen

Beim Mischen werden mehrere Tonspuren aufeinander abgestimmt. Dies kann beispielsweise notwendig sein, um eine Sprecherstimme mit Hintergrundmusik zu hinterlegen oder um mehrere einzeln aufgenommene Instrumente zu einem Gesamtklang zu kombinieren.

 

Normalisieren

Wenn im Vorfeld richtig ausgepegelt wird, kommt es bei der Aufnahme nicht zum „Clipping“ von Abtastwerten. Andererseits wird dann aber das Spektrum an zulässigen Werten möglicherweise nicht voll ausgenutzt. Diesen Nachteil behebt die Normalisieren-Funktion (Normalize) des Audioeditors: Die Software sucht den größten Pegel der Aufnahme und verstärkt danach alle Pegel so, dass der maximale Wert an der Aussteuergrenze liegt.Hierdurch erhält man also die gerade noch zulässige Verstärkung, ohne dass es zum Clipping kommt.Die Normalisieren-Funktion sollte grundsätzlich auf alle Sounds einer Produktion angewandt werden. Dies führt dazu, dass die Sounds bei der Wiedergabe eine einheitliche Lautstärke besitzen.

 

Ein- und Ausblenden (Faden)

Auch das Einblenden (Fade-in) oder Ausblenden (Fade-out) eines Sounds gehört zu den Standardfunktionen der Soundbearbeitung. Dabei wird der Soundpegel im ersten Fall sukzessive von null bis zur normalisierten Lautstärke angehoben und im zweiten Fall auf null reduziert. Diese Technik wird verwendet, um

  • die Länge eines Sounds anzupassen,
  • einen „weichen“ Übergang zweier Sounds zu erzielen (Crossfade mix),
  • eine Soundschleife zu realisieren, wenn ein „Loopen“ nicht möglich ist.

 

Klangregelung (Equalizer)

Mit Hilfe eines Equalizers lassen sich gezielt Frequenzveränderungen vornehmen. Das Frequenzspektrum der Aufnahme wird hierzu in „Frequenzbänder“ unterteilt, die individuell verstärkt oder abgeschwächt werden können. So lassen sich beispielsweise tiefe Frequenzen (Bässe) verstärken und hohe Frequenzen (Höhen) absenken. Diese Regelmöglichkeit kennen Sie von der Stereoanlage. Alternativ kann auch gezielt nach Störfrequenzen (Rauschen, Pfeifton, S-Laute in Sprachaufnahmen) gesucht werden, um diese aus dem Gesamtsignal zu filtern.

Tonhöhenänderung (Pitching)

Mit Hilfe des Pitchreglers lässt sich die Tonhöhe einer Aufnahme in beiden Richtungen verändern, also erhöhen oder absenken. Ersteres führt bei Sprache zu der bekannten „Micky-MausStimme“ und Letzteres zu einer tiefen und unnatürlichen „Roboterstimme“. In Maßen eingesetzt kann der Filter jedoch durchaus zu einer Verbesserung des Klangbildes beitragen. Weiterhin wird der Filter dazu verwendet, unterschiedliche Tonhöhen von Sounds aneinander anzupassen. Die Funktion entspricht dann dem Stimmen von Instrumenten.

 

Tempoänderung (Time compress/ Time expand)

Oft kommt es vor, dass zur Nachvertonung einer Multimedia-Produktion oder eines Videos die Länge des Sounds nicht mit der Filmdauer übereinstimmt. Abhilfe bietet hier die Möglichkeit, die Dauer des Sounds zu verändern, ohne dass hiervon die Tonhöhe betroffen ist. Im Unterschied zum Pitching verändert sich der Sound klanglich also nicht. Die Software verlängert bzw. verkürzt lediglich  die Tonabstände.

 

Hall (Reverb)

Hall simuliert die Schallreflexionen innerhalb eines Raumes. Hierbei kann der gewünschte Raum ausgewählt werden,zum Beispiel eine Halle oder Kirche.

 

Echo

beim elektronisch hinzugefügten Echo handelt es sich um eine zeitlich verzögerte Wiederholung des Originals. Verzögerungszeit, Anzahl und Pegel der Wiederholung lassen sich hierbei vorgeben.

 

Rauschunterdrückung (Noise Gate)

Bei Sprachaufnahmen ist es trotz großer Sorgfalt nicht immer vermeidbar, dass Rauschen (Noise) mit aufgenommen wird. Zur Reduktion dieses Rauschens gibt es Filter zur Rauschunterdrückung. Hierzu muss eine Schwelle in dB vorgegeben werden, unterhalb der ausgefiltert wird. Wenn beispielsweise ein Rauschsignal bei – 45 dB liegt,dann muss diese Schwelle knapp oberhalb von – 45 dB eingestellt werden.

 

Lautstärkenänderung (Volume)

Die Lautstärkenänderung – Verstärkung oder Dämpfung – ist zum Abmischen mehrerer Tonspuren  unerlässlich.

 

Kompressor

Ein Kompressor kann dazu verwendet werden, um leise Passagen anzuheben, ohne dass dabei lautere Passagen zu sehr in den Vordergrund treten.

 

Schleifen (Loops)

Multimediale Produkte sind in der Regel interaktiv. Für die Nachvertonung bedeutet dies, dass die benötigte Länge eines Sounds nicht vorherbestimmt werden kann, da die Verweildauer auf einem bestimmten Screen vom Benutzer abhängig ist. Um dieses Problem zu umgehen, müssen Anfang und Ende eines Sounds aufeinander abgestimmt werden, so dass der Sound später als Schleife (Loop) abgespielt werden kann. Es leuchtet ein, dass das Loopen eines Sounds nicht generell möglich ist. Oft passen Anfang und Ende vom Rhythmus, der Melodie und dem Takt nicht zusammen. Abhilfe schaffen hier CDs, die Soundloops enthalten. Aus diesen lassen sich mit etwas Geschick neue Sounds „sampeln“, für die dann auch keine GEMA Gebühr bezahlt werden muss.

 

Quelle: Kompendium der Mediengestaltung 5. Auflage

Bewertung: 
0
Bisher keine Bewertung

Bildkomprimierung

Bildkomprimierung
- für einzelne Dateiformate werden verschiedene Komprimierungstechniken angeboten

LZW – Lempel-Ziff-Welch
- Verlustfreie Komprimierung von 24- und 32-Bit-Farbbildern und Grafiken sowie indizierte Dateien mit bis zu 256 Farben in den Dateiformaten TIFF, PDF und GIF
- in der Abfolge von Pixeln wiederholen sich bestimmte Muster
- bei einer Komprimierung wird eine Musterbibliothek angelegt, bei mehrfacherer Verwendung eines Musters wird nicht mehr das Muster sondern nur noch der Bibliotheksindex gespeichert

JPEG – Joint Photographic Experts Group
- Verlustbehaftete Komprimierung für 24- und 32-Bit-Farbbilder, die von den Dateiformaten JPEG, TIFF und PDF unterstützt wird
- weitesten verbreite Bilddatei- und Komprimierungsverfahren für Internet
- wird aber auch in anderen Formaten wie PDF und TIFF eingesetzt
- erfolgt in mehreren Schritten, die nacheinander abgearbeitet werden

PNG – Portable Network Graphics
- lizenzfreie Alternative zum GIF
- besitzt eigenes komplexes Kompressionsverfahren zur verlustfreien Komprimierung
- unterstützt zwischen 1- und 64-Bit-Bilder
- wird von allen Browsern unterstützt

GIF – Graphics Interchange Forma
- erlaubt verlustfreie Komprimierung
- mehrere Einzelbilder können in einer Datei abgespeichert werden(Animation)
- Grafikformat für Bilder mit Farbpalette

Huffman-Codierung
- die Werte in einer zu codierenden Datenmenge sind ungleichmäßig in ihrer Häufigkeit verteilt
- die häufigsten Werte werden mit dem kürzesten Binärcode bezeichnet, die seltensten haben den längsten
- die Häufigkeitsverteilung der Ton- und Farbwerte erfolgt über Histogramme

Bewertung: 
0
Bisher keine Bewertung

Digitalfoto Workflow

Guten Tag,

Wenn ihr mit dem Raw Format oder Jpeg oder TIFF fotografiert ist es sehr wichtig die Originale zu sichern.

Also die Originale werden nicht bearbeitet sondern die Sicherheitskopien. Beim Jpeg-Format ist es besonders wichtig weil Jpeg verlustbehaftet ist. Das bedeutet, dass nach jedem Speichern Bildinformationen verloren gehen können.

Es würde sich anbieten die Jpeg-Datei in ein verlustfreies Dateiformat umzuwandeln und abzuspeichern.

Als ersten erfolgt die Raw Konvertierung. Mit dem Konveter haben wir verschiedene Möglichkeiten unser Bild zu bearbeitren. Als erstes erfolgt in der Regel der Weissabgleich. Danach gibt es verschiedenste Einstellungsoptionen um unser Bild zu bearbeiten.

Es ist nicht schlimm wenn das Bild, bevor wir es in unser Bildbearbeitungsprogramm importieren, noch ein wenig blass und kontrastarm ist.

Das kann man ohne Probleme nach bearbeiten. (Einstellungsebenen)

Jetzt kommen wir zur Bildanalyse. Macht euch Gedanken für welchen Zweck ihr das Bild braucht.

Möchtet ihr eine natürliche, dezent wirkende Bearbeitung? Oder darf es etwas mehr sein.

Muss die Aufnahme entfleckt werden, um sie „aufgeräumter“ wirken zu lassen?

Sollen einzelne Bildbereiche retuschiert werden?

Stimmen die Kontraste? Decken die Tonwerte das gesamte Spektrum von ganz dunklen bis zu ganz hellen Tönen ab?

Sind die Farben gut? Hat das Bild einen Farbstich? Soll die Leuchtkraft der Farben verstärkt oder abgemildert werden?

Wirkt die Aufnahme vielleicht besser in Schwarzweiß oder getont?

Müssen stürzende Linien ausgerichtet oder muss das gesamte Bild gedreht werden? Könnte der Ausschnitt noch optimiert werden?

Kommen wir jetzt zur Retusche und Montagearbeiten (z.B störende Bildpunkte...Hautunreinheiten entfernen). Diese Aufgabe kann sehr zeitaufwendig sein.

Deswegen fangen wir damit an. Vergesst nicht immer wieder Zwischenspeicherungen zu machen.

Als nächtes müssen wir uns überlegen, ob wir das Bild in Farbe oder Schwarz/Weiss haben möchten.

Anschließend überprüfen wir noch den Tonwertumfang.

Idealerweise führt man eine Tonwertkorrektur mit der größten Farbtiefe durch, die die Kamera und das Bearbeitungsprogramm zulassen.

Kommen wir jetzt zur Farbanpassung. Das ist der kreative Teil, den man so gestalten kann, wie man es möchte.

Anschließend die Helligkeits- und Kontrasteinstellungen vornehmen. Dann noch den Schnitt anpassen und die Ausgabeversion erstellen. Fertig.

 

 

 

 

 

 

Bewertung: 
0
Bisher keine Bewertung

Display-Berechnung

Rechnen mit Seitenverhältnis

Diagonale und Seitenverhältnis ist gegeben

Gegeben: Seitenverhältnis: 4:3 und Diagonale: 15 Inch
Gesucht: Breite und Höhe

a/b = 4/3     | x b
a = 4b / 3    | Einsetzen in Pythagoras

15² = (4b/3)² + b²
225 = (16b² / 9) + b²             | x 9
2025 = 16b² + 9b²
2025 = 25b²       | : 25
81 = b²                | √
b = 9 Inch (Höhe)

3 = 9 Inch
4 = 9 : 3 x 4 = 12 Inch (Breite)

Links:

http://www.mediencommunity.de/content/monitor-mathe

http://www.mathemedien.de/pruefung.html

Bewertung: 
0
Bisher keine Bewertung

Farbkonvertierung

Allgemein:

  • Farben müssen je nach Ausgabegerät, wenn Farbräume nicht übereinstimmen, konvertiert werden.
    Beispiel:
    Monitor: vorhandene CMYK-Daten werden zu RGB-Daten konvertiert
    Drucker: vorhandene RGB-Daten werden zu CMYK-Daten konvertiert
  • Da Farbärume unterschiedlich groß sind, kommt es zu Farbveränderungen bei der Konvertierung in einen anderen Farbraum.

Druckproduktion:

  • Farben müssen in ein entsprechendes CMYK-Farbprofil für das jeweilige Druckverfahren konvertiert werden.
  • Druckverfahren, Papierweiße, der maximale Farbauftrag, Punktzuwachs usw. müssen bei der Farbkonvertierung berücksichtigt werden.

Early binding:

  • CMYK-Farbraum wird bereits am Anfang der Produktion festgelegt.
  • Bei der Konvertierung in Photoshop kann auf Farbveränderungen durch die Konvertierung direkt reagiert werden.
  • Early binding empfiehlt sich nur wenn man bereits zu Beginn der Produktion weiß wie das Druckerzeugnis hergestellt wird.

Intermediate binding:

  • Im Layout wird noch mit RGB-Daten gearbeitet.
  • Die Farben werden erst bei der Erstellung der Druckdaten PDFs konvertiert.
  • Höhere Flexibilität und Ausgabesicherheit
  • Softproof ermöglicht das Simulieren der CMYK-Farben wodurch auf Veränderungen noch Einfluss genommen werden kann.

Late binding:

  • Im Layout wird noch mit RGB-Daten gearbeitet.
  • Farbkonvertierung der Druckdaten findet erst in der Druckerei statt.
  • Vorteil: Die Druckerei Konvertiert die Daten in das für die Produktion benötigte CMYK-Modell
  • Für dieses Verfahren würde das PDF/X-3 Format entwickelt.
  • Empfiehlt sich nur wenn Datenlieferant und Datenempfänger nach Norm arbeiten und wissen wie PDF/X-3, die RGB-Daten beinhalten, zu verarbeiten sind.
  • Im Idealfall ein Digitalproof anfordern um Farbveränderungen einschätzen zu können.
  •  

Profilierung und Kalibrierung
Profilierung und Kalibrierung gehören zusammen und die Profilierung baut auf der Kalibrierung auf.
Bei der Kalibrierung bezeichnet man die für ein Gerät (z.B. Scanner) oder ein Verfahren (z.B. Offsetdruck) notwendigen Grundeinstellungen. Diese Grundeinstellungen sichern die gleichbleibende Funktionsweise und somit die konstante Qualität über einen bestimmten Zeitraum.
Für einen Monitor ist beispielsweise die Einstellung von Weiß- und Schwarzpunkt, Kontrast und Helligkeit sowie Farbtemperatur für eine anschließende Profilierung entscheidend.
Das Ergebnis der Profilierung ist dann beim Monitor das ICC-Profil, welches mithilfe der Farbmesstechnik das Farbverhalten des Geräts oder Verfahrens beschreibt.

Rendering Intents

Es gibt vier Varianten (Rendering Intents) von Farbraumkonvertierung/Farbraumtransformation: 

Perzeptiv (wahrnehmungsorientiert):
-bei Farbbildern
-großer Farbraum in kleinen, Bsp.: RGB in CMYK
-Farben, die außerhalb des Zielfarbraums liegen, werden stark verschoben, Farben am Rand weniger stark, Farben im Innenraum leicht
-nicht-lineare Komprimierung

Farbmetrisch:
-für Proof
-Clipping-Vorgang: kleiner Farbraum in großen, Bsp.: Offset-CMYK in Proofer-CMYK
-der kleinere wird exakt im größeren abgebildet

Absolut farbmetrisch:
-Proofpapier hat andere Farbe als Auflagenpapier, Papierfarbe wird simuliert

Relativ farbmetrisch:
-Proofpapier hat Farbe des Auflagenpapiers (Auflagenpapier benötigt)

Sättigung:
-für Infografiken
-Skalierung des Quellfarbraums in Zielfarbraum
-relative Sättigung bleibt erhalten, Farbtöne verschieben sich
lineare Komprimierung
 

Weiterführende Links

http://www.publisher.ch/dynpg/upload/imgfile1088.pdf (zu Rendering Intents)

Bewertung: 
0
Bisher keine Bewertung

Farbmodus Duplex

Die Grundidee im Offsetdruck war, neben dem obligatorischen Schwarz noch eine Zusatzfarbe zu verwenden um Bilder dezent getont drucken zu können und eine Farbe zur Hervorhebung von Überschriften oder wichtigen Textstellen verfügbar zu haben.
Der Duplex-Modus hatte mit der damaligen Offset-Technik des Vorteil, deutlich billiger als Vierfarbdruck zu sein, weil nur halb soviele Druckfilme und Druckplatten pro Seite brauchte. Man nahm für Werbedrucke als Duplexfarbe oft die Farbe des Firmenlogos.

Duplex erklärt

Stellen wir uns ein Graustufen bild mit einem leichten Blaustich vor. Das blaugraue Foto ist ein Duplex-Bild mit den beiden Druckfarben Black (also schwarz) und HKS 47 N, einem Blau. Wichtig ist, daß wir für diese beiden Druckfarben jeweils die Gradationskurve verfügbar haben. Dadurch können wir regeln, wie die beiden Farben zusammen wirken.
Analog zum Graustufen-Modus handelt es sich auch bei dem Farbmodus DUPLEX um ein 8-Bit-Farbmodus. In diesem Modus können Sie Bildern mit 256 Graustufen zusätzlich eine bis maximal vier Farben zuweisen.

Zur Bedienung:

Um in den Duplex-Modus zu gelangen, muß das Ausgangsbild ein Graustufenbild sein - Farbbilder dafür also vorher umwandeln.
(Vor dem Umwandeln in Graustufen kann man zum steuern der Konvertierung
unter dem Menüpunkt --"Bild" - "Korrekturen" - "Schwarzweiß"-- das Bild noch anpassen und optimieren.)
Dann den Menüpunkt „Modus >> Duplex“ aufrufen. Es öffnet sich das Fenster „Duplex-Optionen“ mit den Werten, die es bei der letzten Benutzung hatte oder - falls das Bild schon Duplex ist - mit den Werten dieses Bildes. Das Fenster „Duplex-Optionen“ kann also recht verschieden belegt sein. Davon sollte man sich nicht irritieren lassen. Ein Klick in eines der beiden Farbfelder führt zur Farbauswahl (nachher mehr dazu, jetzt einfach irgendeine beliebige Farbe nehmen; die erste sollte aber möglichst Black sein). Klick in eines der Felder mit Kurve öffnet das Dialogfenster „Duplexkurve“ zur Bearbeitung im Detail. Man kann die Kurve wahlweise mit der Maus oder durch Zahleneingabe verformen.

Wenn man fertig ist, „OK“ klicken.

Natürlich könnten beide Druckfarben einfach statt einer Kurve nur eine 45-Grad-Diagonale haben. Geht, ist aber langweilig, weil einfach nur eine konstante Tonung über alle Helligkeitswerte hinweg. Ich möchte aber die Tonung in den hellen Bereichen schwächer haben. Zu diesem Zweck ist meine Kurve der blauen Druckfarbe nach unten durchgebogen, zu sehen auch an den Zahlenwerten:

  • bei Position 20% nur 5%
  • bei Position 50% nur 25%

„RGB-Duplex“ - ein Widerspruch in sich, aber nützlich!

Farben wie das hier vorkommende HKS 47 N sind typische Farben, wie der Drucker sie fertig abgemischt bestellen kann. Im Duplex-Modus werden einem bei der Farbauswahl solche oder ähnliche Farben angeboten (z.B. Pantone). Tatsächlich interessiert uns das aber für normale Bildbearbeitung herzlich wenig. Wir fangen in der Praxis nichts damit an.  

(Quelle: http://eye.de/tip-duplex-modus.shtml)

Man kann ein Duplexbild auch aus einem CMYK-Bild erzeugen, in dem man zwei Farbkanäle löscht und den verbleibenden je eine Farbe zuweist (oder Schwarz beibehält). So hat man mehr Einflussmöglichkeiten auf die Farbsteuerung. Man muss sich also nicht mit dem Umweg über ein Graustufenbild begnügen. Dann muss es jedoch als DCS 2.0  (EPS, Volltonkanal) abgespeichert werden, damit die Farben auch als Farbe in Indesign erscheinen.

Wenn man ein Duplex- (oder Tri, Quadro-) Bild speichern möchte, sollte es PSD oder EPS sein.

Kommentar Graefen:
Duplexe müssen keine Sonderfarben enthalten wie im Beispiel oben. Wahrscheinlich wird aber in der Prüfung eine Frage zu Sonderfarben im Zusammenhang mit Duplex kommen?!

Auch folgendes ist möglich; die beiden Kanäle Magenta und Gelb wurden mit Weiß gefüllt:

Duplex im Druck (by CUB)

Wenn ein Duplexbild im Layoutprogramm verarbeitet wird, ist darauf zu achten, ob das Layoutprogramm überhaupt den Duplexton darstellen kann (manchmal gilt das auch für Photoshop). Nicht alle Kombinationen (z. B. HKS-Duplex, Volltonduplex-> 2xVollton) sind als Kombination hinterlegt. Als Kontrollmittel kann hier der Farbfächer herangezogen werden (Bildschirmabgleich) oder das Dokument als Druck-PDF exportiert werden.

Außderdem ist es schwierig bis unmöglich Duplex korrekt zu proofen. Zum einen kann es sein, dass der Proofer die Volltonfarbe nicht darstellen kann – zum anderen verhält sich der Inkjet-Proofdruck anders (besonders eben wenn sich Farben überlagern) als der Offset-Duplex (andere Papiere mit anderen Saugfähigkeiten und Farbverhalten). Duplex kann also nur angedruckt werden (was oft dem Preis des finalen Drucks gleich kommt). Wenn dies im Budget nicht drin ist – Beim Druck in der Andruckphase zur Abnahme dabei sein.

Schlussendlich sollte vor allem bei der Erstellung von reinen Duplexdateien (also nicht die Kanaloption [4c - 2 Kanäle löschen und einen in vollton umwandeln - wesentlich mehr Kontroll]) beachtet werden, dass zu einer „normalen” Farbsättigung, wie sie im Graustufendruck schon vorhanden ist, noch die Farbsättigung eines weiteren Tons hinzukommt. Ein gewollter Kontrastanstieg kann der positive Effekt sein – ein Absaufen der Tiefen und Mitteltöne im Druck das ernüchternde Aufwachen. Hier darauf achten, das zumindest über die Gradiantionskurfe der Farbauftrag (durch absenken/anheben) sich gegenseitig ausgleicht.

Weiterführende Links:

http://eye.de/tip-duplex-modus.shtml

Bewertung: 
5
Durchschnitt: 5 (2 Stimmen)

Frabprofile & ICC-Profile

Gesammelte Beiträge

Bewertung: 
0
Bisher keine Bewertung

Farbprofile verwenden

Gamut Mapping

Das Gamut Mapping ist die Transformation der Farbräume. Der Gamut (englisch:Tonleiter, Skala, Farbpalette) ist die Menge aller Farben, die ein Gerät (Monitor, Drucker, Scanner,Film) darstellen, wiedergeben und aufzeichnen kann.

Die wesentlichen Aufgaben des Colormanagement ist es, die Gamuts verschiedener Geräte so aufeinander abzubilden, dass möglichst wenige störende Farbverschiebungen und Abrisse entstehen

Profile Connection Space (PCS)
Die Kommunikation über die Farbe nuss in einem gemeinsamen Sprach- bzw Farbraum efolgen.

Dieser Farbraum sollte alle am Workflow beteiligten Farbräume umfassen und eine eindeutige Übersetzung zwischen den Frabräumen ermöglichen. Die XYZ, YXY und LAB-Farbräume erfüllen dieses Anforderung. Diese Farbräume umfassen alle für den Menschen sichtbaren und somit alle Prozessfarbräume.

Die ICC (International Color Consortium) und ECI (European Color Iniative)haben den LAB und den XYZ Farbraum als Referenzfarbräume festgelegt.

Das Gamut Mapping findet zwischen den Profilen in diesem Farbaum statt, dieser „Raum“ wird als Profile Connection Space bezeichnet. Das ICC-Profil stellt die Beziehung des individuellen Gerätefarbraums zum geräteunabhänigen PCS her.  Das im Betriebssystem integrierte CCM, Color Matching Modul, steuert die profilgestützte Farbverarbeitung. Durch die wahl des Rendering Intens legt man den jeweiligen Algorithmus fest.

Rendering Intent

Das Rendering Intent ist der Umrechungsalgorithmus der Farbraumtransformation. Welches Rendering Intent gewählt wird, ist von der Anwendung abhänig. Es wird zwischen vier Optionen unterschieden:

Perzeptiv ( auch fotografisch,wahrnehmungsorientiert)

Perzeptiv ist die standartmässige Rendering-Methode für RGB-Bilder mit sehr gesättigten Farben, die in CMYK konvertiert werden sollen. Bei der Transformation werde Farben, die weit außerhalb des Zielfarbraums liegen, sehr stark verschoben, Farben die am Rand liegen weniger stark. Farben die im Inneren des Zielfarbraums liegen werden nur ganz leicht verschoben.

- Transformation in einen kleineren Zielfarbraum,dabei wird der ursprüngliche Farbumfang komprimiert und auf die geringste Größe des Zielfarbumfangs zusammengedrückt

 

-> alle Buntheits- und Helligkeitsunterschiede werden geringer.

- Transformation in einen größeren Zielfarbraum, dabei wird der Farbbumfang ausgedehnt

 

-> alle Buntheits-und Helligkeitsunterschiede vergrößern sich.

Absolut farbmetrisch

Hier wird der Weißpunkt des Zielfarbraum an den Weißpunkt des Quellfarbraums angepasst. Die Papierfärbung wird also im geprooften Bild simuliert, diese Option kann man wählen, wenn das Proofpapier farblich nicht dem Auflagenpapier entspricht.

- Farben mit hohen untereinander unterschiedlichen Buntheiten sind nach der transformation gleichbunt. Bei sehr hellen und sehr dunklen Farben gehen entsprechen die Helligkeitsunterschiede verloren.

 

Bei der Wandlung von Logofarben wie HKS oder Pantone in CMYK wird absolut farbmetrisch z.b auch verwendet.

Relativ Farbmetrisch

Der Weißpunkt des Quellfarbraums wird auf das weiß des Zielfarbraums verschoben (Proofpapier entspricht dem Auflagenapier) Alle anderen Farben verändern sich in gleicher Richtung und Stärke, ihre Farbabstände bleiben untereinander gleich.

Sättigung

Hier werden kräftige Fraben auf Kosten der Farbtreue erstellt. Der Quellfarbenumfang wird in den Zielfarbenumfang skaliert, die realtive Sättigung bleibt erhalten.

- eignet sich für Infografiken, bei denen das Verhältnis zwischen den Farben weniger wichtig ist als leuchtende und satte Farben.

 

- die Priorität ist die Sättigung der Farben soweit wie möglich zu erhalten.

Transformation RGB zu CMYK

- oft wird das perceptual Rendering Intent benutzt, Buntheits- und Helligkeitskontraste sind gegenüber dem RGB Bild zwar deutlich abgeschwächt, aber das Bild sieht in sich schlüssig aus, es sieht richtig aus.

-Enthalten Bilder keine sehr bunten Farben, so kommt auch das relativ farbmetrische Rendering Intent in Frage, denn beim perceptual Rendering Intent kann es bei solchen Bildern zu unerwünschten

 

Modulations- und zeichenverlusten kommen, das Bild erscheint dann zu grau.

Bilddaten können nun unter Anwendung dieser ICC-Profile zielgerecht für ein Druckverfahren von RGB in CMYK „übersetzt“ werden. bei dieser Übersetzung werden Parameter wie druckzuwachs, druckfarbe, papierweiß usw. berücksichtigt

ICC-Profile

Profile sind Dateien, die den Farbumfang und die Farbwiedergabeeigenschaften von Erfassung- oder Ausgabegeräten oder -prozessen charakterisieren. Das Profil eines Scanners beschreibt, wie die Farben der Vorlage in RGB umgesetzt werden.

 

Ein Druckprofil beschreibt die Umsetzung von CMYK-Daten in gedruckte Farbe, ein Monitoprofil die Umsetzung von RGB-Daten in Farben auf dem Monitor.

Ein Profil beschreibt den selben Farbraum sowohl prozessabhänig als auch prozessneutral und setzt beide Beschreibungen zueinander in Beziehung.  Das Profil enthält die Informationen, die zur Transformation von Bilddaten aus einem Prozessunabhänigen Farbraum (RGB, CMYK) in einem prozessneutralen (CIELAB, CIE-XYZ) Farbraum gebraucht werden.

Das Internationale Color Consortium - ICC entwickelte die programm- und plattformübergeifende Anwendbarkeit von Profilen. Diese wird durch eine einheiltliche spezifikationv on Dateiformat und Inhalt gewährleistet.

Es gibt unzählige Profile für die verschiedenstens Bedruckstoffe. Viele Druckereien bieten auf ihrer Internetseite Profile zum Herunterladen an. Sind die Druckbedingunge nicht bekannt, so kann man Standart-Druckpofile der ECI ( European Color Initiative) nutzen, diese gelten für den Offset- und den Endlosdruck.

ISOcoatedv2.icc                      - Papiertyp 1 & 2, 115g/m² glänzend und matt holzfrei gestrichen,  
                                                    Bilderdruck z.B: Digitaldruck, Bogenoffset
ISOwebcoated.icc                   - Papiertyp 3, 65g/m² LWC, Rollenoffset z.B: Zeitschriften(GEO)
ISOuncoated.icc                      - Papiertyp 44, 120g/ m², ungestrichen, weiß, Offset
ISOuncoated-yellowish.icc    - Papiertyp 5, 120g/ m², ungestrichen, gelblicher Stich, Offset
ISOnewspaper.icc                  - Zeitungsdruck

 

Weiterführende Links

http://www.cleverprinting.de/freeloads.html

Sehr viele Infos über PDF und Colormanagement: "PDF/X und Colormanagement 2011" zeigt, welche Vorteile sich bieten, wenn die Möglichkeiten moderner Technologien und Arbeitsweisen konsequent eingesetzt werden. Auf 200 Seiten beschreibt das Handbuch, wie Druckdaten medienneutral – oder auch klassisch – erstellt werden.

 

 

Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

Farbprofiltypen (ICC)

Allgemein

  • ICC = International Color Consortium
  • Lösen das Problem der Farbabstimmung zwischen Ein- und Ausgabegeräten
  • Farbprofile sind genormte Datentabellen in denen die Farbcharakteristik beschrieben ist
  • z.B. Kamera, Monitor, Drucker, Scanner
  • der geräteneutrale CIELAB-Farbraum dient als Referenz-Farbraum und macht Farbmanagement möglich
  • der zugewiesene Farbraum eines Bildes sollte beim Öffen verwendet werden, kann aber in den eigenen Arbeitsfarbraum konvertiert werden
  • es ändert sich der RGB-Wert aber der Farbeindruck bleibt erhalten
  • die erzeugten ICC-Profile werden den Bilddaten beigefügt bzw. mit diesen verrechnet
  • Ziel: Farbgetreue Wiedergabe unabhängig vom Ausgabegerät

Vorteile

  • beibehalten des optimalen Arbeitsfarbraums
  • bilden Grundlage für farbverbindliche Reproduktion

Nachteil

  • bei der Konvertierung können verluste entstehen

Farbräume

LAB-Farbraum
  • geräteunabhängig, gleichabständig
  • er schließt alle Farben ein, die das menschliche Auge wahrnehmen kann
  • enthalten sind die Farben des RGB- und des CMYK-Farbraumes
  • Farbe ist durch Farbort mit den Koordinaten {L*, a*, b*} definiert
  • die Werte a* und b* geben Buntton und Buntheit zugleich an (rechtwinklige Anordnung)
  • Komplementärfarben stehen sich gegenüber
  • in der Mitte ist der Anteil der  Mischung gleich groß -> grau
CIE-Lab-Farbraum
  • Optimierung des Lab-Farbraums (auch geräteunabhängig)
  • orientiert sich an den physiologischen Eigenschaften der menschlichen Wahrnehmung und nicht an physikalischen Messgrößen ( Farbmetrik )
  • enthält alle potentiellen geräteabhängigen Farbspektren
  • ermöglicht verlustfreie Konvertierung
sRGB-Farbraum
  • kleiner als der Farbraum moderner Drucker o. Monitore
  • nur bedingt für Print-Workflow geeignet
Adobe RGB
  • guter großer Farbraum
eciRGB v2
  • empfohlener Arbeitsfarbraum

Gamut-Mapping

  • Farbraumtransformation

 

Weiterführende Links
http://farbe.wisotop.de/ICC-Profile-Profiltypen.shtml
http://www.colormanagement.org/de/isoprofile.html
http://farbe.wisotop.de/ICC-Profile-Aufbau.shtml

AnhangGröße
Image icon <p>LAB_Farbraum.jpg</p>120.33 KB
Tags: 
Bewertung: 
0
Bisher keine Bewertung

ICC-Profile (kurz & knapp)

Der ICC-Standard (International Color Consortium) ist der Standard für ein geräteunabhängiges, aber auch programm- und plattformunabhängiges Farbmanagement. Geräte und ihre Farbräume werden über ICC-Farbprofile beschrieben und mit einem Color Management Modul (CMM) ineinander umgerechnet. Referenzfarbraum ist der geräteunabhängige Lab-Farbraum. Das ICC-Farbmanagement ist mit ColorSync (Mac OS) bzw. ICM (Windows) fester Bestandteil der Betriebssysteme.

Bewertung: 
0
Bisher keine Bewertung

HDR-Erzeugung

 HDR              = High-Dynamic-Range
                        = Pure Mathematik
                        = Mathematische Werte für komplette Dunkelheit & gleißende Helligkeit

 

.HDR Format  = 32 Bit

                          = Radiance Format genannt

                          = Dateinamenserweiterung (Dateiname.hdr.format)


Erstellung von HDR-Bildern mit der Kamera (bzw. Digicam)


·     

Digitale Bildsensoren mit hohem Dynamikumfang befinden sich in der Entwicklung

·     

Selbst hochwertige Bildsensoren können nicht den Dynamikumfang von natürlichen Szenen abdecken

·     

Es gibt bereits vermarktete bzw. in Entwicklung stehende erste Produkte:

o  

SpheroCam HDR (Zeilen-CCD)

o  

LadyBug-Kamera von Point Grey Research (mehrere Sensoren)

 

Die Kamera schießt verschiedene Bilder des selben Objekts und errechnet aus den unterschiedlichen Belichtungseinstellungen das perfekte Ergebnis.

Damit ist es selbst mit normalen Digital-Kameras möglich, ein HDR-Bild zu Erzeugen (s. Erstellung mithilfe von Software)



Erstellung von HDR-Bildern mithilfe von Software

Kamera auf „Auto-Belichtung“ und „Aperture Priority“ stellen und mind. 3 verschiedene Fotos mit den Werten -2, 0, +2 schießen. Besser ist es wenn die Fotos im RAW-Format wegen der späteren Bearbeitungen geschossen werden.

Nun werden die 3 Fotos mit den verschiedenen Belichtungswerten mithilfe von „Photomatix Pro“ zu einem einzigen Foto zusammengefügt. In Photomatix Pro muss man noch einige Einstellungen (ähnlich wie in Photoshop RAW) vornehmen, um ein perfektes Ergebnis zu erzielen. Das Programm errechnet aus den verschiedenen Belichtungseinstellungen der Bilder den perfekten Mittelwert.

Wenn man sein HDR-Bild erzeugt hat, kann man es noch mithilfe von Photoshop weiter aufbereiten, wenn man möchte.

Bewertung: 
0
Bisher keine Bewertung

Histogramm lesen

Das Histogramm kann in drei Teile aufgeteilt werden – die Tiefen, die Mitteltöne und die Lichter. Die Tiefen entsprechen den dunklen Bereichen in einem Bild, die Lichter demnach den hellen Bereichen. Die Mitteltöne in der Mitte des Histogramms machen den grössten Bereich aus.

Auf der X-Achse, also von links nach rechts auf der Horizontalen, wird der Tonwertumfang von ganz schwarz bis ganz weiß dargestellt. Auf der Y-Achse, also die Vertikale zeigt die Häufigkeit eines bestimmten Tonwerts respektive Helligkeitsstufe. Je höher also ein „Berg“, desto häufiger kommt der entsprechende Tonwert vor.

Anbei ein paar Beispiele von einem hellen, normalen und dunklen Histogramm

normal: https://www.mediencommunity.de/system/files/Histogramm_normal.jpg

hell: https://www.mediencommunity.de/system/files/Histogramm_hell.jpg

dunkel: https://www.mediencommunity.de/system/files/Histogramm_dunkel.jpg

 

Bewertung: 
2.5
Durchschnitt: 2.5 (2 Stimmen)

Maskiertechniken

Masken in Photoshop dienen dazu, bestimmte Bildbereiche auszublenden oder abzudecken, ohne sie zu löschen und so das Originalbild vor Zerstörung zu schützen. Durch die Editierbarkeit von Masken ist man flexibel und kann effizient arbeiten. Das Weglöschen von Bildelementen ist keine Maskierung und führt zur Zerstörung von Bildern. Das Originalbild darf nie durch Bearbeitung zerstört werden. Darum ist die Verwendung von Ebenmasken die professionellste Art und Weise hier vorzugehen.

Ebenenmasken

  • sind auflösungsabhängige Bitmaps
  • können mit Mal- oder Auswahlwerkzeug bearbeitet werden
  • sind gerastert und deshalb auflösungsabhängig
  • werden in einem 8-Bit Graustufenkanal gespeichert
  • auch Filter können auf diese Masken angewendet werden
  • arbeiten mit verschiedenen Deckkraftwerten, verschiedenen Kantenschärfen und Verläufen auf Masken ist möglich

 

Erstellung über Auswahl oder über Farbkanäle

 

Vektormasken

  • sind auflösungsunabhängig
  • werden mit Zeichenstift- oder Formwerkzeug erstellt
  • enthalten ausschließlich Vektorobjekte
  • können ohne Qualitätsverlust beliebig skaliert werden
  • weiche Kanten können nicht verwendet werden
  • kann erst mit Malwerkzeugen bearbeitet werden, wenn sie zu einer Ebenenmaske konvertiert wird (Die Maske wird beim konvertieren gerastert)
Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

PDF-Kontrolle mit Adobe Professional

Acrobate Professional

Um ein PDF-Dokument darauf hin zu prüfen, ob alle Objekte den Anforderungen des gegebenen Ausgabeverfahrens entsprechen hält Adobe Professional eine Reihe an Werkzeugen, wie z.B. das Prefight bereit, das eine automatische Fehlerprüfung nach vorab definierten Kreterien vornimmt.

Neben der Preflight-Prüfung sollte aber auch ein Visueller Datencheck über die Ausgabevorsch erfolgen und jede Seite auf Vollständigkeit geprüft werden. Damit die Ausgabevorschau das PDF-Dokument auch entsprechnd dem Ausgabeverfahren anzeigen kann müssen vorab einge Dokumenteninformationen in den Dateieigenschaften überprüft und Voreinstellungen getroffen werden.

 

 

Voreinstellungen

Seitenanzeige

Hier werden Einstellungen getroffen die zur Überprüfung auf Vollständigkeit wichtig sind

Objekt-, Endformat und Anschnitts-Rahmen anzeigen (Haben alle Seiten genügen Anschnitt?)

Überdruckvorschau ()

Vektorgrafiken glätten ( Sind Texte in Pfade konvertiert wurden?)

Lokale Schriften verwenden (!!!muss)

Farbmanagment

Falls noch keine synchronisierung über die Adobe Bridge stattgefunden hat, sollte hier der Arbeitfarbraum und die Standardkonvertierung definert werden, damit Acrobat die Ansicht der Bilddaten entsprechend des Druckverfahrens simulieren kann. In der Ausgabevorschau können später auch noch andere Druckverfahren simuliert werden.

Dokumenteneingenschaften

Beschreibung

Name der Anwendung mit dem das Layout erstellt wurde und Name der Anwendung mit dem das PDF erstellt wurde

=> Handelt es sich um eine problemanafällige Anwendung? Ist erhöhte Vorsicht bei der Kontrolle geboten?

Version des PDFs

=> Sind Transparenzen darstellebar? ( PDF 1.3 (Acrobat 4) und darunter kennen keine Transparenzen)

Schriften

Hier werden alle in dem Doukent enthaltenen Schriften aufgelistet und es kann überprüft werden, ob diese richtig eingebettet wurden.

Eingebettete Untergruppen“ = nur die verwendeten Zeichen sind eingebettet

Ersatzschrift“ Schrift wurde nicht korrekt eingebettet

Standards und Output-Intent

In den Standards werden neben den Informationen zu Konformität (PDF-Version und ) auch die Ausgabebedingungen (Output-Intents) angezeigt. Dabei handelt es sich um eine Art Notizzettel mit Angaben über die Ausgabebedingungen. (Könnte die Kommunikation mit Druckerein erheblich erleichtern, wird aber in der Regel nicht richtig eingesetzt und daher von den Druckerein ignoriert)

Visueller Datencheck

Ausgabevorschau

Anzeige“ > „Einblenden“ >

Nicht DeviceCMYK = Zeigt nur Elemente an die vor der Ausgabe noch korrigiert werden müssen (RGB- ,Lab-Farben und CMYK-Farben mit falschem ICC-Profil)

DeviceCMYK = Zeigt nur die druckfähigen Objekte an (Gegenprobe zu Nicht DeviceCMYK)

Simulieren“ = Einstellungen um einem kalibrierten Monitor einen Softproof durchzuführen

Simulationsprofil: hier kann, wenn benötigt, ein abweichend von den in den Voreinstellungen getoffenen Profil, auch ein anderes Profil ausgewähl und simuliert werden

Papierfarbe simulieren

Farbauszüge“

Welche Farben sind im Dokument enthalten? und Welches Objekt besitz welche Farbe?

Stimmt der Gesamtfarbauftrag mit dem Druckverfahren und Papier überein?

Preflight

Was ist Preflight?

Preflight ist ein Acrobat Professional-Werkzeug dass eine automatische Prüfung von PDF-Dokumenten durchführt, einen Fehlerreport erstellt und - bei Bedarf - auch Korrekturen durchführen kann.

Auf welche Fehlerhin Preflight das Dokument untersuchen soll, wird in Form von Prüfregeln in einem Profil definiert. Auch welche Korrekturen gegebenenfalls vorgenommen werden sollen werden in diesem Profil festgeschrieben.

Profile

Preflight hält sowohl für die Druckvorstuffe als auch für den Digitaldruck und das Online-Publishing einige Profile bereit. es ist aber von deren Nutzung abzuraten, da sie oftmal mehr prüfen als für das jeweilige Ausgabeverfahren nötig und sinnvoll ist und somit einen unübersichtlichen und oft unverständlichen Fehlerreport verursachen. Daher sollten eigene Profile erstellt und verwendet werden.

Benutzerdefinierte Prüfregeln erstellen

> Vorlage aus fertigem Profil erstellen

- Profil, dass dem jeweiligen Ausgabeverfahren entspricht, auswählen, duplizieren und umbennen

- Informationen zum Ausgabeverfahren und Autor des Profils als Kommentar beifügen

> Prüfregeln festlegen

- Bilder => Festlegen was die geringste Auflösung ist

- Farben => Festlegen welche Farben nicht verwendet werden sollen

- Zeichensätze => Festlegen ob und wie Schriften eingebettet sein müssen

- Rendering => Festlegen ob Rasterfunktionen, Transverkurven, eingebettet PS-Codes und Transparenzen vorhanden sein dürfen oder nicht

- Regeln zur PDF-X Konformitäten (können ausseracht gelassen werden, verursachen nur unnötig viele Fehlmeldungen)

- Benutzerdefinierte Prüfung=> Acrobat professional bietet hier eine Zusammenstellung mit rund 200 Prüfregeln aus denen individuell einzelne Regeln für das eigenen Profil übernommen werden können. Prüfregeln zu den folgenden Theman sollten für die Drockvorstuffe immer übernommen werden :

- Courier innerhalb der TrimBox (Ersatzschriften)

- Gesamtauftrag für gesättigtes Schwarz

- Überdrucken von grauen Objekten

- Registerfarben innerhalb der TrimBox

- Aussparen bei weißen Text oder Vektorobjekten

- Farbraum für Transparenz-Überblendungenbei Nicht DeviceCYMK

- Übereinstimmung von CropBox und MediaBox

- Effektiver Farbauftrag

- Korrekturen => Acrobate bietet hier ebenfalls eine umfangreuíche Zusammenstellung von fertigen Korrekturrregln die bei bedarf übernommen werden können

Prüfen und Prüfen und korrigieren

> Prüfen

- Acrobate führt entsprechend dem ausgewählten Profil eine Prüfung des Dokuments durch

- rotes Kreuz = Dokument ist fehlerhaft

- grüner Haken = Dokument ist fehlerfrei

- Mehrere fehler der gleichen Art werden in gruppen zusammengefasst

- Anzeigen von fehlerhafte Objekt in der Ausgabevorschau (rot-gestrichelter rahmen)

- Prüfeintrag einbetten = Dokument wird unter neuen Namen abgespeichert und erhält in den Standards die Informationen zum Prüfergebnis und ob das Dokument nach der prüfung noch mal verändert wurde.

> Prüfen und korrigieren

- Adobe führt entsprechend den Settings des ausgewälten Profils ein Prüfung des Dokuments mit anschließender automatischer Korrektur der, als fehlerhaft regestrierten, Objekte durch.

- Umfangreiche Korrekturen wie der Austausch von schriften oder Textkorrekturen sollten immer im Ursprungsdokument vorgenommen, ein neues PDF erstellt und dieses erneut mit Preflight geprüft werden.

Prüfreport

Der Prüfreport ist eine umfangreiche Auflistung alle Objekte die bei der Prüfung als kritisch regestriert wurden. Bei der Erstellung des Report solllte die Option „Probleme hervorgehoben durch Kommentare“ ausgewählt werden. Acrobat erstellt dann eine PDF in der jedes als kritisch regestriertes Objekt mit einem Notizzettel versehen. Beim Anklicken der Notiz, öffnet sich ein Fenster in dem das Problem näher beschrieben wird. Gelbe fenster beschreiben eine Warnung, rote einen Fehler und blau enthalten Informationen.

 

 

(Dies ist eine Zusammenfassung aus dem Kapitel 5 von CleverPrinting 2013. Ist übriegens kostenlos)

 

Bewertung: 
0
Bisher keine Bewertung

Photoshop CS6 Cheat Sheets als Download

Florian Ehlich, Junior Art Director bei der vorwärts GmbH in Köln, hat für die neue Photoshopversion Cheat Sheets erstellt und ins Netz gestellt. So hat man Shortcuts und neue Funktionen schnell im (Zu-)Griff.

Bewertung: 
0
Bisher keine Bewertung

Prozess Standards Digitaldruck (PSD)

 

Aufgrund der verschiedenen Technologien und Verbrauchsmaterialien im Digitaldruck ist der von der FOGRA entwickelten PSD im Gegensatz zum PSO im Sinne einer allgemeinen Vorgehenweise, die prinzipiell auf alle Digitaldruckverfahren angewendet werden, zu verstehen.

 

Prinzipieller ablauf der Prozesskontrolle im 4-c Digitaldruck

1. Wartung und Grundeinstellung

  • Regelmäßige Wartung und Grundeinstellung der Maschinen
  • Fachgerechte Lagerung und Anwendung der Verbrauchsmaterialien
  • Korrekte Anwendung der Maschinen

2. Materialkombinationen prüfen und festlegen
Welcher Bedruckstoff und welche Farben sollen verwendet werden?

  •  Parameter für Be- und Verdruckbarkeiteigenschaften festelgen (Bedruckstoff-Katalog)
  • Zur Prüfung der drucktechnischen Eigenschaften muss der Testdruck im Gerätemodus und nicht im Simulationsmodus, also ohne Farbmanagment („1:1“), durchfürhen werden.

3. Farbreferenz(en) /Druckbedingungen festlegen
Welche Volltonfärbung soll abgedeckt werden?- Gibt es Angaben zu den Druckbedingungen in den
Output-Intents dazu?

  • Die Volltonfärbung bezeichnet die CIELAB-Farbwerte der Prozessfarben, d.h. der Primär- und Sekundärfarben.
  • Druckbedingung FOGRA39 (de-facto Referenz für viele Digitaldrucker): repräsentier den Offsetdruck auf Bilderdruckpapier.

4. Analyse der Druckbedingungen
Wie kann der von der Farbreferenz vorgegebene Farbumfang bestmöglicht reproduziert werden?

  • Es werden zunächst die maschinenseitig vorggeben Zielwerte auf die damit erreichbare Volltonfärbung geprüft und mit der gewählten Farbreferenz abggelichen
  • Ein Farbabstand von ΔE * ab > 10 kann als Anhaltspunkt für einen zu großen Unterschied zwischen
  • Referenzfarbumfang und aktuellem Farbumfang angesehen werden.

5. Justage/Kalibrierung

  • Optimierung der Volltonfärbung durch entsprechende Einstellungen des Drucksystems
  • Lineariserung der Primärfarben hinsichtlich der Dichte, der Tonwerte, der CIEL*-Werte oder des ΔEAbstandes

6. Charakterisierung und Proflierung

  • Charakterisierungtabell aus farbetrischer Messwerten einer Farbtafel erstellen
  • individuelle Duckbedingung etablieren »» Auf der Basis der Charakterisierungsdaten wird eine Farbtransformation in Form eines ICC-Ausgabeprofils erstellt. Hier werden u.a. Ersatzfabendarstellung (Gamut Mapping) und Seperationsstrategien festgelegt.
  • DeviceLink-Farbtransformationen, ermöglichen eine direkte Anpassung vom Refferenzfarbraum in den Farbraum der aktuellen Druckbedingungen

7. Validierung (mit oder ohne Farbmanagment)

  • Prüfung der Stabilität des Drucksystems bzw. der spezifischen Druckbedingungen („1:1“ ohne Farbmanagment)
  • Prüfung des Zusammenspiels aus Farbtransformation und Druckstabilität 

8. Qualitätskonstanz

  • durch PSD-Zertifikate
  • durch etablierte Druckbedingungen die auf Basis mehrer gleichartiger Maschinen aufgebaut ist, um
  • sicherzustellen, dass geringfügoige Unterschiede zwischen ihnen in der jeweiligen Justage ausgeglichen werden können.
  • durch tägliche Kalibrierung; Die regelmäßige Prüfung muss auf Basis eines Druckontrollstreifens basieren, der die Anforderungen gemäß ISO 12647-7 erfüllt (FOGRA Medienkeil). Diese beziehen sich auf:
»» Volltonfarben (Primär- und Sekundärfarben)
»» Mitteltöne der Primärfarben (CMY)
»» Buntgraukeil, der für eine Druckbedingung eine neutralgraue Wiedergabe aufweist (mindestens 5 Stufen und gleichmäßig in der CIEL*-Helligleit abgestuft)
»» Echtgraukeil (gleichmäßig in der CIEL*-Helligleit abgestuft)
»» Bedruckstoff (Papierweiß)
Bewertung: 
0
Bisher keine Bewertung

Tonwertkorrekturen

Hier schon mal einen weiterführenden Link zum Thema: http://www.scandig.eu/Tonwertkorrektur.html

Bewertung: 
0
Bisher keine Bewertung

U1: Farbmischung

Anleitung für das Wiki
In diesem Wiki könnt ihr gemeinsam Lerninhalte erstellen. Jedes Wiki ist direkt und für jeden angemeldeten User editierbar. Wenn bereits bei vorherigen Prüfungs-Wikis zum Thema (manchmal auch nur Teilgebiete streifend) erstellt wurden, so werden sie unten verlinkt. Ansonsten einfach hier diesen Eintrag überschreiben und mit entsprechenden Inhalten füllen.
Um Beispielaufgaben etc. zu bearbeiten haben wir extra eine Lerngruppe (https://mediencommunity.de/lerngruppe-mediengestalter-ap-sommer-2019) eingerichtet, bitte diese für das gemeinsame Lösen von Aufgaben nutzen.

Viel Erfolg beim Lernen.
Das Team der mediencommunity

AnhangGröße
PDF icon U1 Farbmischung.pdf1.47 MB
Bewertung: 
0
Bisher keine Bewertung

U6: Digitalfotografie/Bildfehler

Anleitung für das Wiki
In diesem Wiki könnt ihr gemeinsam Lerninhalte erstellen. Jedes Wiki ist direkt und für jeden angemeldeten User editierbar. Wenn bereits bei vorherigen Prüfungs-Wikis zum Thema (manchmal auch nur Teilgebiete streifend) erstellt wurden, so werden sie unten verlinkt. Ansonsten einfach hier diesen Eintrag überschreiben und mit entsprechenden Inhalten füllen.
Um Beispielaufgaben etc. zu bearbeiten haben wir extra eine Lerngruppe (https://mediencommunity.de/lerngruppe-mediengestalter-ap-sommer-2019) eingerichtet, bitte diese für das gemeinsame Lösen von Aufgaben nutzen.

Viel Erfolg beim Lernen.
Das Team der mediencommunity

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Videoschnitt

Filmmontage bezeichnet das Zusammenfügen von Einstellungen, Szenen und Sequenzen zu einer erzählerischen Einheit.

Im Schnitt oder der Montage entsteht der eigentlich Flim. Die verschiedenen Bausteine eines Flims werden in der endgültigen Abfolge aneinder montiert.

Schnittformen

Schnitt:
Die Bezeichnung Schnitt betrifft die eher handwerkliche Tätigkeit im Schneideraum, sie hat sich aus dem Arbeitsprozess des Auseinanderschneidens und Kürzen einzelner Einstellungen entwickelt.
 
Montage:
Spricht man von Montage, so geht es in erster Linie um den Inhalt und die Gestaltung. Während Schnitt eher das Aussondern und Kürzen des Materials betont, verweist die Bezeichnung Montage auf das Zusammenfügen der Einstellungen. Es ist das Konzept gemeint, nach dem dies geschieht.
 
Kriterien:
Wie jede Gestaltung muss auch jeder Schnitt, jede Überblendung und jeder von Ihnen eingesetzte Effekt motiviert und begründet sein. Die Schnittfolge muss die Handlung des Films weiterbringen und das Interesse des Zuschauers erhalten oder noch besser: steigern. Einstellungsgrößen und -längen sollten variiert werden. Allgemein erzeugen schnelle Schnittfolgen Spannung und Emotionen, lange Schnittfolgen wirken ruhig und sachlich
 
Im Schnitt sollen die Einstellungen so miteinander kombiniert werden, dass sie inhaltlich und optisch als zusammengehörig wahrgenommen werden.
vorhandene Bildmaterial sollte im Schnitt möglichst logisch und folgerichtig geordnet werden
jeder Schnitt sollte motiviert sein z.B. Anlässe für einen Schnitt können Bildimpulse sein, Tonimpulse im Text oder auf Geräuschebene)
ähnliche Bilder, die man aneinander schneidet, irritieren den Betrachter (kann aber auch als Stilmittel verwendet werden siehe Jump Cut)
ein Schnitt sollte ein eindeutig neues Bildangebot schaffen
unterschiedliche Kamerabewegungen sollte man im Schnitt nicht direkt aneinander setzen
durch einen Tempowechsel beim Schnitt kann die Aufmerksamkeit des Publikums gesteigert werden
bei erzählenden Darstellungen signalisiert die Blende Zeit- und Ortswechsel
mit Effektblenden sollte man äußerst sparsam und bewusst umgehen
 

Arbeitsablauf beim Schnitt:

- Material sichten
- unbrauchbare Aufnahmen ausmustern/ entfernen z.B. unscharfe, ablenkende oder verwirrende Aufnahmen
- gelungene und für das Projekt in Frage kommende Aufnahmen kennzeichnen
- digitalisieren des Materials in das Schnittsystem
- Rohschnitt *
- Feinschnitt**
- einfügen von Blenden
 
* Beim Rohschnitt wird die erste Auswahl und Anordnung des gedrehten Filmmaterials bezeichnet und festgelegt.
** Beim Feinschnitt werden die in ihrer Reihenfolge bereits festgelegten Einstellungen auf ihre endgültige Länge gebracht.
 
Motivierter Schnitt = Jeder Schnitt sollte einen Grund haben. Die Motivation kann durch die Bild- und Tonebene begründet sein. Man spricht hier auch von Bildimpulsen und Tonimpulsen.
Beispiel: Ein Mann zeigt auf etwas und es ist nur ein klingelndes Telefon zu hören. Hier sollte idealerweise der nächste Schnitt zu dem Telefon führen.
 
Irritierende Schnitte = Schnitte irritieren, wenn die Kontinuität der Darstellung nicht gewahrt wird. Wenn 2 aufeinander folgende Einstellungen keinen logischen oder optischen Zusammenhang aufweisen, spricht man auch von einem Anschlussfehler
Beispiel: Aufgabe ist 6 kurze Statements einer Straßenumfrage aneinander zu schneiden, dann sollte das Bildmaterial in Bezug auf den Abbildungsmaßstand der Person auf ihre Positionierung innerhalb des Bildrahmens und ihre Blickrichtung möglichst abwechselnd gestaltet sein.
 
Jump Cut = Schnitte, die einen Sprung des Motivs innerhalb des Bildrahmens erzeugen
Match Cut = bezeichnet eine Schnittfolge, bei der 2 auffällig ähnliche Bildinhalte aufeinander folgen, die zeitlich oder räumlich auseinanderliegen
Insert Schnitt = zeigen erläuternde Groß-oder Dateilaufnahmen
Diffuser Schnitt = immer dann, wenn eine Einstellung kein konkretes Blickzentrum (mehr) aufweist
 
Inhaltliche Montageformen
Erzählende Montage: Die einzelnen Stadien eines längeren Prozesses werden exemplarisch gezeigt.
Analysierende Montage: Darstellung von Ursache und Wirkung.
Intellektuelle Montage: Ideen und Begriffe werden visuell übersetzt.
Kontrast-Montage: z.B. Hunger - Essen
Analogie-Montage: z.B. Schafherde und Fabrikeinheiten in modernen Zeiten.
Parallel-Montage: Zwei Handlungsstränge laufen parallel nebeneinander her und werden ständig wechselnd geschnitten, z.B. eine Verfolgungsjagd. Die Stränge werden am Ende zusammengeführt, beide Stränge wissen meist von Anfang an voneinander.
Parallelisierende Montage: Die beiden Handlungsstränge sind wie bei der Parallel-Montage zeitgleich, sie wissen aber nichts voneinander und müssen sich nicht treffen.
Metaphorische Montage: Im Bereich der Handlung angesiedelte oder fremde Metapher.
 
Wahrnehmungsästhetische Schnittform
Harte Montage/harte Schnitte: Krass aufeinander folgend, Brüche, wechselnde Bewegungsrichtung.
Weiche Montage/weiche Schnitte: Harmonisch, kaum wahrnehmbare Übergänge.
Rhythmische Montage: Der Schnittrhythmus wird durch die Filmmusik bestimmt - die Filmmusik orientiert sich am Bilderrhythmus.
Springende Montage: Nicht harmonisch, zerfällt in einzelne Einstellungen, Aufzählung, harte Brüche.
Schockmontage: Zwei aufeinander folgende Einstellungen haben scheinbar keine Verbindung, bewusste Desorientierung des Zuschauers.
 

Schnitttechniken

Überblende
Filmschnitttechnik, die im Gegensatz zum harten Schnitt steht. Hierbei wird das alte Bild langsam ausgeblendet und das neue Bild gleichzeitig eingeblendet. Dadurch entsteht ein fließender Übergang zwischen beiden, was häufig verwendet wird, um zwei zeitlich oder räumlich weit voneinander entfernte Szenen zu suggerieren.
 
Wischblende
Filmschnitttechnik, bei der das alte Bild vom neuen Bild kontinuierlich überblendet bzw. ersetzt wird. Dies kann in vielfacher Art geschehen, z.B. auch horizontal, vertikal, diagonal, sternförmig oder im Uhrzeigersinn. Diese Schnitttechnik wird verwendet, um eine gleichzeitige Handlung an verschiedenen Orten darzustellen. Diese Technik wird in modernen Filmen nur noch selten verwendet, am bekanntesten dürfte die Verwendung von Wischblenden in den Filmen der Star-Wars-Reihe sein.
 
Akustische Klammer
Einstellungen oder Szenen werden durch filmischen Ton unterstützt. In den meisten Fällen wird dies durch den Soundtrack oder andere musikalische Beiträge bewerkstelligt. Oft wird aber auf das Stilmittel der vorgezogenen Soundeffekte und Dialoge verwendet. Das heißt, man hört z.B. schon eine Person reden, obwohl sich erst im Szenenwechsel klärt, dass dies zu einem späteren Zeitpunkt oder an einem anderen Ort geschieht.
Gängig ist auch der umgekehrte Weg, um beispielsweise von der Planung einer Aktion zu deren Durchführung zu schneiden, während die Tonspur mit der Erläuterung des Plans fortfährt.
 

Einstellungsgrößen

Unter Einstellungsgrößen bezeichnet man das Größenverhältnis des abgebildeten Objekts zum Bildfeld. Es handelt sich um verschiedene zueinander in Beziehung stehende Bildausschnitte. Sie sind ein wichtiges Mittel des bildlichen Erzählens und können psychologische Akzente setzen. Sie werden in der Regel in einem Storyboard definiert.
 
Jede Einstellungsform eignet sich für bestimmte Zwecke besonders gut. Eine wichtige Informationsquelle ist aber der Wechsel der Einstellungen. An ihr lassen sich stilistische Merkmale und auch die Handschrift des Regisseurs erkennen. Auch verschiedene Filmtraditionen und -kulturen verwenden traditionell sehr unterschiedliche Wechsel in den Einstellungen.
Actionfilme oder Dokumentarfilme weisen oft einen hohen Anteil an long shots auf, weil für diese Filme Mimik und nonverbale Ausdrucksformen weniger wichtig sind, sondern gesamte Vorgänge eingefangen werden. Die erforderlichen schauspielerischen Leistungen sind bei diesen Filmtypen vergleichsweise gering. Auch quasidokumentarische Filme enthalten oft viele totale Einstellungen und verraten hiermit ihre Herkunft aus dem Dokumentarfilm. Filme, die Beziehungen der Figuren und das Gefühl in den Vordergrund stellen, enthalten viele close-ups.
 
Die wichtigsten Einstellungen sind:
Totale (long shot)
Halbtotale (medium long shot)
Amerikanische Einstellung (american shot)
Halbnahaufnahme (medium close- up)
Nahaufnahme (close-up)
Großaufnahme (very close-up)
Detailaufnahme (extreme close-up)
 
Totale - long shot
Mit der Totalen wird dem Betrachter ein Überblick/Orientierung geboten. Er wird in die Thematik der Szene eingeführt.
 
Halbtotale - medium long shot
Es wird ein beschränkter Ausschnitt der Totalen gezeigt. So wird der Blick des Betrachters auf das bildwichtige Motiv gelenkt.
 
Amerikanische Einstellung - american shot
Es handelt sich um eine in Western häufig eingesetzte Einstellungsgröße. Beim Duell sehen wir einen Revolverhelden mit seinem Colt vom Knie an aufwärts im Vordergrund, sein Gegner steht leicht seitlich versetzt im Bildmittelgrund.
 
Halbaufnahme - medium close-up
Es werden erste Details gezeigt, z.B. die obere Körperhälfte einer Person.
 
Nahaufnahme - close-up
Es werden weitere Details des Motivs gezeigt. Für den Betrachter gehen der Überblick und die Möglichkeit zur Einordnung in die Umgebung verloren.

 

 

Bewertung: 
0
Bisher keine Bewertung

Datenhandling / Hardware / Software

Das Densitometer

Ein Densitometer ist ein Messgerät für Dichten von Tonwerten, so dass die Tonwertwiedergabe auf dem Film exakt beurteilt werden kann. Densitometer zeigen den gemessenen Tonwert als logarithmische Zahl an. Diese Zahl gibt den Grad der Dichte an. Dichte wird auch Schwärzung genannt. (Da sie von geschwärzten Silberteilchen kommt). Außer der Schwärzemessung gibt es noch die Farbdichtemessung.

Dichtemessung (Densitometrie):
Dichtemessung ermöglicht die objektive Beurteilung von Halbton- und Rastertonwerten. Also die Berechenbarkeit, Steuerung und damit die Standardisierung der Bildbearbeitung. Dichtemessung nimmt in dem ausgewählten Messbereichen von Bildern die Abdunklung in Bezug auf Weiß und ermittelt so die Tonwertstufe einer Farbe.

Es gibt 3 Arten von densitometrischer Messung:

  • Durchsichtsmessung (von Negativen und Diapositiven)
  • Aufsichtsmessung (von Fotoabzügen und grafischen Vorlagen)
  • Rastermessung (von gerasterten Filmen und Rasterdrucken)

Grundregeln für die Messung mit einem Densitometer

  • Das Densitometer muss kalibriert sein.
  • Densitometer muss vor der Messung auf das jeweilige Papierweiß des Auflagenpapiers genullt sein. (Damit die Papierfarbe keinen Einfluss auf die Messung hat).
  • Nur lasierende Farben messen, da nur sie mit zunehmend dickerer Farbschicht weniger Licht absorbieren.
  • Einseitig bedruckte Bogen auf weißer Unterlage messen. Doppelseitig bedruckte Bogen auf schwarzer Unterlage messen, da so der durchscheinende Druck neutralisiert wird.

Anwendungsgebiete:

  • Reproduktion
  • Desktop Publishing
  • Fotosatz
  • Technik
  • Medizien

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Messprinzip

  • Licht wird durch Optik gebündelt auf bedruckte Fläche geworfen

  • Teil des Lichts wird absorbiert

  • Teil des Lichts durchdringt die durchscheinende Farbschicht (& wird abgeschwächt)

  • Restlicht wird von Bedruckstoff remittiert

  • davon läuft es wiederum zurück durch Farbschicht (weitere Abschwächung)

  • Linsensystem fängt Restlicht, welches aus der Farbschicht austritt

  • leitet es an Fotodiode

  • empfangene Lichtmenge wird in elektrische Energie umgewandelt

  • Elektronik vergleicht Messstrom mit einem Referenzwert

  • Differenz davon ist Grundlage zur Errechnung des Absorptionsverhaltens

    der gemessenen Farbschicht

  • Farbdichte wird angezeigt

 

Kurz

Hin: Lichtquelle -> Linsensystem -> Polarisationsfilter -> Farbfilter -> Messgut

Zurück: Linsensystem -> Polarisationsfilter -> Empfänger (Diode) -> Elektronik -> Anzeige

 

Filter

Farbfilter begrenzen Licht auf die für die jew. Druckfarbe relevante Wellenlänge

Farbfilter für:

  Cyan -> Rot

                       Magenta -> Grün

                       Yellow -> Blau

                       Schwarz -> Breitband oder spez. Grünfilter

 

Polarisationsfilter verhindert größere Messwertdifferenzen zw. trockener & nasser

Druckfarbe

 

 

 

Bewertung: 
0
Bisher keine Bewertung

Daten für Druckausgabe optimieren

Ausgabe von PDF-Dateien im Druck

Was versteht man unter Preflight-Check?

 

Unter Preflight-Check versteht man die Prüfung einer PDF-Datei auf deren Ausgabetauglichkeit.

Folgen Kriterien sind u.a. beim Preflight-Check zu beachten:

  • PDF Version
  • Datenformat ( binär oder ASCII)
  • Font-Einbettung / Font-Typen
  • Farbmodelle / Sonderfarben
  • Bildauflösung

 

Arbeitsschritte bis zur Ausgabe über den RIP

 

Die Ausgabe von PDF-Datein hängt vom PostScript-RIP ab. Bei Verwendung älterer RIPs wir die PDF-Datei, bevor sie zum RIP geschickt wird, in Postscript umgewandelt und unter Umständen noch farbsepariert. Der Adobe PostScript-3-RIP bietet die komfortabelste Möglichkeit: Die PDF-Datei wird über einen HOTFOLDER direkt eingelesen und automatisch in PostScript umgewandelt und separiert.

 

Einstellungsmöglichkeiten

 

  • Komprimierung

    für Halbton,- Graustufen- und Schwarzweiß-Bitmap-Bilder stehen die Kompressionsverfahren JPG und ZIP zur Auswahl

  • Neuberechnung
    Bilder mit zu hoher Auflösung als für die Ausgabe nötig, werden heruntergerechnet. Dies gilt auch für Bilder, die im Layout-Programm verkleinert wurden.

  • Einbettung der Schriften

  • Hinterlegung von ICC-Profilen

  • PDF X Standards

(Quelle: ABC der Mediengestaltung)


PDF-Erstellung – Generelle Fehler

Wen Sie die nun folgenden Punkte beachten, können Sie schon während der Erstellung des Layoutdokuments einige Fehler vermeiden, welche die Print-Qualität Ihrer PDF-Datei schmälern.

  • Vermeiden Sie die Verwendung von RGB-Daten. Wandeln Sie diese vor der PDF-Erstellung über ein gesichertes Verfahren in CMYK-Bilddaten um.

  • Achten Sie generell darauf, dass die Auflösung der Bilddaten für das Endformat im entsprechenden Ausgabeverfahren reicht, z.B. 300 dpi für den Offsetdruck. Die Qualität der Bilddaten wird durch eine nachträgliche Skalierung verändert!

  • Vermeiden Sie den Einsatz von Haarlinien, also Linien mit einer Strichstärke unter 0,3 pt. Diese können durch die Rasterung im Druck nur in ungenügender Qualität wiedergegeben werden. Definieren Sie die Linienstärke immer manuell. Die Auto-Funktion der Linienwahl (Dicke, mittlere, dünne Linien) liefert keine verlässlichen Werte.

  • Transparenzen sind effektive Stilmittel, allerdings kann es bei der Druckausgabe zu Problemen kommen, da der RIP sie nicht richtig interpretiert. So ist es möglich, dass Transparenzen nicht verrechnet werden, d. h. Objekte im Vordergrund überdecken den Hintergrund wieder vollständig und die Transparenz geht verloren. Zukünftige Ausgabe-RIPs wie z. B. die Adobe-PDF-Engine werden diese Problematik beheben.

  • Wenn Sie im Layoutprogramm mit verschiedenen Ebenen arbeiten, sollten Sie darauf achten, dass Sie nur aus den druckrelevanten Ebenen ein PDF erstellen. Achten Sie dabei auf die Anordnung der einzelnen Ebenen.

  • Betten Sie Schriften bei der PDF-Erstellung immer vollständig in das Dokument ein. So vermeiden Sie einerseits Darstellungsprobleme, wenn Sie das Dokument an Ihre Druckerei weiterleiten. Andererseits kann diese problemlos kleine Textkorrekturen vornehmen, da ihr der gesamte Schriftfont zur Verfügung steht.

 

UCR/GCR/UCA

  • Ziel: Den Farbauftrag zu verringern

 

UCR

  • Under Color Removal (Unterfarbenreduzierung)
  • Reduziert an den Stellen, wo nur schwarz erscheinen soll die Farben Magenta, Cyan
    und Yellow, um unnötigen Farbauftrag zu vermeiden

GCR

  • Grey Component Replacement (Unbuntaufbau)
  • Man nimmt den kleinsten Farbwert der CMYK-Werte und zieht diesen überall ab, jedoch
    fügt man ihn bei schwarz hin zu. Beispiel:
    C 20% M 60% Y 80% -> C 0% M 40% Y 60% K 20%

 

UCA

  • Under Color Addition (Unterfarbenaddition)
  • 100% K ist KEIN dunkles schwarz, sondern sieht gräulich aus. Daher versucht man mit
    der Zugabe von Cyan ein dunkleres schwarz zu erzielen. Beispiel:

    C 0% M 0% Y 0% K 100% -> C 50% M 0% Y 0% K 100%

 

 

 

Quelle:

http://www.gronenberg.de/veroeffentlichungen/druckratgeber/2-vorstufe/359-26-pdf-erstellung-layoutdaten.html

http://www.smilerestyle.de/downloads/fachwissen/cm.pdf

 

Bewertung: 
0
Bisher keine Bewertung

Ausgabeauflösung

Die Ausgabeauflösung ist die Anzahl von Punkten pro Inch (dpi) die ein Gerät, wie z.B. ein Drucker oder Monitor, ausgeben kann.

Monitore können eine Ausgabeauflösung von 72dpi haben und Drucker haben üblicherweise 300-600dpi als Ausgabeauflösung.

Beim Druck sollte man darauf achten, dass das Quellbild eine proportionale Auflösung zum Drucker hat.
Das heißt, das Bild sollte eine Auflösung von 72-300ppi haben, um beim Druck mit 300-600dpi ein gutes Ergebnis zu erzielen.

 

Ideale Auflösung (Druck ) ...
von Farbbildern: 300 ppi
von Garustufenbildern: 300 ppi
von Strichzeichnungen: 1200 ppi

Monitorauflösung:
zwischen 72 und 96 ppi

Belichterauflösungen:
bis 2540 dpi, aber auch hörere Auflösungen möglich

FORMELN / RECHNUNGEN:

  • Halbtonbildauflösung (Druck) = Rasterweite x Qualitätsfaktor
  • Scanauflösung = Rasterweite x Qualitätsfaktor ( x Skalierungsfaktor)
    (Skalierungsfaktor (Maßstab) =  Reproduktion / Vorlage)
  • Belichterauflösung = Rasterweite x Rasterzellengröße
Bewertung: 
0
Bisher keine Bewertung

Variabler Datendruck

Was ist "Variabler Datendruck" überhaupt?

Während des laufenden Drucks bei einer Digitaldruckmaschine/Laserdrucker werden Text und/oder Bildelemente ausgetauscht wobei das Grundlayout bestehen bleibt.
Dieses Produkt/Druckerzeugnis besteht aus statischen und dynamischen Daten. (Die statischen Daten sind die Elemente, die in den Datensätzen immer gleich sind, also immer das selbe Erscheinungsbild und den selben Stand haben. Die dynamischen Daten sind die Daten, die individuell ausgetauscht werden.) Für den laufenden Druckprozess werden diese zwei Datentypen mit Hilfe der verknüpften Datenbank über das RIP generiert und zu einem Gesamtdruckwerk zusammengesetzt.

Was sind die Vorteile des variablen Datendruck?

  • Persönliche Kundenansprache
  • Stärkere Kundenanbindung
  • Verbesserte Responsequote (abhängig von der Qualität, siehe Qualitätsfaktoren)
  • Hohe Aufmerksamkeit durch Bildpersonalisierung
  • schnelles Ändern der Datensätze
  • bessere Umsetzung von Marketingstrategien

Welche Qualitätsfaktoren gibt es?

  • Fehlerfreie Datenbanken
  •  Grafische Gestaltung (Gestaltungsregeln beachten)
  •  Zielgruppengenau Datenbank
  • Textgestaltung
  • Zielgruppenansprache
  • Attraktives Angebot
  • Geeignete Bildauswahl und -aufbereitung

Welche Nachteile hat der variable Datendruck?

  • Hoher Zeitaufwand bei der Datenberechnung (RIP-Prozess)
  • nur sinnvoll bis zu einer gewissen Auflagenhöhe
  • langsame Druckgeschwindigkeit
  • evtl. gesteigerter Verwaltungsaufwand (je nach Umfang der Personalisierung)

Wie erstellt man ein personalisiertes Dokument?

  1. "Masterdokument" erstellen
    Hier sollten alle statischen Inhalte enthalten sein und Positionierungsvorgaben der variablen Inhalte.
  2. Erstellen/auswählen der Datenbank
  3. Fertigstellen des Dokuments
    Hinzufügen der "Seriendruckfelder"/Dynamische Felder
    Diese sind in den meisten Programmen als Seriendruckzeichen gekennzeichnet (<<Name>>)
    Die eingefügte Bezeichnung (hier "Name") muss identisch mit der Spaltenbezeichnung in der Datenbank sein.
  4. Vorschau des Dokuments
    Jeder Datensatz wird mit den wechselnden Dateninhalten angezeigt
  5. Zusammenführen und Ausgaben
    Direkt auf einem geeigneten Drucker oder als PDF-Datei

Medienprodukte sind an sich ohne Einschränkungen zu gestalten man sollte nur einige technische Aspekte berücksichtigen um eine sichere und schnelle Produktion zu gewährleisten.
Da die meisten Layoutprogramme mit Text- und Grafikrahmen arbeiten muss bei der Gestaltung der maximal benötigte Platz  für den Textdatenaustausch berücksichtigt werden. Und das kann passieren, wenn man diesen Aspekt nicht beachtet:

  • Der Text wird gekürzt - was nicht in den Textrahmen passt wird nicht berücksichtigt und fällt weg
  • Der Textrahmen bleibt leer
  • Schriftgrad wird dem Textrahmen angepasst (dynamischer Textrahmen)
    Hierbei sollte man besonders Vorsichtig sein, wenn man mit einem vorgegebenen Corporate Design arbeitet.

Bei variablen Bilddatenaustausch gibt es drei Übernahmeparamenter für die Bildskalierung:

  • Originalgröße beibehalten
  • Skalierung in Prozent
  • Bildposition links oben, links unten oder zentriert

Um bei der Bildpersonalisierung einen sicheren Datenaustausch gewährleisten kann müssen die Bilder:

  • die gleichen Pixelmaße aufweisen
  • die gleiche Auflösung haben
  • das gleiche Datenformat haben
  • den gleichen Farbmodus und
  • einen einheitlichen Farbraum
     

 

Bewertung: 
4.5
Durchschnitt: 4.5 (2 Stimmen)

Densitometrie

  • in der Densitometrie wird die optische Dichte D von Vorlagen, Drucken und fotografischen Materialien gemessen
  • zur Bestimmung der Dichte werden Densitometer verwendet
  • das menschl. Auge empfindet Helligkeitsunterschiede nicht linear, sondern logarithmisch
  • der Unterschied zwischen der Opazität O (Lichtundurchlässigkeit) von 1 bis 100 wirkt auf das Auge also 2fach, nicht 100fach (2 = log 100)
  • die Dichte wird deshalb durch die Logarithmierung der Opazität errechnet
  • die Opazität ist das Verhältnis der auftreffenden Lichtintensität l0 zur durchgelassenen Intensität l1
  • die Transparenz T (Lichtdurchlässigkeit) ist der Kehrwert der Opazität, d.h. das Verhältnis der durchgelassenen Lichtmenge l1 zur auftreffenden l0

Dies lässt sich durch die so genannte TOD-Formel berechnen:

T = Transparenz = (durchgelassenes Licht) / (auffallendes Licht) = 1 / O

O = Opazität = (auffallendes Licht) / (durchgelassenes Licht) = 1 / T = 10(hoch -D)

D = Dichtewert = log O = log (1 / T)

Halbtondichtemessung

  • bei der Messung von Halbtönen, z.B. Dias oder Fotos, muss zunächst das Densitometer kalibriert werden
  • dies geschieht durch eine erste Messung ohne Probe
  • l1 wird damit gleich l0 und somit zu 100% gesetzt
  • bei der folgenden Messung auf der Bildstelle wird die durch die optische Dichte reduzierte l1 gemessen
  • die anschließende Berechnung im Densitometer ergibt die Bilddichte D

Rasterdichtemessung

  • auch integrale Dichtemessung genannt
  • sie bestimmt als l1 den Mittelwert aus gedeckter und ungedeckter Fläche
  • dazu ist es notwendig wenigstens 100 Rasterpunkte zu erfassen
  • die Messblende ist deshalb mit einem Durchmesser von ca. 3 mm größer als bei der Halbton-dichtemessung
  • die Kalibrierung erfolgt auf einer nicht mit Rasterpunkten bedeckten blanken Filmstelle bzw. bei Aufsicht auf weißem Papier
  • somit repräsentiert l1 bei der Messung nur die rasterfreien Flächenanteile
  • die Differenz zwischen 100% und l1 ergibt den Rastertonwert

 

Übungsaufgaben und Hinweis von cuya:

Informationen von www.mathemedien.de

Densitometrie

Medienproduktion, alle Fachrichtungen

Hier kann es um die Berechnung von Dichte und Rastertonwert gehen.

6  Bitte jeweils die Dichte ausrechnen:
a)  Transmissionsfaktor (Transmissionsgrad) 0,50
b)  Reflexionsfaktor (Remissionsgrad) 0,01
c)  Transmissionsfaktor 0,2 %
d)  Reflexionsfaktor 5 %

7  Bitte die folgenden Dichten in Reflexionsfaktoren umrechnen:
a)  0.60
b)  1.65
c)  0.10

8  Die am Film gemessenen Dichten sollen in prozentuale Rastertonwerte umgerechnet werden:
a)  Positivfilm, Dichte 0.74
b)  Negativfilm, Dichte 0.74
c)  Positivfilm, Dichte 0.25
d)  Negativfilm, Dichte 0.18

9  Bitte jeweils den Rastertonwert im Druck berechnen (Murray-Davies-Formel)
a)  Dichte im Raster 0.76, Volltondichte 1.25
b)  Dichte im Raster 0.40, Volltondichte 1.60
c)  Dichte im Raster 0.96, Volltondichte 1.45

10  Wie hoch ist die Tonwertzunahme im Druck, wenn im 40-Prozent-Rasterkontrollfeld die Dichte 0.33 und in Volltonfeld die Dichte 1.40 gemessen wird?

 

Lösung: www.mathemedien.de

Bewertung: 
0
Bisher keine Bewertung

Densitometrie/Murray Davis

Allgemeines

  • ist die quantitive Messung der Farbdichte (Volltondichte)
  • d.h. wie viel Farbmenge sich pro Flächeneinheit befindet
  • es werden nur Tonwerte bestimmt
  • dient in der Reproduktion und beim Druck zur Qualitätssicherung
  • das Messgerät nennt sich Densitometer


Erläuterung von Begriffen

Transparenz = Lichtdurchlässigkeit
Opazität = Lichtundurchlässigkeit
Transmission, transmittieren = Durchlassen von Licht
Reflexion, reflektieren = Zurückstrahlen von Licht
Remission, remittieren = Diffuses Zurückstrahlen von Licht
Absorption, absorbieren = vollständiges Aufnehmen (Verschlucken) von Licht
lasierend = durchscheinend


Arten von Densitometern

Auflichtdensitometer
beim Druck auf Papier (Aufsichtvorlagen)

Auffallendes Licht (I0) wird auf eine lichtundurchlässige Vorlage gestrahlt.
Das remittierte Licht (I1) wird an die Messzelle gestrahlt.
Wie viel Licht wurde remittiert?

Durchlichtdensitometer
in der Reproduktion für Filme (Durchsichtvorlagen)

Auffallendes Licht (I0) wird auf eine lichtdurchlässige Vorlage gestrahlt.

Das transmittierte Licht (I1) wird an die Messzelle gestrahlt.

Wie viel Licht wurde transmittiert?

 

Formeln:

Bei der Durchsichtsmessung:

Tranzparenz T (Lichtdurchlässigkeit) = x% druchgelassene Lichtmenge : 100% aufgestrahlte Lichtmenge

Opazität O (Lichtundruchlässigkeit) = 1:T (Kehrwert) bzw. 100% aufgestrahlte Lichtmenge : x% druchgelassene Lichtmenge

Dichte D = logO bzw. log1:T

 

Bei der Aufsichtsmessung UNGERASTERT (FOTO):

Remission R = x% remittierte Lichtmenge : 100% absorbierte Lichtmenge

Absorption A = 1:R (Kehrwert) bzw. 100% absorbierte Lichtmenge : x% remittierte Lichtmenge

Dichte D = logA bzw log1:R

 

Jetzt kommt RTW-Messung im Film
= (1-T)*100% bzw. (1-1:O)*100% bzw. (1-10 hoch -D)*100%

Jetzt kommt RTW-Messung im Druck (MURRAY DAVIS):

= (1-Transmission im Rasterfeld : 1-Transmission im Vollton)*100% bzw.

= (1-1:A im Rasterfeld):(1-1:A im Vollton)*100% bzw.

= (1-10 hoch -Dichte im Rasterfeld : 1-10 hoch -Dichte im Vollton)*100%

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

6. Bild-Dateiformate und Metadaten

Metadaten (Metainformationen)

Metadaten sind Daten, die zusätzliche Informationen über eine Datei enthalten. Sie sind in dem Dateikopf gespeichert und sind unsichtbar.

Welche Bedeutung haben Bild-Metadaten für die betrieblichen Arbeitsabläufe?

  • beugt Informationsverlust vor

  • ist zur Weiterverarbeitung wichtig

  • Durch die Speicherung von Metadaten, kann zu einem späteres Zeitpunkt immer festgestellt werden, wie groß zum Beispiel die Daten sind, mit welcher Kamera oder wann sie aufgenommen wurden oder mit welcher Auflösung die Datei aufgenommen wurde.

     

IPTC-Daten: (Pressephotographen) erlauben Angaben zu Copyright, Urheber und Autor, einen Bildtitel sowie eine Kurzbeschreibung und eine Verschlagwortung.
 

EXIF-Daten (Exchange Imaging Format for Still Cameras): Diese sind zusätzliche Informationen, die von der digitalen Kamera in die Bilddatei (JPEG-, TIFF- oder RAW-Bilddaten,... ) eingebettet werden.

Beispiel Angaben: Kamerahersteller, Modell, Blendenwert, Verschlusszeit, ISO-Einstellung, Objektiv, Belichtungsprogramm, Brennweite, EXIF-Farbraum, Weißabgleich, Bildauflösung, ob ein Blitz zum Einsatz kam, Datum und Uhrzeit = Aufnahmeparameter (Exif-Standard)

Bewertung: 
0
Bisher keine Bewertung

Arbeitsablauf Farbmanagement

Ziel eines konsequent eingesetzten Farbmanagements ist, dass eine Vorlage, die mit irgendeinem
Eingabegerät erfasst wurde, an einem beliebigen Ausgabegerät möglichst ähnlich wiedergegeben wird.
Colormanagement-Systeme können Geräte wie Scanner, Digitalkameras, Monitore,
Drucker sowie Film- und Plattenbelichter aufeinander abstimmen.

Jedes der an der Prozesskette von der Eingabe bis zur Ausgabe beteiligten Geräte wird in seiner Farbcharakteristik vermessen und durch ein Farbprofil beschrieben.

Welche Bestandteile braucht ein Farbmanagement-System?

  • Benutzerschnittstelle: Anwendung, die Farbprofile darstellt und ausgibt (z.B. Photoshop, Indesgin)
  • Color Matching Modul: Software, die die Umrechnung in andere Farbräume vornimmt, das sogenannte Gamut Mapping
  • Farbprofile
  • Farbmesstechnik u. Software zur Erzeugung von Ein- und Ausgabeprofilen

ICC-Farbprofile
Das ist eine genormte Datei, die für eine Farbtransformation benötigten Daten und mathematischen Funktionen enthält, anhand derer Farbdaten umgerechnet werden sollen.
Ein Geräteprofil (von Scanner, Drucker, Monitor ect.) beschreibt immer die Zuordnung zwischen einem individuellen Gerätefarbraum (RGB,CMYK) und einen Referenzfarbraum (CIELAB).

 

Kalibrierung und Profilierung von Ein- und Ausgabesystemen

Die Profilierung von Ein- und Ausgabesystemen kann man in 3 Schritte unterteilen:

  1. Kalibration der Peripheriegeräte
  2. Erfassung und Aufbereitung des Messdaten
  3. Profilierung der Ein- und Ausgabesysteme

 

Monitor

Kalibrierung
Für die Profilerstellung und dieselbe Farbdarstellung wie im Druck, muss der Monitor kalibriert sein.
Dies erreicht man mit einer Kalibrierungs-Software oder über das Menü des Monitors. Hier werden Kontrast, Helligkeit und Farbtemperatur eingestellt.

Profilierung

Über eine Profilierungssoftware und dem dazu passendem Messgerät können die Farbwerte des Bildschirms gemessen werden. Daraus errechnet sich dann das Monitor-Farbprofil.

 

Eingabeprofilierung

Scanner

Zur ICC-Profilierung eines Scanners wird ein sogenanntes IT-8-Target benötigt.
Dieses Target zeigt eine ganze Reihe von Referenzfarben, die der Scanner einliest.
Eine spezielle Software vergleicht diese gemessenen Farbwerte mit den in eine Referenztabelle angegeben Soll-Werten und bestimmt so das Scanner-Farbprofil.

 

Ausgabeprofilierung

Drucker

Die Profilierung eines Druckers erfolgt ähnlich wie die eines Bildschirmes.
Auf einem sogenannten Test-Target werden viele Referenzfarben ausgedruckt, die dann mit einem Spektralphotometer oder Colorimeter ausgemessen und vom Rechner mit den Soll-Farbwerten verglichen werden. Die Besonderheit beim Drucker-Farbprofil ist, dass hier Angaben zu der Seperation gemacht werden müssen (z.B. UCR, GCR, UCA)

Standarddruckprofile der ECI:

  • ISOcoated_v2
    Offsetdruck auf glänzendem und matt gestrichenem Papier
  • ISOcoated_v2_300
    Offsetdruck auf glänzendem und matt gestrichenem Papier mit geringem Farbauftrag
  • ISOcoated_NPscreen
    Offsetdruck auf glänzendem und matt gestrichenem Papier, FM-Raster
  • ISOcoated_NPscreen_300
    Offsetdruck auf glänzendem und matt gestrichenem Papier mit geringem Farbauftrag, FM-Raster
  • ISOuncoated
    Offsetdruck auf ungestrichenem Papier
  • ISOwebcoated
    Rollenoffsetdruck auf LCW-Papier
  • ISOuncoatedyellowish
    Offsetdruck auf ungestrichenem Papier mit gelblichen Papierton
  • ISOnewspaper
    Rollenoffsetdruck auf Zeitungspapier
  • PSRgravureLWC
    Tiefdruck auf LWC-Papier

 

Bewertung: 
0
Bisher keine Bewertung

Colormanagement und CIELAB

  • versch. Ein- und Ausgabegeräte ordnen Farben den entsprechenden gerätespezifischen Farbräumen zu, die untereinander nicht übereinstimmen
  • ein Raum oder Bereich reproduzierbarer Farben wird als Gamut (engl. Farbraum) bezeichnet
  • bezogen auf einen idealen Farbraum, der alle Farben umfasst, sind gerätebezogene Gamuts Ausschnitte, die nicht deckungsgleich sind
  • Farbabweichungen lassen sich also somit erklären, dass die Gamuts der Ein- und Ausgabegeräte einen unterschiedlichen Grenzbereich haben
  • Farben die außerhalb dieses Bereich liegen, können gar nicht wiedergegeben werden
  • Gamut Alarm weist auf Monitorfarben hin, die nicht im CMYK-System darstellbar sind – es ist durch die Vielzahl der versch. Hardware für einen Hersteller nicht möglich, die Abstimmung des Systems sicherzustellen
  • sogar wenn man Hardwaregeräte von gleicher Art hat, wird die Farbe mit mehr oder weniger großen Abweichungen wiedergegeben
  • ebenso sind die Druckmaschinen davon betroffen
  • die Besonderheiten des Druckverfahrens, der Druckfarbe und des Papiers sind dabei zu berücksichtigen
  • ebenso sollte man nicht vergessen, dass die Farbe in versch. Farbraumsysteme umgerechnet werden muss, die selbst systemabhängig ist, wie z.B. RGB und CMYK
  • unterschiedliche Ausgabegeräte geben versch. CMYK-Farbräume wieder
  • in Amerika und Japan existieren von CMYK abweichende Farbstandards
  • viele nicht übergreifende standardisierte Parameter und Einflussgrößen beeinflussen die Reproduzierbarkeit der Vorlagenfarben und ihre Transformationen
  • selbst Nichtfachleute erkennen, dass hier das WYSIWYG-Prinzip nicht gilt! (es bedeutet, dass was auf dem Bildschirm zu sehen ist, die Mindestqualität ist, die ausgegeben wird)
  • da dieses Problem für Schriften durch die Type-Management-Software gelöst wurde, versuchte man eine gleiche Lösung für Farbreproduktion zu finden
  • dabei müssen Druck- und Papierfarben auf dem Monitor simulierbar sein
  • subtraktive Farbmischung muss im RGB-System (additive Farbmischung) nachgestellt werden und auch genauso im Ausdruck erscheinen

sehr wesentlich und wichtig für:

  • Druck von Textil- und Produktmustern
  • markenbezogenen Hausfarben
  • Kunstreproduktion
  • Wiedergabe von feinen oder heiklen Farbtonwerte
  • zur Lösung dieser Aufgabe wurde international das CMS oder Color-Management-System entwickelt – mit der CMS-Software werden unterschiedliche Farbräume einander angepasst und die Farbraumtransformationen, die notwendigen Umrechnungen von einem Farbraum zum anderen, vorgenommen

 

  • CMS ist Teil des Betriebssystems
  • die Umrechnungen erfolgen über mehrere komplizierte Gleichungen
  • ein geräteunabhängiger, international akzeptierter Farbraum dient als Bezugssystem
  • 1976 wurde von CIE das CIELAB-Farbordnungssystem entwickelt
  • es ist ein internationaler Industriestandard für die Klassifizierung und Messung von Farben
  • es orientiert sich an der menschlichen. Farbwahrnehmung und an den 3 Farbmerkmalen:
  • Helligkeit oder Luminanz
  • Sättigung oder Chroma
  • Farbton (engl.: Hue)
  • alle 3 lassen sich bei Farbtonwerten getrennt voneinander regeln
  • das CIELAB-Farbmodell umfasst alle sichtbaren Farben und weist jedem Farbtonwert in einem ellipsenförmigen Raum einen Platz zu
  • Farbtonwerte werden durch die Raumkoordinaten L*a*b bestimmt
  • diese Werte werden auch auf Farbmessgeräten angezeigt
  • L* kennzeichnet die vertikal durch die Kugel laufende, in 100 Stufen unterteilte Helligkeitsachse
  • unten befindet sich bei 0 Schwarz und oben bei 100 Weiß
  • über die a*- und b*-Achsen werden Farbton und Sättigung der Farbe zugeordnet
  • die Achsen beziehen sich auf die größte horizontale Schnittfläche der Farbkugel
  • durch die Mitte dieser Fläche verläuft vertikal die Helligkeitsachse
  • hier schneiden sich a* und b* im rechten Winkel, so dass auf der Fläche 4 gleiche Bereiche entstehen
  • die a*-Achse verläuft von rechts nach links von Rot nach Grün, die b*-Achse von oben nach unten von Gelb nach Blau
  • die a*-Werte der Achse haben im grünen Bereich ein negatives Vorzeichen, ebenso die b*-Werte im blauen Sektor
  • die Achsen sind in positive und negative Werte unterteilt
  • in diesem räumlichen Koordinatensystem können die Ist-Werte den Soll-Werten gegenübergestellt werden
  • der Farbabstand vom Ist-Farbwert zum Soll-Farbwert wird mit DeltaE- L*a*b* angegeben und am Display anzeigen (der griechische Buchstabe Delta steht für eine Abweichung oder Differenz)
  • die beiden voneinander abweichende Farbwerte werden über die Formel zur Ermittlung des Farbabstands verrechnet.
  • die Differenz der beiden Werte wird mit Delta E-Werte, Delta L* für den Helligkeitsunterschied, Delta a* für den Rot-Grün Unterschied und Delta b* für den Gelb-Blau-Unterschied. Erkennbar werden Farbabstände von etwa 3 bis 6 mit zunehmender Stärke

Weiterführende Links:
Die Print Media Akademie hat eine Broschüre zu Colormanagement veröffentlicht, die es auch als PDF zum Download gibt: http://www.print-media-academy.com/www/html/de/content/articles/news/profi_tipp_5

Bewertung: 
0
Bisher keine Bewertung

Backup-Systeme

1.    Datensicherung

Datensicherung (engl.: Backup [ˈbækʌp]) bezeichnet das teilweise oder gesamte Kopieren der in einem Computersystem vorhandenen Daten auf ein alternatives (häufig transportables) Speichermedium. Sie kann ebenfalls auf einem so genannten Internetspeicher als Online Backup erfolgen. Zur wiederherstellbaren vollständigen Datensicherung ist die Fixierung aller Werte bzw. Daten notwendig. Die auf dem Speichermedium gesicherten Daten werden als Sicherungskopie, oft englisch auch als Backup, bezeichnet. Das Ziel ist es, den Datenverlust bei Systemausfällen zu begrenzen.
Die Wiederherstellung einer Sicherungskopie bezeichnet man als Datenwiederherstellung, Datenrücksicherung oder Restore.

1.1.    Sinn der Datensicherung

Die Datensicherung dient dem Schutz vor Datenverlust durch:

  • Hardware-Schäden (z. B. durch Überspannung, Materialermüdung, Verschleiß oder Naturgewalten wie Feuer, Wasser, etc.)
  • Diebstahl oder absichtliches Löschen der Daten
  • Computerviren, -würmer und Trojanische Pferde
  • versehentliches Überschreiben oder Löschen der Daten
  • logische Fehler innerhalb der Daten

1.2.    Umsetzung

Die Aufbewahrung von Datensicherungen sollte örtlich entfernt von der EDV-Anlage und in einer sicheren Umgebung erfolgen.

  • Für Privatleute bieten sich externe Festplatten mit Firewire, eSATA oder USB-Anschluss an. Diese lassen sich unkompliziert an das zu sichernde System anschließen und wieder von diesem trennen und ermöglichen so zumindest eine entfernte Aufbewahrung. Auch netzwerkbasierende Festplatten sind einfach anzuschließen und zu entfernen und damit sinnvolle Sicherungen möglich.
  • Für kleinere Unternehmen eignen sich z. B. Bankschließfächer. Auf diese kann aber in der Regel nicht zu beliebiger Zeit zugegriffen werden. So lassen sich die Datenträger zur Wiederherstellungen nur während der Öffnungszeiten beschaffen.
  • Für größere Unternehmen können sich speziell gesicherte Safes oder Räumlichkeiten (sog. Zellen) zur feuersicheren Unterbringung der Tape Libraries lohnen. Auch können die gesicherten Daten auf mehrere Standorte oder Rechenzentren verteilt werden.

1.3.    Gesetzeslage

Die Pflicht zur Datensicherung ergibt sich unter anderem aus den gesetzlichen Vorschriften über eine ordnungsgemäße, nachvollziehbare, revisionssichere Buchführung (HGB). Von der kurzzeitigen Aufbewahrung (begrenzt auf einen Tag bis drei oder auch sechs Monate) unterscheidet sich die längerfristige Datenarchivierung, die anderen Gesetzmäßigkeiten unterliegt.

1.4.    Dokumentation

Bei der Datensicherung ist es sehr wichtig, eine gute Dokumentation zu führen, da von ihr der Erfolg und die Geschwindigkeit des Backups sowie der Wiederherstellung abhängen kann.
Die Dokumentation sollte umfassen:

  • Ablauf der Datensicherung
  • Aufbau der Archivierung
  • zu treffende (Sofort-)Maßnahmen
  • Kompetenzen (der Mitarbeiter und Dienstleister)
  • Prioritäten für besonders zeitkritische Daten und Systeme

Für eine bessere Übersichtlichkeit ist die Dokumentation für Sicherung und Wiederherstellung jeweils getrennt in einem Sicherungs- bzw. Wiederherstellungsplan festzulegen.

1.5.    Sicherungsarten

Je nach Veränderungsintensität der zu sichernden Daten können beim konkreten Sicherungsvorgang bestimmte Sicherungsarten eingesetzt werden. Einzelne Sicherungsvorgänge können in Volldatensicherung, differentieller und inkrementeller Sicherung unterschieden werden. Differentielle und inkrementelle Sicherung setzen mindestens eine erfolgte Volldatensicherung voraus.

  • Volldatensicherung: Bei einer Volldatensicherung werden die jeweils zu sichernden Daten (je nachdem: bestimmte Dateien, bestimmte Verzeichnisse, ein komplettes Laufwerk usw.) jedes Mal komplett neu auf das Sicherungsmedium übertragen.
  • Differentielle Sicherung: Bei einem differentiellen Datensicherungsvorgang werden alle Änderungen seit der letzten Volldatensicherung übertragen.
  • Inkrementelle Sicherung: Bei einer inkrementellen Sicherung werden alle Änderungen seit der letzten inkrementellen Sicherung berücksichtigt (erfolgte noch keine inkrementelle Sicherung: seit der letzten Volldatensicherung).

2.    Sonderfall Privatnutzer

Für Privatanwender hängt die Art der sinnvollsten Datensicherung stark von der zu Verfügung stehenden Hardware, dem vorhandenen Fachwissen und nicht zuletzt von der persönlichen Einstellung zu den zu sichernden Daten und deren Sicherung ab. Mit ausreichendem Engagement lassen sich schon mit einfachen Mitteln Backups erstellen und die Sicherheit auf industrielles Niveau ausbauen.
Auf dem Software-Markt stehen sowohl kommerzielle als auch Freeware-Programme zur Verfügung. Zu den bekanntesten kommerziellen Angeboten gehört das Programm TrueImage der Firma Acronis, im Freeware-Bereich können TrayBackup, Cobian oder Areca als Beispiele genannt werden.

2.1.    Beispiel

Am naheliegendsten wäre wohl eine Sicherung auf DVD- oder CD-RWs, da Brenner in Notebooks und Desktop-PCs seit langem zur üblichen Grundausstattung gehören und Leermedien günstig sind. Die einfachste Möglichkeit, ohne Software und mit nur wenig Hintergrundwissen ein recht gutes Backup zu erstellen, ist die Anlage von mindestens zwei Sicherungen im regelmäßigen Abstand auf physikalisch unabhängigen Datenträgern. So kann das Großvater-Vater-Sohn-Prinzip nachgebildet werden. Mit drei oder mehr Medien lässt sich dieses Prinzip dahingehend ausbauen, kleinschrittiger Änderungen rückgängig machen zu können oder weiter zurückliegende Versionen vorzuhalten. Mit anderen Medien lässt sich die Geschwindigkeit und Kapazität steigern.
Sind die Daten auf der ursprünglichen Festplatte entsprechend sortiert, kann die Sicherung aktueller oder besonders wichtiger Daten in kürzeren Zeitabständen erfolgen (z. B. täglich), als die der übrigen Bestände.

3.    Geschichte

In den 1990er Jahren versuchte Iomega, die Zip-Disketten mit – für damalige Verhältnisse – vergleichsweise hohen Kapazitäten von 100, später 250 Megabyte im Bereich Backup-Lösungen zu positionieren. Magnetbänder haben im privaten Bereich überaus niedrige Verbreitung und sind den Festplatten an Geschwindigkeit und vor allem bei den Kosten pro Speicherplatz mittlerweile unterlegen. Im Energieverbrauch sowie in der Haltbarkeit sind sie jedoch überlegen, was sie im Firmeneinsatz noch bestehen lässt. Festplatten bieten mittlerweile mit großen Kapazitäten und relativ stabilen Gerätepreisen eine attraktive Alternative zu Wechselmedien. Auch Flash-Speicher haben praktikable Kapazitäten erreicht und eignen sich daher als Sicherungsmedien. Exotisch sind noch Speicher, die über DSL-Verbindungen Datenserver von Dienstleistern im Internet zur Verfügung gestellt werden.

4.    Medientypen der Datensicherung

Im Jahr 2005 wurden die meisten Datensicherungen von festplattenbasierten Produktionssystemen auf Magnetband großer Kapazität (z. B. Digital Linear Tape, Linear Tape Open), Festplatte oder optischen Speicher wie CD-R, DVD, DVD-RAM und vergleichbare Formate gemacht. Mit der Zunahme günstiger Breitband-Internetverbindungen gewinnen Netzwerk- und Fern-Datensicherungen, so genannten Online Backups auf externen Servern mehr Bedeutung.
Im Privatbereich werden auch weitere Sicherungsmedien eingesetzt (siehe Sonderfall Privatnutzer)

5.    Echtzeitanwendungen

Datenbanken müssen in einem konsistenten Zustand gesichert werden (Datenkonsistenz, siehe auch Datenbankarchivierung). Dies erreicht man durch Herunterfahren der Datenbank (Cold Backup) (hierbei ist die Datenbank off-line und der Produktivbetrieb unterbrochen), Datenexport aus der Datenbank oder Hot Backup.

5.1.    Hot Backup

Ein Hot Backup ist eine Sicherung eines Systems (beispielsweise einer Datenbank), die möglichst aktuell gehalten wird – im Idealfall ist sie auf dem gleichen Stand wie das Live-System. Vorteil dieser Methode ist das Vorhalten eines aktuellen „Ersatz-Datenbestandes“, der im Fall eines Systemabsturzes sofort einsatzbereit ist.

5.2.    Cold Backup

Ein Cold Backup ist eine Sicherung eines Echtzeit-Systems, die erstellt wird, während das System nicht aktiv ist. Dadurch wird erreicht, dass die Daten in einem konsistenten Zustand gesichert sind. Der Nachteil dieser Methode liegt darin, auf ein Zeitfenster ohne Aktivität angewiesen zu sein. Für hochverfügbare Dienste ist sie also ungeeignet, um Backups von Umgebungen zu machen, die beispielsweise nur tagsüber verfügbar sein müssen bietet es sich hingegen an.
Eine bei Oracle-Datenbanken verbreitete Methode ist, die Datenbank bei Beginn der Sicherung in den Backup-Modus zu versetzen und danach wieder in den Produktionsmodus.
Verschiedene Hersteller von Datensicherungs-Programmen oder Drittanbieter bieten Online-Integrationen (Integrations-Agent) bzw. Zusatzprodukte wie den Open File Manager von St. Bernhard an.

5.3.    RAID 1

Eine weitere Realisierungsmöglichkeit ist ein Festplattenverbund im RAID 1. Das hieße die Spiegel-Festplatte wird vom System getrennt, an einem alternativen Platz eingebunden, die Daten auf Konsistenz geprüft, auf ein drittes Laufwerk gesichert und danach der Spiegel wieder im laufenden System eingesetzt und mit aktuellen Daten versehen.

6.    Datensicherungsstrategie

Eine Datensicherungsstrategie kann überall dort zum Einsatz kommen, wo es einzigartige Daten eines gewissen Wertes gibt, sei es im Privatanwenderbereich, in Projekten oder im Unternehmensbereich. Letzterenfalls kann diese als bindende Vorgabe in Form einer Richtlinie existieren.
In Unternehmen wird die Datensicherung gemäß einer Datensicherungsstrategie durchgeführt. In ihr ist festgelegt:

  • Wie die Datensicherung zu erfolgen hat.
  • Wer für die Datensicherung verantwortlich ist.
  • Wann Datensicherungen durchgeführt werden.
  • Welche Daten gesichert werden sollen.
  • Welches Speichermedium zu verwenden ist.
  • Wo die Datensicherung sicher aufbewahrt wird.
  • Wie die Datensicherung vor Daten-Diebstahl zu sichern ist (zum Beispiel durch Verschlüsselung).
  • Wie lange Datensicherungen aufzubewahren sind.
  • Wann und wie Datensicherungen auf ihre Wiederherstellbarkeit überprüft werden.
  • Welche Sicherungs-Strategie (a) vollständige Sicherung am Wochenende (b) inkrementelle oder differenzielle Sicherung werktags um Mitternacht

6.1.    Kriterien

Die optimale Datensicherungsstrategie ist von vielen Faktoren abhängig und daher in jedem Einzelfall neu zu ermitteln. Wichtige Faktoren, die berücksichtigt werden müssen sind:

6.1.1.    Die Art der Daten

Maschinell wiederherstellbare Daten:        

Dazu gehört z. B. installierte Software, die nur wieder eingespielt werden muss.

Manuell wiederherstellbare Daten:        
Dazu gehören z. B. erstellte Texte oder Erfassungen von Sachbearbeitern. Zu beachten ist, dass auch die aufwendige Konfiguration und Administration von installierter Software in diese Rubrik fällt.

Unersetzliche Daten:        
Dazu gehören z. B. digitale Fotos und Videos, aber auch eingescannte Belege wenn die Originale nicht mehr vorhanden sind.

6.1.2.    Der Wert der Daten

Hier sind zwei Aspekte zu unterscheiden: Erstens, welcher Verlust entsteht, wenn die Daten unwiederbringlich zerstört werden? Wenn z. B. in einem Unternehmen Daten tagesaktuell in der Nacht gesichert werden, müssen bei einem Datenverlust kurz vor Feierabend alle Erfassungen wiederholt werden. Aus der Gehaltssumme der betroffenen Mitarbeiter ergibt sich ein Anhaltspunkt für den Verlust. Vor allem bei den unersetzlichen Daten ist allerdings oft auch der ideelle Wert zu berücksichtigen.
Zweitens, welcher Verlust entsteht durch die Zeit, die die vollständige Wiederherstellung benötigt und in der ggf. nicht gearbeitet werden kann? Wenn z. B. die Installation eines PC einen Tag benötigt, kann der Schaden den Wert der installierten Software weit übersteigen. Hier wäre also ein Sicherungsverfahren zu wählen, was es ermöglicht den installierten Stand sehr schnell wieder vollständig zu rekonstruieren (Image Copy).

6.1.3.    Die Änderungshäufigkeit der Daten

Dieser Faktor hat entscheidenden Einfluss auf die Anwendung und Gestaltung des Generationenprinzips. Daten mit geringer Änderungshäufigkeit, wie z. B. Betriebssystem und installierte Software müssen nicht unbedingt regelmäßig gesichert werden. Es kann auch ausreichend sein, diese Bereiche nur vor oder nach Eingriffen zu sichern.
Je schneller Daten verändert werden, desto geringer wird man die Zyklendauer der Sicherung entsprechend dem Generationenprinzip wählen. Zu beachten ist hier auch die Verfallsdauer. Während es für viele Daten im Geschäftsleben gesetzlich geregelte Aufbewahrungszeiten gibt (beispielsweise Rechnungsdaten), können z. B. aktuelle Inhalte von Webseiten u. U. schon nach kurzer Zeit verworfen werden, wenn sie nicht mehr benötigt werden.

6.1.4.    Gesetzliche Anforderungen

Die Datensicherungsstrategie muss in der Lage sein, mögliche gesetzliche Auflagen zu garantieren
(z. B. Revisionssicherheit).
Zu beachten: GoBS (Grundsätze ordnungsmäßiger Buchführungssysteme) speziell: Absatz 5.1 und 5.2

6.1.5.    Speicherort

Da es also sehr unterschiedliche Arten von Daten mit unterschiedlichen Anforderungen an die Sicherungsstrategie gibt, ist es zweckmäßig diese Daten schon im Vorfeld auf verschiedene Speicherorte (Festplatten, Partitionen) zu trennen. Für jeden Speicherort kann dann die optimale Strategie gewählt werden. Zusätzlich existieren unfallgeschützte Datenspeicher. Bei einem Online Backup werden die Daten, in den meisten Fällen, in einem Rechenzentrum aufbewahrt.

6.1.6.    Zeitaufwand der Datensicherung

Bei der Wahl eines geeigneten Konzepts spielt insbesondere aus unternehmerischer Sicht der für die Datensicherung benötigte Zeitaufwand eine wichtige Rolle. Der Gesamtaufwand setzt sich aus dem wiederkehrenden Sicherungsaufwand und dem im Falle eines Datenverlusts anfallenden Wiederherstellungsaufwand zusammen. Die Relation, in der diese beiden Größen zu einander stehen, ist abhängig von der Auswahl eines konkreten Datensicherungsverfahrens. Ein geringer Sicherungsaufwand wird insbesondere dann angestrebt, wenn große Datenmengen während des Sicherungsvorganges gesperrt werden müssen, was bei modernen Systemen aber oft vermieden werden kann. Zu diesem Zweck gibt es heutzutage Software, die Daten eines Systems im laufenden Betrieb sichern können.

6.1.7.    Anforderungen

Je nach Medium und Art der Datensicherung werden die Kriterien anders ausfallen. Meistens erwähnt werden jedoch folgende Punkte:

  1. Regelmäßigkeit: Datensicherungen sollen in regelmäßigen, periodischen Abständen erfolgen. Diese Abstände variieren je nach Anwendung. Eine monatliche Sicherung der Daten auf einem privaten PC kann durchaus ausreichend sein, während in Produktionsumgebungen meistens tägliche Sicherungen der Produktivdaten erforderlich sind. Sie erhöhen die Zuverlässigkeit der Datenwiederherstellung.
  2. Aktualität: Die Aktualität der Datensicherung ist abhängig von der Anzahl der Datenänderungen. Je öfter wichtige Daten verändert werden, desto häufiger sollten diese gesichert werden

Backup-Server mit Brandschaden

  • Verwahrung: Datensicherungen von Unternehmen beinhalten unter anderem Firmengeheimnisse oder personenbezogene Daten und müssen vor unbefugtem Zugriff geschützt werden.
  • Anfertigung von zwei Datensicherungen: Die Anfertigung von zwei räumlich getrennten Datensicherungen eines Datenbestandes erhöht die Zuverlässigkeit der Datenwiederherstellung, um die Auswirkungen plötzlich auftretender Ereignisse wie Feuer oder physikalische Zufälle zu minimieren. Datensicherungen sollten räumlich getrennt von der EDV-Anlage gelagert werden. Die räumliche Entfernung der Datensicherung vom gesicherten Datenbestand sollte so groß sein, dass eine Katastrophe (Brand, Erdbeben, Flut …), welche die EDV-Anlage heimsucht, den gesicherten Datenbestand nicht gefährdet. Alternativ können unfallgeschützte Datenspeicher eingesetzt werden.
  • Ständige Prüfung auf Vollständigkeit und Integrität: Datensicherungen und Datensicherungsstrategien müssen regelmäßig überprüft und angepasst werden. Wurden die Daten wirklich vollständig gesichert? Ist die eingesetzte Strategie konsistent? Erfolgte die Sicherung ohne Fehler?
  • Regelmäßige Überprüfung auf Wiederherstellbarkeit: Ein Rückspielen der Daten muss innerhalb eines festgelegten Zeitraums durchgeführt werden können. Hierzu muss die Vorgehensweise einer Datenwiederherstellung ausreichend dokumentiert sein, und die benötigten Ressourcen (Personal, Medien, Bandlaufwerke, Speicherplatz auf den Ziellaufwerken) müssen verfügbar sein.
  • Datensicherungen sollten automatisch erfolgen: Manuelle Datensicherungen können durch menschliche Fehler beeinflusst werden.
  • Verwendung von Standards: Die Verwendung von Standards macht die Datenwiederherstellung einfacher.
  • Datenkompression: Datenkompression kann Speicherplatz sparen, hängt aber von der Komprimierfähigkeit der Daten ab. Moderne Digital Linear Tape/Linear Tape Open-Laufwerke komprimieren die Daten bei der Sicherung. Jedoch sind unkomprimierte Daten möglicherweise einfacher wiederherzustellen.
  • Zeitfenster: Sicherungsvorgänge können eine lange Zeit zur Fertigstellung benötigen, dies kann in Produktionsumgebungen unter Umständen zu Problemen führen (Beeinträchtigung des Datentransfers, Zugriffsmöglichkeit). Eine Kompression könnte ebenfalls Einfluss auf die Dauer der Datensicherung haben.
  • Löschung veralteter Datensicherungen: Nicht mehr benötigte Datensicherungen sind zu löschen, damit die Vertraulichkeit der gespeicherten Daten gewahrt bleibt.
  • Das Vorgehen im Ernstfall sollte mehreren Mitarbeitern bekannt sein. Für den Ernstfall ist eine Checkliste zu erstellen. Im Ernstfall hat niemand Zeit oder Nerven, nachzudenken, was als nächstes zu tun ist. Daher ist eine Checkliste sehr nützlich.
  • Nach Möglichkeit sollten die Daten vor der Sicherung nicht komprimiert werden. Redundanz kann bei der Wiederherstellung von Daten nützlich sein.
  • Es ist zumindest ein Laufwerk bereitzuhalten, welches die verwendeten Medien lesen kann.
  • Der wirtschaftliche Nutzen von Datensicherungen (Kosten, um die Daten ohne Datensicherung wiederherzustellen) muss sich in einem wirtschaftlich sinnvollen Verhältnis zu dem für die Datensicherung betriebenen Aufwand verhalten.
  • Der einzig sichere Beweis einer erfolgreichen Datensicherung ist der Nachweis, dass die gesicherten Daten auch vollständig und innerhalb eines angemessenen Zeitraums wiederhergestellt werden können. Aus diesem Grund sollten in regelmäßigen Abständen Rücksicherungstests erfolgen.

 

Weiterführende Links:

Bewertung: 
5
Durchschnitt: 5 (4 Stimmen)

Bilddatenbanken, Metadaten

Metadaten: 

- Zusatzinfos zu einer Datei
- z.b.: zusatzinfos zu einem Bild
- EXIF und IPTC-Daten

- EXIF -> exchange image file format
- werden direkt von kamera (o. Bildbearbeitungsprogramm) in datei geschrieben
- beziehen sich auf technische Daten des Bildes (Aufnahmeparameter) 
- wichtige Aufnahmeparameter sind: 
    - Datum/Uhrzeit
    - Format
    - Brennweite + Belichtungszeit
    - GPS-koordinaten
    - Vorschaubild (Thumbnail)
    -> einige davon sind standardisiert

(Tabelle: im Kopf = Tag und Beschreibung)
Tag        Beschreibung
Make        Kamerahersteller
Orientation    Bildausrichtung
Date Time    Aufnahmedatum
F number    Blende
Exposure Time    Belichtungszeit
ISO valve    ISO-Wert -> Lichtempfindlichkeit
Metering Mode    Belichtungsmessverfahren

IPTC-Daten: 
- International Press Telecommunications council
- beschreiben, benennen die Datei, deren inhalte sowie dem urheber/Künstler
- Angaben des Urhebers:
    - kommentar (bildbeschreibung, Titel)
    - Künstlername 
- IPTC-Daten sind weit verbreitet in Bildagenturen und Bildarchiven (z.b. iStockphoto, Shutterstock etc.)

XMP (Extensible Metadata Platform = Erweiterbare Plattform für Metainformationen)
- wurde von der Firma Adobe entwickelt
- zusätzliche Informationen können über den Inhalt abgelegt werden
- quasi eine Zusammenfassung der Exif- und IPTC-Daten
- Vorteile für XMP: Erweiterbarkeit der Daten
→ zusätzlich zu den vorgegebenen Informationen können neue hinzugefügt werden
- Nachteil: erweiterten Informationen können nur von speziellen Programmen und/oder Geräten gelesen werden
- XMP derzeit noch nicht standardisiert
- IPTC wird höchstwahrscheinlich früher oder später durch XMP abgelöst
- XMP wird bereits heute von den wichtigsten Bildverwaltungsprogrammen unterstützt und sich in Zukunft
sicher stärker durchsetzen.

 

Weiterführende Links:

http://www.drweb.de/magazin/metadaten-in-fotos

http://www.eload24.com/product/show/645-digitalfotografie-metadaten-rich...

http://www.foto-freeware.de/exif-daten-tools.php

www.optimal-foto.de/documents/Fototipp_0802.pdf

http://help.adobe.com/de_DE/Lightroom/3.0/Using/WS638E3AC9-A04C-4445-A0D3-F7D8BA5CDE37.html

http://www.heise.de/foto/artikel/IPTC-und-XMP-791443.html

Tags: 
Bewertung: 
0
Bisher keine Bewertung

Bildschirmarbeitsplatz

Eine ausführliche Darstellung dieses und anderer Themen zur Arbeitsplatzgestaltung mit guter Illustrierung gibt es von der Deutschen Gesetzlichen Unfallversicherung unter http://publikationen.dguv.de/dguv/pdf/10002/215-410.pdf.

Beschwerden durch unsachgemäßes Arbeiten am Arbeitsplatz:

  • • Muskuläre Verspannungen im Schulter-und Nackenbereich
  • • Übermäßige Belastung der Wirbelsäule und Gelenke
  • • Überanstrengung der Augen und Augenmuskulatur
  •  

Richtige Position des Bildschirms

  • • Blick des Menschen geht leicht nach unten. Bildschirm entsprechend positionieren. Verhindert ständige Anspannung von Nacken- und Schultermuskulatur
  • • Parallel zum Fenster stellen. Wenn das nicht möglich ist, dann Jalousien, Rollos oder mobile Wände einsetzen.
  • • Augen sollten nicht gleichzeitig auf sehr helle und dunkle Flächen schauen, sonst muss sich die Augenmuskulatur permanent anstrengen.
  • • Bildschirm sollte gerade vor dem Nutzer stehen
  • • Spiegelungen von z.B. hellen Fenstern & Lampen vermeiden, da dies zur Belastung der Augenmuskulatur führt
  •  

Entfernung von Bildschirm & Tastatur

  • • Der Bildschirm sollte 50-70cm von den Augen entfernt sein
  • • Tastatur muss so weit von der Tischkante entfernt sein, dass die Handballen aufzulegen sind.
  • • Nur so ist eine bequeme & entlastende Sitzhaltung möglich
  •  

Bürostuhl

  • • Sitzfläche auf Kniegelenkhöhe einstellen
  • • Die Füße müssen bequem aufstehen können
  •  

Dynamisches Sitzen:

  • • Bedeutet, die Sitzposition möglichst häufig zwischen der vorderen, mittleren (aufrechten) und hinteren Sitzhaltung zu wechseln.
  • • Natürliche Be- und Entlastung der Muskulatur & Bandscheiben
  • • Sorgt für ausreichende Durchblutung der Muskulatur
  • • Beugt Fehlbelastung der Muskulatur und Verspannungen vor.
  •  

Anforderung dafür an den Bürostuhl

  • • Rückenlehne muss verstellbar und in verschiedenen Stellungen verriegelbar sein.
  • • Lehne sollte entriegelbar sein und den Rücken durch einen Federmechanismus abstützen
  • • Die Neigung der Sitzfläche sollte sich der Neigung der Rückenlehne anpassen.
  •  

Fußstütze
Perfekt für kleinere Personen, muss jedoch auch die Bewegung der Füße zulassen.

 

Augen

Bei Problemen mit dem Sehen (Augenbrennen, Verschwommen sehen) sollte ein Augenarzt aufgesucht werden. Die richtige Brille kann hier Abhilfe schaffen. Spezielle Bildschirmbrillen benötigen nur wenige Arbeiter und meist erst ab über 50 Jahren

 

Umgebungsbeleuchtung

Die richtige Umgebungsbeleuchtung ist nicht nur für unsere Augen, sondern auch für die Wahrnehmung und richtige Darstellung der Farben am Monitor wichtig. Voraussetzungen dafür:

  • • Keine kräftigen Farben tragen (am besten grau)
  • • Monitor sollte Matt & sauber sein
  • • Tageslicht durch Vorhänge, Rollos oder mobile Wände „ausschalten“
  • • Einen dunklen Raum mit neutralem Licht wählen. 5000k Kelvin, bzw. Normlicht (D50) verwenden.
  • • Graue Wände

Hochwertige Monitore sind wichtig, da diese den größten Farbraum haben. Das ist wichtig, da der Druck generell einen höheren Farbraum als der Monitor hat. Heute werden vor allem TFT-Monitore (Flachbildschirme) eingesetzt. Diese sind besonders leuchtstark, flimmerfrei, haben hohe Auflösungen und benötigen wenig Strom & Platz. Die Farbdarstellung hängt jedoch vom Betrachtungswinkel und der Helligkeit ab.

Kalibrierung 

Ein Monitor verändert im Laufe der Zeit seine Farbdarstellung, deshalb muss er ab und zu neu Kalibriert werden.

Dafür müssen die Voraussetzungen des Bildschirmarbeitsplatzes erfüllt sein und der Monitor sollte bereits eine Stunde laufen. Bei der Kalibrierung werden die Farbeinstellungen auf die Standardwerte eingestellt, sowie der Weißpunkt und der Gammawert bestimmt.

 

Werte zur Kalibrierung:

  • • Farbtemperatur: 5000 – 6000k Kelvin
  • • Monitorgamma: 1.8 – 2.2 (L-Star)
  • • Leuchtdichte des Monitorweißpunkts: 160 für weiß; 0,8 für schwarz (Kandela 160)
  • • Kontrastverhältnis: 200:1 (weiß 200x heller als schwarz)

Die richtige Kalibrierung ist beispielsweise wichtig für den Softproof, bei dem man die Farbechtheit und Farberscheinung der (Druck-)Daten am Monitor überprüft.

Bewertung: 
0
Bisher keine Bewertung

Bussysteme

Ein Bussystem ist ein Leitungssystem, das Daten oder Energie zwischen Hardware-Komponenten austauscht. Es besteht aus verschiedenen Komponenten:

  • Der Datenbus überträgt Daten zwischen verschiedenen Hardware-Bestandteilen eines Computers oder auch zwischen verschiedenen Computern, er ist bidirektional.
  • Der Adressbus überträgt ausschließlich Speicheradressen und ist unidirektional. Von der Anzahl der Verbindungen hängt es dabei ab, wieviel Speicher direkt adressiert werden kann.
  • Der Steuerbus schließlich – wie der Name schon sagt – ist ein Teil, das für die Steuerung des Bussystems verantwortlich ist und ist ebenfalls unidirektional.
  • CPU-interne Busse steuern die Verbindung innerhalb der CPU, während CPU-externe Busse Prozessoren, Arbeitsspeicher und Peripherie miteinander verbinden.
Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Cloud-Computing

Mit dem Internet sind Millionen von Computern verbunden, die aber nur zu einem kleinen Prozentsatz ausgelastet sind: Wenn die Amerikaner schlafen, werden die dortigen Internet-Hosts kaum genutzt und umgekehrt. Die grundlegende Idee des Cloud Computings besteht darin, die Rechenpower vieler Computer gemeinsam zu nutzen, indem sie zu einer virtuellen „Cloud“ (dt.: Wolke) zusammengeschlossen
werden. Hierdurch wird es einerseits möglich, vorhandene Hardware (Speicherplatz, Prozessorleistung)
gemeinsam zu nutzen. Man spricht von IaaS (Infrastructure as a Servive). Beispiele hierfür sind Windows Azure oder Amazon EC2.

Andererseits ermöglicht Cloud Computing auch die Nutzung von Software über das Internet (SaaS: Software as a Service), so dass die Nutzer auf dem eigenen Computer keine Software mehr benötigen. Die gemeinsame Bearbeitung von Dokumenten wird hierdurch sehr leicht möglich. Auch hierfür gibt es bereits Anwendungsbeispiele wie iWord.com von Apple oder Google Docs.

 
Cloud Computing
= Trend- bzw. Hype-Thema
- umfasst Anwendungen, Daten, Speicherplatz und Rechenleistung aus einem virtuellen Rechenzentrum
- Cloud (= Wolke)
- verwendet weil virtuelle Rechenzentrum aus zusammengeschalteten Computern (Grid) besteht 
- Ressource von keinem spezifischen Computer bereitgestellt 
- Ressource befindet sich irgendwo in dieser Wolke aus vielen Computern
- Ressourcen dynamisch und bedarfsweise abgerufen.
 
Definition von Cloud Computing
- Cloud Computing ist eine virtuelle und skalierbare IT-Infrastruktur bereitstellt 
- Bestandteil Speicher, Rechenzeit oder komplexe Dienste -> über festgelegte Schnittstellen angefordert -  spielt keine Rolle auf welcher Hardware diese ausgeführt werden
 
Wie funktioniert Cloud Computing?
- verschiebt sich der Ort der Bereitstellung von Speicher, Rechenleistung und Anwendungen von einem einzelnen Server auf mehrere virtuelle Server -> in großen Serverfarmen organisiert
- wird IT zu einem Gebrauchsgut, wie Wasser oder Strom
- setzt Infrastruktur voraus
- Techniken, die für sich alleine ausgereift und praxiserprobt ist 
- Dazu gehört Virtualisierung, Grid Computing und Provisioning-Software
- hohe verfügbare Bandbreite, ermöglicht Zugang zur "Cloud" 
- neu -> Abrechnungsmodell (Anwender muss nur bezahlen was er tatsächlich benötigt.
 
Vorteile durch Cloud Computing
- IT-Infrastruktur leichter skalierbar und flexibel anpassbar
- zentrale Datenhaltung
- geringe Betriebskosten
- leichtes System-Management
- Nutzen durch Cloud Computing
 
Probleme durch Cloud Computing
- Sicherheit um Daten
- Verfügbarkeit von Diensten
- sensible Daten liegen auf Servern im Ausland
- juristische Probleme wegen der Datenverarbeitung im Ausland

 

Weiterführende Links

https://www.bsi.bund.de/DE/Themen/CloudComputing/Grundlagen/Grundlagen_node.html
http://de.wikipedia.org/wiki/Cloud-Computing
http://www.techfacts.de/ratgeber/was-ist-cloud-computing
http://www.bitkom.org/de/themen/36129_61111.aspx
http://www.elektronik-kompendium.de/sites/com/1404051.htm
Hier wird Cloud Computing ganz gut mit Grafiken erklärt: http://www.youtube.com/watch?v=xJCOzUk76GQ
http://www.fwlook.de/medienproduktion/alles-was-man-uber-cloud-computing-wissen-muss/
http://medien.mediengestalterprint.de/?p=2455
http://www.verdi.de/themen/arbeit/++co++fd9e2f52-82fe-11e1-5004-0019b9e321e1 (Kritische Stellungnahme)

Bewertung: 
2.333335
Durchschnitt: 2.3 (3 Stimmen)

Computer-Peripherie

Zur Peripherie gehören alle Geräte, die den eigentlichen Computer ergänzen. Man unterscheidet zwischen Ein- und Ausgabegeräten.

Eingabegeräte: Tastatur, Maus, Scanner, Kamera, Grafiktablett, Mikrophon

Ausgabegeräte: Drucker, Plotter, Monitor, externe Lautsprecher

Verschiedene Peripheriegeräte sind zugleich Ausgabe- und Eingabegeräte: USB-Stick, Externe Festplatten, externe Laufwerke für CD/DVD, Headset

Um die externen Geräte zu nutzen, benötigt man entweder die passenden Anschlüsse USB, Firewire etc. oder kabellose Verbindungen wie Bluetooth.

AnhangGröße
PDF icon Peripheriegeräte.pdf121.31 KB
Bewertung: 
3
Durchschnitt: 3 (2 Stimmen)

Hardwarekomponenten

EVA-Funktionsprinzip: Eingabe - Verarbeitung - Ausgabe

Mikrocomputer

  • für Verarbeitung der Daten zuständig
  • zentrales Bauelement Mikroprozessor (CPU) dient zur Steuerung des Computers sowie zur Berechnung von Daten
  • über Systembus (Verbindungsleitungen) mit dem Arbeitsspeicher (RAM) verbunden
  • CPU befindet sich auf einem Sockel auf dem Mainboard
  • Mainboard enthält Arbeitsspeicher sowie weitere Schnittstellen und Controller, für den Anschluss
  • weiterer Peripheriegeräte
     

Peripheriegeräte

  • alle Geräte, die nach dem EVA-Prinzip genutzt werden
  • Anschluss durch verschiedene Schnittstellen, z.B. USB, FireWire
  • Unterteilung in drei Gruppen: Eingabegeräte (Tastatur, Maus, Scanner, Digitalkamera), Externe Speicher (Festplatte, USB-Stick, DVD-Laufwerk), Ausgabegeräte (Monitor, Drucker, Plotter, Belichter)

Hardware

  • ist der Oberbegriff für die maschinentechnische Ausrüstung eines Computers. Dazu gehören alle Komponenten (Prozessor, Arbeitsspeicher usw.) und Peripheriegeräte. Vereinfacht, alles was man anfassen kann. Computer-Hardware ist ausschließlich mit entsprechender Software benutzbar.
  • Hardware ist der Überbegriff für alle Eingabe-, Verarbeitungs- und Ausgabegeräte eines Computers.

Eingabegeräte

  • sind z.B. Maus, Tastatur, Grafiktablett, Scanner und Digitalkamera.

Zur Verarbeitungshardware

  • gehören Festplatte, verschiedene Laufwerke, Grafik- und Soundkarte, Arbeitsspeicher und die Hauptplatine mit CPU.

Ausgabegeräte

  • sind z.B. Drucker, Belichter, Monitor oder Lautsprecher.

Gesteuert wird die Computer(verarbeitungs)hardware vom BIOS, dem Betriebssystem und verschiedenen Treibern.

ROM

  • (Read only Memory) ROM ist ein Datenspeicher, der nur lesbar ist, er hält seine Daten auch im stromlosen Zustand. ROM ist verantwortlich für den Selbst-Test und das der Rechner hocgefahren wird, er startet das BIOS und führt Setups durch.

RAM

  • (Random Access Memory) Speicher mit wahlfreiem Zugriff, findet besonders als Arbeitsspeicher Verwendung. "Wahlfrei" bedeutet in diesem Zusammenhang, dass jede Speicherzelle über ihre direkte Speicheradresse direkt angesprochen werden kann.

Schnittstellen

  • USB (Universal Series Bus), Verwendung: Drucker, Maus und Speichersticks
  • RJ-45 Schnittstelle (Registerd Jack), Verwendung: Netzwerkverbindungen, Internetanschluss
  • Firewire: Verwendung: Externe Schnittstellen, DVD Brenner, Digitalvideokamera
  • VGA-Anschluss (analoger Bildübertragungsstandard) Verwendung für Bildschirm
  • DVI-, HDMI-, Displayport-Anschluss (digitaler Bildübertragungsstandard) Verwendung für Bildschirm
  • Parallele Schnittstelle (25-polig), Verwendung: ganz ersten Scanner und Modems, Druckerport
  • COM 1 Schnittstelle, ursprünglich Maus und externes Modem, (9-poli) durch USB abgelöst
  • Klinkenbuchsen für In/Output, Kopfhörer, Mikrofon, Lautsprecher
  • S/PDIF optische Übertragung digitaler Audiosignale

 

Bewertung: 
2.5
Durchschnitt: 2.5 (2 Stimmen)

Monitortechnologie

Bewertung: 
0
Bisher keine Bewertung

Monitor-Mathe

Errechnen der Diagonale 

Ein Display hat das Seitenverhältnis 16:10 und ist 80 cm breit. Wie lang ist die Diagonale in inch?

Matheaufgabe

Erläuterung der Schritte: Erster Schritt ist die Berechung der Monitorhöhe (Ergebnis: 50 cm)

Im zweiten Schritt wird im Zähler die Diagonale in cm berechnet (nach Pythagoras c2 = a2 + b2

Dieses Ergebnis muss noch durch 2,54 geteilt werden, um nach inches umzurechnen.

Anderes Beispiel: Ein Display hat das Seitenverhältnis 4:3. Der Monitor ist 12 inch breit:

 

 

 Läuft alles über Verhältnisgleichung ab:

Bewertung: 
0
Bisher keine Bewertung

Monitortechnologien

 

TFT = Thin Film Transistor
Funktionsprinzip TFT (LCD = Liquid Crystal Displays):
Organische Materialien (Flüssigkristalle) verändern ihre Lage durch Anlegen eines elektrischen Feldes und werden lichtdurchlässig. Das elektrische Feld ist durch elektronische Schalter ein- und ausschaltbar. Für jeden Bildpunkt werden 3 Transistoren benötigt (R, G, B). Die Farben werden mit Hilfe von Farbfiltern aus weißem Licht gewonnen.
Bsp.: Display mit 1.920 x 1.080 Bildpunkten ergibt: 1.920 x 1.080 x 3 = 6.220.800 Transistoren

Erfolgsgründe:
- Geringer Platzbedarf
- Geringer Strombedarf
- Geringe Wärmeentwicklung
- Flimmerfreies Bild
- Sehr Scharfes Bild
- In allen Größen herstellbar
- Sehr kontrastreiches Bild
- Fast keine Strahlung

TFT – Monitore sind Kalibrierbar.
Die Monitorgröße wird in Zoll angegeben (1 Zoll = 2,54cm)
Bsp.: Bilddiagonale 20“ ergibt: 20 x 2,54 = 51cm Bildiagonale

Logische Auflösung des Bildschirms: Anzahl an Bildpunkten in horizontaler und vertikaler Richtung.
Physikalische Auflösung des Bildschirms: Anzahl an Bildpunkten pro Inch (z.B. 300ppi).

Die schwedische TCO-Normen prüfen nach folgenden Kriterien:
- Ergonomie: Bildqualität, Farbwiedergabe, Anpassungsmöglichkeit des Blickwinkels
- Geringe Emissionen durch magnetische und elektrische Felder
- Geringer Energieverbrauch, Energiesparfunktion
- Verwendung Ökologischer Materialien, Recycling-Möglichkeiten

Flimmern entsteht durch zu geringe Vertikal- oder Bildwiederholungsfrequenz. Beim TFT reichen 60Hz um ein flimmerfreies Bild darzustellen.

Ursachen Farbabweichungen:
unterschiedliche Monitorkalibrierung
u
nterschiedliche Lichtverhältnisse
unterschiedliche Bilderfassungsgeräte liefern unterschiedliche Farbdarstellungen

 


Weiterführende Links
www.computeruniverse.net/groups_home.asp

Bewertung: 
0
Bisher keine Bewertung

Röhrenmonitore

Funktion von Röhren-Bildschirmen: (hier mit Lochmaske)
 
  • Die Elektronenstrahl-Röhre ist eine luftleere Glasröhre
  • Ein Heizfaden beheizt Glühkathoden (negativ geladene Elektroden)
    (Glühkathode kann auch direkt beheizt werden)
  • Es gibt 3 verschiedene Glühkathoden (für R, G, B)
  • mit Zunahme der Temperatur in den Glühkathoden treten die negativ geladenen Elektronen in das Vakuum aus und beschleunigen in Richtung der positiv geladenen Anode (Fokussiersystem)
  • Durch Ablenkelektroden (Plattensystem) kann die Richtung des Elektronenstahls verändert werden. Das Plattensystem arbeitet nach Anweisungen der Grafikkarte.
  • die Elektronen treffen durch eine Maske (sorgt für eine genaue Ausrichtung und gegenseitige Abgrenzung der Elektronen)auf die Leuchtschicht (fluoreszierenden Phosphore für Rot, Grün und Blau) und bringen sie (durch Energieabgabe der Phosphore) zum Leuchten

 

 

Bewertung: 
0
Bisher keine Bewertung

TFT-LCD-Monitore

TFT-LCD-Flachbildschirme: (LCD=Liquid Crystal Display)

Ein Pixel eines TFT-LCD-Bildschirms setzt sich aus 3 Subpixeln zusammen (R,G und B).

Pro Subpixel braucht es einen Flüssigkristall, einen TFT (Dünnfilmtransistor) und einen entsprechenden Farbfilter

Ablauf:

1. Unpolarisiertes weißes Licht trifft auf einen Polarisierungsfilter (Horizontalfilter) → nur horizontal orientiertes Licht wird durchgelassen

2. Das Licht trifft nun auf einen TFT (Dünnfilmtransistor)

3. Der TFT ist einer Flüssigkristall-Zelle zugeordnet, der er Stromsignale sendet

4. Kein Stromsignal: Flüssigkristall-Zellen drehen das auftretende horizontale Licht um 90 ° in vertikal schwingendes Licht
oder mit Strom: Licht (Polarisationsebene vom Licht) wird nur teilweise oder gar nicht gedreht

5. Das Licht kommt nun an einem Farbfilter an (je nach Subpixel R, G oder B)

6. Das nun farbige Licht (ob gedreht oder nicht) trifft auf zweiten Polarisierungsfilter (Vertikalfilter), der nur vertikal
schwingendes Licht durchlässt.

 

 

Bewertung: 
0
Bisher keine Bewertung

Computerschnittstellen

Computerschnittstellen

Schnittstellen (I/O- Schnittstellen) sind Anschlussmöglichkeiten externer Geräte auf der Hauptplatine.

Die Aufgaben sind eine Datenübertragung zwischen einzelnen peripheren Geräten und der Zentraleinheit zu ermöglichen, auf formale Richtigkeit der Daten wird ebenfalls geprüft.

Eine Schnittstelle wird durch folgende Charakteristiken definiert:

  • Busbreite (Anzahl der Leitungen über die Binärzahlen übertragen werden)

  • Busgeschwindigkeit (Geschwindigkeit des Datenflusses je Sekunde)

  • Busprotokoll (Codierung der Binärdaten)

Unterschieden wird zwischen seriellen und parallelen Schnittstellen.

Parallele Schnittstelle
8 Datenbit werden gleichzeitig mithilfe von acht prallelen Leitungen übertragen (Bsp.: Drucker).

Serielle Schnittstelle
Datenbit werden zeitlich nacheinander über eine einzige Leitung übertragen (Bsp.: Modem u. Maus).

heute spielen nur noch serielle Schnittstellen eine Rolle.

Auflistung der gängigsten Schnittstellen

RS 232 C o. V.24 (Maus und Modem)

Ist der Schnittstellenstandard mit 25- oder 9-poligen Verbindungen zur seriellen Übertragung und
bietet eine Anschlussmöglichkeit für Maus, Nullmodem-Kabel und Modem.

Centronics (Drucker, Scanner, Brenner u.a)
Prallele Schnittstelle (für 1 Gerät bis 2MBit/s) welche größtenteils für den Anschluss von Druckern benötigt wird.

PS2

Bevor sich USB als Allzweckschnittstelle durchsetzte, wurden Mäuse oder Tastaturen auch über PS2-Anschlüsse mit dem PC verbunden.
 

USB 1.x (“Universal Serial Bus” - Plug&Play-Anschluss)
Preiswerter, langsamer und serieller BUS mit bis zu 12 MitB/s und Anschlussmöglichkeiten für bis zu 127 Geräten.

USB 2.x
Bietet eine Schnittstelle für zahlreiche Geräte wie z.B. Tastatur, Lautsprecher, Drucker, ext. Laufwerke, etc.Gegenüber des langsamen USB1 verfügt man über 480 MBit/s und eine max. Anzahl von 127 Geräten, Abwärtskompatibilität ist gegeben.

USB 3.x
Die Datenrate wurde von 0,48 GBit/s (USB2) auf 4,8 GBit/s erhöht, wobei die Anzahl der anzuschließenden Geräte bei 127 geblieben ist.
Eine Master-/Slave-Architektur kommt zum Einsatz, d.h. dass der sogenannte Master-Controller steuert die Slaves (Endgeräte).
Die bisherige, regelmäßige Abfrage ob neue Geräte angeschlossen wurden, wurde mit einer Methode ausgetauscht, in der die Schnittstelle erst bei Signalen des Endgerätes anspringt (Reduzierung des Stromverbrauchs).

SCSI-1 (“Small Computer System Interface” - parallel, 5MB/s, 8 Geräte) 1986
Eine leistungsfähige Schnittstelle zwischen Gerät und  Bussystem mit relativ schneller Übertragungsrate, welche besonders für die Arbeit mit mehreren Peripheriegeräten geeignet ist(plattformunabhängig).

Chronologische Weiterentwicklung:

SCSI-2 (parallel, 10MBit/s, 8 Geräte) 1989
Ultra-SCSI (parallel, 20MBit/s - 40MB/s, 8 Geräte) 1992
SCSI-3 (Alternative Transfertechnik Apples FireWire-Standard und Fibre Channel hinzugrfügt) 1993
Ultra-2 SCSI (40MB/s - 80MBit/s) 1997
SCSI-160 (160 MBit/s) 1999
SCSI-320 (320 MBit/s - letzte Schnittstelle dieser Art, da hierfür keine weiteren Geräte gebaut wurden) 2002
SCA(16 Geräte, hat SCSI abgelöst) 1999

Firewire (Plug&Play-Anschluss)
Serieller Bus mit digitaler Schnittstelle mit bis zu 400MB/s für max. 63 Geräte.
Die patentierte Schnittstelle von Apple wird hauptsächlich in der Ton-/ und Videotechnik und bei beispielsweise DVD-Brennern und Festplatten eingesetzt.

Thunderbolt (bis zu 10 Gbit/s)
Schnittstelle zwischen Computern, Monitoren, Peripheriegeräten und Unterhaltungselektronik, die von Apple und Intel entwickelt wurden. Wegen der extrem hohen Datenübertragungsrate eine Schnittstelle mit Zukunft die USB3 die Stirn bieten soll..

Ethernet

Ethernet ist ein Datenübertragungsstandard für lokale Netzwerke und Internetzugang zwischen Netzwerkrouter und PC.  Anfänglich gab es Übertragungsraten von 10 Mbit/s, die von Fast Ethernet mit 100 Mbit/s abgelöst wurden(Gigabit Ethernet mit 10 000 MBit/s möglich).

 

DVI (“Digital Visual Interface”)

Ist eine elektronische Schnittstelle zur Übertragung von Videodaten. Im Computer-Bereich entwickelte sich DVI zu einem Standard für den Anschluss vonTFT-Monitoren an die Grafikkarte eines Computers.

HDMI (“High Definition Multimedia Interface“)
Eine ab Mitte 2003 entwickelte Schnittstelle für die volldigitale Übertragung von Audio- und Video-Daten in der Unterhaltungselektronik (+ moderne Grafikkarten) welche DVI abgelöst hat.
Datenübertragungsrate liegt versionsabhängig bei 3,96 GBit/s - 8,16 GBit/s und ab HDMI 2.0 bei 14,4 GBit/s.

IrDA (“Infrared Data Association”)
Die Infrarotschnittstelle spezifiziert Standards für die optische drahtlose Punkt-zu-Punkt Datenübertragung mittels infrarotem Licht (850 – 900 nm) auf max. 1m Entfernung.

Bluetooth
Ein Kurzstrecken-Funkstandard der kabellos eine Kommunikation mit verschiedenen Geräten ermöglicht (Bsp.: Tastatur und Maus).

Serial-ATA
Ermöglicht den Anschluss der Festplatte im PC

PCI (“Peripheral Component Interconnect”)
Ermöglicht den Anschluss für Steckkarten im PC

PCI-E
Nachfolger von PCI, ermöglicht den Anschluss von modernen Grafikkarten mit 3D-Beschleunigung und ist aktueller Standard.

Audioverbindung (Klinke)
Für die analoge Datenübertragung im Audiobereich wird bis heute diese Schnittstelle an der Soundkarte genutzt (Bsp.: Lautsprecher, Mikrofon).

 

QUELLE: ABC der Mediengestaltung, Wikipedia und https://www.lmz-bw.de/medienbildung/medienpraxis/computer-handy-tablet/computerschnittstellen.html

Weiterführende Links:
http://webmagazin.de/mobile/gaengigsten-schnittstellen-mobile-geraete-177636

 

Bewertung: 
1.5
Durchschnitt: 1.5 (2 Stimmen)

Externe Schnittstellen

Verschiedene Schnittstellen

USB verschiedenster Versionen ob nu 2.0 oder 3.0 oder sonst was

PS/2 alter Anschlüsse für Mäuse und Tastaturen

COM1 Serielle Schnittstelle (für Hardware)

VGA Grafikkarten Schnittstelle (Bildschirmanschluss)

LPT1 Parallele Schnittstelle (Druckeranschluss)

Game- /Midiport

- Kopfhörer (Speaker) und Mikrofon (Mic) Anschluss

Bei vor allem Mobilen Geräten gibt es noch Mini- oder Micro-USB anschlüsse. (Kann man nicht wirklich unter Version zusmamenfassen deshalb erwähne ich das nochmal.)

Eine sehr alte Schnittstelle ist noch Firewire, was den Vorteil hat, dass es insgesamt schneller ist als USB. Hat sich aber nie durchgesetzt.

Dann gibt es noch Schnittstellen für Externe Datenträger wie SD-Karten, Micro SD-Karten usw.

Video

VGA - Video Graphics Array (analog)
     - Übertragung von aus dem digitalen umgewandelte analoge Bilddaten
    - Qualitätsverluste durch initiale AD-Wandlung
DVI - Digital Visual Interface (digital, analog möglich)

     - Vorstufe von HDMI
     - gleichzeitige analoge und digitale Übertragung
HDMI - High Definition Multimedia Interface 
(digital, analog möglich)
    - abwärtskompatible, volldigitale Datenübertragung
    - integriertes Kopierschutzkonzept (DRM)

DisplayPort (digital)
    - geringer Platzbedarf
    - ursprünglich nur einseitiger Datenfluss

Geschwindigkeiten von externen Schnittstellen

USB 1.0 : 12 Mbit/s (1,5 MByte/s)  -  seit 1996
USB 2.0 : 480 Mbit/s (60 MByte/s)
  -  seit 2000
USB 3.0 : 4000 Mbit/s (500 MByte/s)  -  seit 2008

Firewire S400 : 400 Mbit/s (50 MByte/s)  -  seit 1995
Firewire S800 : 800 Mbit/s (100 MByte/s)  -   seit 2003
Firewire S3200 : 3200 Mbit/s (400 MByte/s)  -  seit 2008

Thunderbolt : 10 Gbit/s (1,25 GByte/s)  -  seit 2011
Thunderbolt 2 : 20 Gbit/s (2,5 GByte/s)  -  seit 2013

Dies sind Brutto Angaben. Die Netto Geschwindigkeit der Schnittstellen ist von den verwendeten Protokollen und Modi abhängig, die den Datenpaketen einen gewissen Overhead hinzufügen, sowie von Parametern wie Dämpfung u.ä..

Vor der Entwicklung von USB 3.0/3.1 war FireWire die bevorzugte Methode zur Datenübertragung von Audio- und Videomaterial. Im privaten Gebrauch hat sich FireWire nicht durchgesetzt. Auf professioneller Ebene war es jedoch die bevorzugte Schnittstelle. Thunderbolt wird seit 2011 in Apple Rechner integriert und ist seit 2012 auch für Windows Systeme verfügbar. In Zukunft wird sich zeigen, ob Thunderbolt oder USB FireWire den Rang als bevorzugte Shnittstelle ablaufen werden. Im privaten Gebrauch wird es vermutlich wieder auf USB hinauslaufen.

Netzwerkarten und Geschwindigkeiten

Bluetooth : 700 Kbit/s

Ethernet : 10 Mbit/s
Fast-Ethernet : 100 Mbit/s
Gigabit-Ethernet : 1000 Mbit/s
(Anschluss über RJ45-Stecker)

WLAN - IEEE 802.11 : 2 Mbit/s
WLAN - IEEE 802.11h : 54 Mbit/s
WLAN - IEEE 802.11n: 600 Mbit/s

Die schnellste Verbindung ist zwar bisher LWL (Lichtwellenleiter), wird hier aber denke ich nicht von belangen sein, da es weniger in der Medienproduktion zum Einsatz kommt, als in der Netzwerktechnik. Es gibt dort etliche Übertragungsarten und Anschlüsse und sprengt denke ich deutlich den Rahmen der Prüfung. Grob zu wissen, welche Übertragungsarten es auf LAN- und WLAN-Basis gibt und wie schnell diese sind, ist denke ich nicht verkehrt.

Weiterführende Links:

http://www.elektronik-kompendium.de/sites/com/0310281.htm

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Hardwareschnittstellen

Die Hardwareschnittstellen dienen zur Übertragung zwischen dem Mikrocomputer und den externen Geräten. Heute haben sie einen geringen Stromverbrauch, längere Verbindungsleitungen und höhere Datenraten.

 

USB (eine universelle Schnittstelle)
Für USB wurden verschiedene Geräteklassen definiert. Das hat den Vorteil, dass das Betriebssystem die Geräte die über diese Schnittstelle laufen, erkennt, ohne dass ein Treiber installiert werden muss.

Hier werden generische Treiber verwendet (herstellerunabhängige).

USB hat die Möglichkeit Endgeräte mit Strom zu versorgen und sie sind "Hot-Plug-&-Play"-fähig (sie können bei laufendem PC angeschlossen oder entfernt werden.

Weitere Schnittstellen sind:

FireWire (überwiegend in der BIld-und Videobearbeitung zum Einsatz)

(e)SATA - External SATA (Festplatten oder Brenner können hier angeschlossen werden)

Steckplätze -Slots (Um einen Desktop-PC flexibel und erweiterbar zu machen, werden PCIe-Steckplätze zur Verfügung gestellt)

RAM (Speicherbänke die über die Steckplätze eingesteckt werden können)

Sockel - Socket (Steckplatz für den Mikroprozessor)

Chipsatz (ist für die Steuerung des Datenflusses auf der Hauptplatine zuständig. Er besteht aus der North- und Southbridge. Die Southbridge steuert den Datenfluss zu den verschiedenen Controllern der Schnitstellen und ermöglicht somit die Kommunikation mit der "Außenwelt" (Tastatur, Maus, Festplatte usw.).

 

Für weitere Info´s könnt ihr auch hier gucken: http://www.elektronik-kompendium.de/sites/com/0310281.htm

 

Zum PDF-Anhang: Quellen sind das Kompendium und Internet.

Bewertung: 
0
Bisher keine Bewertung

Video-Schnittstellen

VGA (D-Sub)

VGA (Video Graphic Array) ist der analoge
Standardanschluss, der sich auch heute noch an vielen Rechnern und Beamern befindet.

unterstützt keine Audioübertragung
Maximale Auflösung: 2.048 x 1.536 bei 60Hz

DVI

Der digitale Nachfolger von VGA heißt DVI (Digital Visual Interface). DVI überträgt die Daten ohne Qualitätsverlust an den Monitor oder Beamer und liefert eine bessere Bildqualität als VGA. Um eine Kompatibilität zu VGA-Monitoren zu erzielen, gibt es DVI auch in einer Variante, die sowohl ein digitales als auch ein analoge Videosignal zur Verfügung stellt (DVD-I). Um ein VGA Kabel anschließen zu können, benötigen Sie einen Adapter.

Im Normalfall wird über DVI kein Audio übertragen
Einige Hersteller von DVB-Receivern (z. B. Dream Multimedia) und Grafikkarten (AMD Radeon HD) übertragen neben hochaufgelösten digitalen Videodaten auch digitale Audiodaten über die DVI-Buchse.

Arten von DVI Schnittstellen:

DVI-I (Integrated)

DVI-I-Kabel können digitale und analoge Signale übertragen

DVI-I Single Link (18+5 Kontakte)
Maximale Auflösung: 1920 x 1200 bei 60 Hz

DVI-I Dual Link (24+5 Kontakte)
Maximale Auflösung: 2560 × 1600 bei 60 Hz

DVI-D (Digital)

DVI-D-Kabel können nur digitale Signale
übertragen

DVI-D Single Link (18+1 Kontakte)
Maximale Auflösung: 1920 × 1200 bei 60 Hz

DVI-D Dual Link (24+1 Kontakte)
Maximale Auflösung: 2560 × 1600 bei 60 Hz
oder 1920 × 1080 bei 144 Hz

Bei DVI-D-Kabeln mit nur 12 + 1 Pins werden keine DDC-Daten übertragen, so dass das Betriebssystem den Bildschirm nicht mehr automatisch erkennen kann.

DVI-A (Analog)

DVI-A Kabel (12+5 Kontakte) können nur analoge Signale übertragen, sie werden in der Praxis nur bei DVI zu VGA Adaptern eingesetzt.

HDMI

HDMI (High Definition Multimedia Interface) ist eine digitale Schnittstelle für Video- und Audiosignale und kommt deshalb vorwiegend im Bereich der Unterhaltungselektronik zum Einsatz. Ein Unterschied zu DVI ist neben der zusätzlichen Übertragung des Tons, dass mit HDMI ein Kopierschutz (HDCP) möglich ist.

Audioübertragung möglich
Maximale Auflösung (ab HDMI 2.1):
10.328 x 7.760 (10K)

Displayport

DisplayPort, kurz DP, ist eine Schnittstelle zur Übertragung von Audio- und Videosignalen zwischen Computer und Bildschirm. DisplayPort soll die Anschlüsse VGA und DVI ablösen. Im Gegensatz zum HDMI Stecker ist hier eine mechanische Verriegelung vorgesehen. Ursprünglich wurde die Displayport entworfen, um den Umstieg auf digitale Schnittstellen für eine bessere Bildqualität zu beschleunigen.

Audioübertragung möglich
Maximale Auflösung: 5.120 x 2.880 (5K)

AnhangGröße
PDF icon Videoschnittstellen.pdf447.37 KB
Bewertung: 
0
Bisher keine Bewertung

Crop-Faktor

Gehen wir zurück zur analoge Fotografie. Hier war noch alles eine heile Welt, man musste sich nicht um Megapixel usw. kümmern, nur darum ob das Bild schwarzweiß oder farbig werden sollte. Gut und welche Lichtbedingungen vorherrschen. Man kaufte sich einen Film 36×24 mm und gut. Genau hier setzt der Crop-Faktor an. Der Crop-Faktor geht von einem KB Format von 36x24mm aus. Da die digitalen Sensoren heute kleiner gebaut werden können, brauchte man einen Faktor der angibt um wie viel kleiner der Sensor zu einem analogen KB ist.

Crop-Faktor Beispiel

 

Berechnung des Crop-Faktor

Ich nehme bei dieser Berechnung die Nikon D90. Ihr Sensor ist 23,6 x 15,8 mm groß. Daraus folgt, 24mm / 15,8mm = ca. 1,5

Also hat die Nikon D90 einen Crop-Faktor von 1,5. Es gibt aber auch Kameratypen die einen Vollformat Chip haben bei Nikon wird das durch FX(D700) gekennzeichnet, hier ist die Größe des Sensors in etwa die Größe eines KB Formats.

 

Was hab ich davon?

Jetzt werden Sie bestimmt sagen, toll und was bringt´s? Nehmen wir hier wieder die Nikon D90. Sie kaufen sich jetzt ein normales Objektiv, kein digital-gerechnetes. Nehmen wir eine Brennweite von 60mm. Bei einem Kameratyp mit Vollformat Chip würde das heißen Sie haben eine Brennweite von 60mm, jedoch bei unserer Nikon D90 haben sie eine Brennweite die 1,5 fach so lang ist also ca. 90mm. Sie haben also dann schon ein gutes Portrait Objektiv.

Das ganze können Sie sich vielleicht bildlich etwas besser vorstellen. Sie haben jedes mal den gleichgroßen runden Bildkreis, der vom Objektiv erzeugt wird. Das Einzige was sich ändert ist der Sensor. Um den gleichen Bildausschnitt auf den kleinen Sensor zu bekommen muss man, gezwungener Maßen, weiter weg gehen vom Objekt. Das ist eigentlich schon alles. Das gilt aber nicht für digital-gerechnete Objektive, diese sind schon umgerechnet auf kleinere Sensoren. Der Vorteil liegt aber auf der Hand. Sie kaufen sich ein Objektiv mit der Brennweite von 200mm haben dann aber eine Brennweite von 300mm, was manchmal von Vorteil sein kann.

Also achten Sie immer darauf welche Größe der Sensor hat und ob das Objektiv digital-gerechnet ist oder nicht, gerade bei Vollformat Sensoren.

 

Quelle: http://blog.vincent-pen.com

Weiterführende Links
http://www.andreashurni.ch/equipment/cropfaktor.htm
http://www.elmar-baumann.de/fotografie/techtutorial/objektiv-4-05.html

 

Bewertung: 
0
Bisher keine Bewertung

DATEIFORMATE

Bewertung: 
0
Bisher keine Bewertung

Digitale und binäre Daten

  • Computer verarbeiten Daten digital, dass heißt in Form von Ziffern
  • so tastet ein Scanner beispielsweise zeilenweise ab und setzt die Helligkeits- und Farbinfos in eine Ziffernfolge um
  • es werden immer kleinere und dennoch leistungsfähigere elektronische Schaltkreise entwickelt
  • die elektrische Ladungen transportieren und speichern die ursprünglichen Informationen (z.B. die Farbinfo eines eingescannten Bildpunktes)
  • unterschiedliche Daten lassen sich nicht durch unterschiedliche Ladungsmengen darstellen
  • das würde nämlich bedeuten, dass bei 16,7 Mio. Farben ebenso viele Ladungsmengen vorhanden sein müssten
  • Wie also lassen sich digitale Infos durch elektronische Schaltungen verarbeiten?
  • die Lösung liegt in der Reduktion der Anzahl an möglichen Ziffern auf 2 Stück
  • eine Untergruppe der Digitaltechnik ist die Binärtechnik, bei der nur die beiden Ziffern 0 und 1 zugelassen sind
  • Ladung vorhanden entspricht einer 1, keine Ladung vorhanden einer 0
  • die Binärtechnik ermöglicht somit das Transportieren, Verarbeiten und Speichern von Infos mit Hilfe von elektronischen Schaltungen
  • datentechnisch bedeutet das, dass alle Daten in binäre Daten umgewandelt werden müssen
  • dabei wird im Fall von Zahlen von Konvertierung, im Fall von Buchstaben und Ziffern von Codierung gesprochen.

 

Bewertung: 
0
Bisher keine Bewertung

Dithering (GIF)

GIF-Dateien sind auf eine Anzahl von 256 Farben begrenzt, Dithering ist eine Möglichkeit, dem Auge eine höhere Anzahl von Farben vorzutäuschen. Dabei wird das Bild nach verschiedenen Algorithmen in Punkte gleicher Größe, jedoch unterschiedlicher Häufigkeit zerlegt. Der Dithering-Prozentsatz von 0 bis 100 gibt dabei an, wie stark sich diese Punkte mischen können (100: maximale Mischung).

Abbildung
Das ursprüngliche Bild (gespeichert als JPEG)

Abbildung
Das GIF mit 256 Farben

Gegenüber dem Ursprungsbild ist eine leichte Körnung zu erkennen, die umso stärker wird, je weniger Farben im Bild verwendet werden. Außerdem geht die Schärfe und Detailzeichnung erheblich und irreparabel verloren.

Abbildung
Das GIF mit 16 Farben

Wie man an diesem Beispielen sieht, ist GIF ein ungeeignetes Format, um detailreiche Bilddaten mit vielen Tonwertstufen abzuspeichern und sollte daher nur bei Bilddaten mit flächigen, scharf von einander abgegrenzten Farben zum Einsatz kommen.

Bewertung: 
0
Bisher keine Bewertung

Dithering

Erzeugen von Mischfarben beziehungsweise Grautönen bei Grafiken durch ein Raster aus zwei Grundfarben beziehungsweise aus Schwarz und Weiß.
Im Unterschied zu Rastern sind beim Dithering alle Punkte gleich groß. Die Fläche des Bildes wird in kleine Felder eingeteilt, die einen durchschnittlichen Farb- oder Grauwert zeigen; dies wird durch zufälliges Verteilen (Streuen) der Punkte im Feld erreicht. (auch Streuraster genannt). Das Dithering verringert generell die Abbildungsqualität.

Bewertung: 
1
Durchschnitt: 1 (1 Stimme)

OpenType-Schriften

OpenType wurde von Adobe und Microsoft entwickelt. Dieses Dateiformat unterstützt bzw. basiert auf Unicode. Dabei wird jedes Zeichen mit einer Doppelbyte-Codierung belegt, so dass pro Schriftdatei 65.536 Zeichen möglich sind. Die traditionelle ASCII-Codierung verwendet nur eine 1-Byte-Codierung (256 Zeichen pro Schriftdatei). Also ist es endlich auch ohne größere Zusatzprogramme möglich, einen chinesischen oder japanischen Zeichensatz zu verwenden. Auch können z.B. lateinische, griechische und kyrillische Versionen einer Schrift in einer einzigen Schriftdatei kombiniert werden. Stellt man dann den entsprechenden kyrillischen Tastaturtreiber ein, kann man direkt auf diese Zeichen zugreifen.In Unicode sollen alle weltweit verwendeten Schriftzeichen in einer Schriftdatei gesammelt werden können.

Mit dem Format OpenType ist – abhängig von der Layoutsoftware – eine automatische Zeichenverwendung möglich. Das betrifft sowohl Sonderformen von Buchstaben wie Ligaturen, Swashes, Kapitälchen oder Brüche als auch kontextbedingte Buchstabenformen wie Varianten je nach Buchstabenabfolge oder am Beginn oder Ende eines Wortes. So müssen nicht mehr gesonderte Expert-Schnitte und Schriftschnitte für Ligaturen verwendet werden, alle Zeichen befinden sich in einer einzigen Datei.

Ein weiterer großer Vorteil ist die Plattformunabhängigkeit des Formates.

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Database-Publishing

Database Publishing wird meist im Umfeld der datenbankgestützten automatisierten Medienproduktion als zusammenfassender Begriff genannt. Typische Anwendung ist die Erstellung von Preislisten und Katalogen.

 

 

Die Grundidee ist es, Datenbankinhalte wie Artikelnummer und Preisinformationen an ein offen gestaltetes Layoutdokument zu übergeben, so dass sich dieses bei Änderungen, z. B. von Preisen, automatisch aktualisiert.

 

Die wichtigsten Layoutprogramme, die für diese Anwendung in Frage kommen, sind Adobe FrameMaker, InDesign und QuarkXPress, unterstützt von Erweiterungen (Plug-Ins bzw. XTensions) anderer Hersteller. Weitere Varianten des Database Publishings sehen das „Rendern“ von Inhalten in einer direkt druckbaren PDF-Ausgabe vor. Eine stark zunehmende Tendenz ist es, per WebBrowser diesen Vorgang als Remote Publishing zu nutzen. So können auch komplexe Dokumente bis hin zu umfangreichen Katalogen vollautomatisch erzeugt werden.

Die meisten Systemen verwenden einen templatebasierten Ansatz, bei dem quasi Schablonen der Seiten mit den Datenbankinhalten gefüllt werden – die Seiten enthalten also Markierungen, die durch die gewünschten Daten ersetzt werden. Die Alternative ist ein regelbasierter Layout-Ansatz, wie ihn etwa XSL-FO oder DocScape bieten. Dort werden anstelle von Schablonen Layout-Regeln (ähnlich dem Corporate-Design-Handbuch) beschrieben.

Die aktuellen Layoutprogramme bieten für diese Art der Anwendung XML-Schnittstellen an, die auf besondere Bedürfnisse mittels Scriptprogrammierung angepasst werden können. Dazu gehören die Scriptsprachen AppleScript, JavaScript undVisual Basic.

Die meisten Layoutprogramme können auch durch Software anderer Anbieter in die Lage versetzt werden, mit Datenbankinhalten umzugehen. Für Adobe InDesign sind das Plugins und für Quark XPress XTensions. Die überwiegende Anzahl dieser Erweiterungen nutzen ASCII-Texte, wie z. B. Tabtexte oder auch CSV-Formate.

 

1. Zeiteinsparungen durch Database Publishing

Zeitersparnis im Vergleich:

  • manueller Satz eines Kataloges in 7 Sprachen gegen > 50 Wochen
  • vollautomatisierten Satz eines Kataloges in 7 Sprachen > 5 Wochen

 

2. Kosteneinsparungen durch Database Publishing

Durch die massiven Zeiteinsparungen lassen sich die Kosten für die Erstellung von Druckvorlagen senken.Weiterhin ist es möglich, Kosten einzusparen in den Bereichen:

  • Übersetzung
  • Manuelle Bereitstellung von Medien wie Bildern und Dokumenten

 

3. Mehrwert mit Database Publishing

Durch die Realisierung eines zentralen Datenbestandes können diese neugewonnenen Informationen für verschiedene Einsatzbereiche genutzt werden:

  • Internet-Auftritt, WebShop
  • Datenbereitstellung für Kunden
  • Hausinformationssystem
  • Vertriebssystem

___________________________________________________________________________

 

Die Herausforderung

Die händische Erstellung Ihres Kataloges ist kompliziert, kostet enorm viel Zeit und bindet eine Menge Ressourcen. Besonders die Produktion von mehreren Katalogvarianten, wie etwa Auszugs-, Detail- oder Kundenkataloge ist mit einem sehr großen Aufwand verbunden. Ganz zu schweigen von Seitenverweisen oder Inhaltsverzeichnissen. 

 Änderungen an den Produktdaten, wie zum Beispiel den Preisen oder Artikelnummern etc., müssen außerdem oft in mehrere Medien vorgenommen und abgeglichen werden. Da sind Fehler vorprogrammiert. Und wenn es dann auch noch verschiedene Sprachversionen gibt...

 

 

Die Lösung

Durch die Einführung von Database Publishing pflegen Sie Ihre Produktdaten nur noch in einem System. Aus diesen so strukturierten Datenbeständen heraus erstellen Sie Kataloge, Preislisten usw. quasi automatisch per Knopfdruck. Selbst kreative Layouts können dank Database Publishing wirtschaftlich umgesetzt werden. Bestehende Systeme und Software-Produkte, wie zum Beispiel Warenwirtschaftssysteme, können dabei in den meisten Fällen als Datenbank genutzt werden. 

 

Der Nutzen

 

  • Sie erstellen mit Database Publishing Ihre Kataloge, Werbemittel, Preislisten etc. ganz einfach auf Knopfdruck - das spart Zeit und Nerven.
  • Alle Änderungen werden automatisch in alle Medien übernommen. Dadurch werden Ihre Produkte immer und überall auf dem aktuellsten Stand dargestellt.
  • Mit Database Publishing ist die Pflege Ihrer Daten nur noch in einem System notwendig. Das spart Ihnen Aufwand und reduziert Fehler.
  • Verschiedene Sprachversionen werden automatisch erstellt.
  • Die Erstellung von Auszugs-, Detail- oder Kundenkatalogen ist mit Database Publishing problemlos möglich.
  • Von strukturiert bis kreativ - sämtliche Layouts können realisiert werden. Sie haben keinerlei Einschränkungen bei der Darstellung Ihrer Produkte.
  • Nutzen Sie Ihre bestehenden Software-Systeme für Database Publishing und Sie haben nur geringe Investitionen.

____________________________________________________________________________


Automatisierte Katalogerstellung


Database Publishing beinhaltet die automatisierte Produktion von Print-Produkten wie Katalogen, Preislisten und Flyern aus Datenbankinhalten. Erstellen Sie hoch automatisiert und effizient zielgruppenspezifische Werbe- und Kommunikationsmittel. Die Produktion wird schneller (Zeitersparnis bis zu 60%), kostengünstiger (Kosteneinsparung bis zu 40%) und flexibler über mehr Kanäle.

Bewertung: 
5
Durchschnitt: 5 (2 Stimmen)

Dateiformate

Es gibt verschiedene Möglichkeiten Dateiformate in Gruppen zu klassifizieren. Entweder ob es sich um programmeigene oder programmübergreifende dateiformate handelt, oder nach ihrer »Datenstruktur«

Programmeigene Dateiformate
Diese originäre Dateiformate von programmen können in der Regel nur von den jeweiligen Programmen gelesen und erstellt werden. Andere Programme benötigen dazu Plugins oder es kommt zu darstellungsabweichungen.

Sie stammen z.B. von Layoutprogramme (.indd, .qxp, .pm, ...), von Grafikprogrammen(.ai, .cdr, ...) oder Bildbearbeitungsprogrammen (.psd)

Programmübergreifende Dateiformate
Solche Dateiformate können unabhängig vom Erstellungsprogramm in anderen Applikationen platziert und/oder verarbeitet werden. Beispiele sind hierfür .tiff, .eps, .jpg)

Unterscheidung nach Datenstruktur

1. Pixelbasierte Dateiformate

2. Vektorbasierte Dateiformate

3. Metafiles (Dateiformate, die Pixel- und Vektorformate speichern können)

 

Nützlliche Links:

http://www.lepen.de/assets/files/datenfor.pdf

Bewertung: 
0
Bisher keine Bewertung

Fontformate

Hier könnt ihr gemeinsam eure Notizen und Zusammenfassungen im Wiki ergänzen und so den Lernerfolg erhöhen. Teilweise gibt es schon Wikis, zu den Themen, die in bisherigen Vorbereitungen entstanden sind. Diese könnt ihr natürlich nutzen, ergänzen oder gegebenenfalls korrigieren.

Bitmap -Schrift

  • Beginnend mit dem Zeitalter des Computers wurden Bitmap-Fonts eingesetzt. Sie sind allerdings kein richtiges Schriftformat im eigentlichen Sinne
  • Bei einer solchen Schrift, wird für jeden Buchstaben ein Raster genutzt, in dem das Zeichen punktweise bezeichnet wird.
  • Skalieren kann man diese Schrift leider nicht, man muss für jede Schriftgröße einen eigenen Zeichensatz erstellen.  Um also beispielsweise das gleiche Zeichen einer Schrift in drei verschiedenen Größen dar zu stellen, werden drei Bitmaps benötigt.
  • Bitmaps-Fonts lassen sich ganz gut finden im System, denn in ihrem Dateinamen steckt auch die Schriftgröße des jeweiligen Fonts, wie z.B. "Ouch 36"
  • Bitmap-Fonts werden heute kaum noch eingesetzt. (Eher auf Kassenbons, alten Handys und Behörden-Ausdrucken)

 

Postscript-Schriften

  • 1982 entwickelten die Adobe Gründer die universelle Seitenbeschreibungssprache "PostScript"
  • PostScript-Schriftarten weisen glatte Kanten auf, sind detailreich und von hoher Qualität. Sie werden häufig im Druckwesen eingesetzt, z. B. zum professionellen Drucken von Büchern oder Zeitschriften.
  • Wie Grafiken konnten jetzt auch Schriften ausgegeben werden. Schrift wird nicht mehr in Form von Pixeln dargestellt, sondern in Form von Kurven (Bezierkurven). Sie werden mathematisch als Umrisse beschrieben, die vom Interpreter des Druckers gezeichnet und bei seiner Auflösung ausgefüllt werden.
  • Bezierkurve: Bestehen aus Anfang- und Endpunkte sowie zwei Kontrollpunkten außerhalb der Kurve. Um eine Kurve zu beschreiben, werden ergo vier Punkte benötigt.
  • Die Anweisungen werden an den Drucker geschickt und dieser richtet die Auslösung auf das Ausgabegerät aus.
  • PostScript ist eine geräteunabhängige Sprache!
  • Das bevorzugte und weit verbreiteste Fontformat sind die Type-1-PostScricpt Fonts.  Ein Postscript-Type-1-Font besteht aus mehreren Dateien. Die Endungen der möglichen Dateinamen sind .pfb, .pfm, .inf und .afm.
  • Type-3-Schriften sind die "schlechtere" Auswahl- während die Type-1 Schriften in den Anfängen nur gegen Lizenzgebühren weiter gegeben wurde, waren all jene die keine Lizenzgebühren bezahlen wollten gezwungen, das schlechtere PostScript-Type-3-Format zu verwenden.
  • Die Type-3-Schrfiten enthalten keine * Hints, was zu unausgewogener Darstellung bei kleinen Schriftgrößen führen kann (auf einem Screen und Druckern mit niedriger Auflösung)
  • Auf einem Mac bestehen Type-1-Fonts meist aus zwei Dateien:
    • Fontkoffer (beinhaltet Bildschirmschrift - als Bitmap-Font)
    • Druckerfont
  • Unter Windows  sind es:
    • PFM-Datei  (Printer Font Binary)
    • PFB-Datei (Printer Font Metrics File)
  • PostScript Schriften werden so für das Web heute nicht genommen - Es gibt aber Programme die ein PostScript Font um konvertieren können in ein webinteressantes Dateiformat.

* Hints verbessern die Fontwiedergabe bei niedriger Auslösung. Ein individuelles Hinting erhält nicht nur bis zu einem gewissen Grad die ursprüngliche Ästhetik einer Schrift, sondern optimiert insbesondere deren Lesbarkeit auf dem Bildschirm in kleinen Schriftgraden. Deshalb ist die Qualität des Font Hintings, insbesondere bei Webfonts, ein wesentliches Kriterium ber der Schriftwahl.

 

TrueType-Schriften

  • Ist eine skalierbare Vektorschrift - digitale Outlineschrift
  • True Type ist ein digitales Schriftformat für niedrigauflösende Bildschirme von PCs und Bürodruckern.
  • Sie eignen sich nicht für professionelle Schriftsatzarbeiten, die in der Druckvorstufe weiterverarbeitet werden müssen, dazu sind PostScript-Fonts notwendig!
  • Korrktur: Das schreiben alle voneinander ab, stimmt aber nicht. 
  • True Types können umgewandelt werden in einen PostScript-Font, dennoch eignen sie sich nur bedingt für die professionelle Print-Typografie
  • Der True-Type-Font besteht im Gegensatz zum PostScript-Font aus nur einer Datei
  • Sie funktioniert auf jedem Drucker und ist sehr preiswert, bzw. meist kostenlos erhältlich

 

OpenType-Schriften

  • Besteht genauso wie der TrueType-Font aus nur einer Komponente
  • Open-Type-Schriftarten ähneln den True-Type Schriftarten, verfügen aber in der Regel über einen erweiterbaren Zeichensatz, z.B. "Kaptälchen"Zahlen in alter Schrift und komplexe Formen wie Glyphen und Ligaturen. 
  • Glyphe ist die grafische Darstellung eines Zeichens - alle Schriften bestehen aus Glyphen, auch Nichtcomputer-Schriften!
  • Sie lassen sich ebenso wie der True-Type-Fonts auf beliebige Größen skalieren, sind in allen Schriftgrößen deutlich lesbar und können alle Drucker oder an sonstige Ausgabegeräte gesendet werden, die von Microsoft unterstützt werden. (auch auf dem Mac benutzbar!)
  • Es sind 216 Zeichen möglich - ergo 65.536 - basiert auf den UNICODE
  • Korrektur: es sind maximal 65536 Zeichen möglich, also 16-Bit oder zwei Byte Speicherkapazität pro Zeichen.

 

Welche Formate gibt es für Webfonts?

  • TrueType/OpenType-Fonts
     
  • Embedded OpenType (.eot)
    • Wurde von Microsoft entwickelt, funktioniert nur im  IE.
    • Abwandlung des True Type Fonts unterscheidet sich im Folgendem:< >.eot Fonts sind in der Regel für die schnellere Ausgabe im WEB komprimiert

      .eot Fonts lassen sich an bestimmte Webseiten koppeln (URL Binding)
       

  • SVG-Fonts (.svg)
    • Wurde nicht speziell für das Web entwickelt. Eigentlich handelt es sich hierbei um eine allgemeine Möglichkeit in SVG-Grafiken Schriften zu integrieren.
    • Sind XML-Dateien
       
  • Web Open Font Format (.woff)
    • Wurde speziell für das Web und für die Nutzung als eingebettete Schrift entwickelt. Es ist eigentlich ein Container für True-Type oder Open-Type Schriftarten. Die Dateien sind Dank Komprimierung sehr klein. Außerdem erlaubt .woff die Integration von Metainfos.

 

 

Bewertung: 
4
Durchschnitt: 4 (2 Stimmen)

PDF (Portable Document Format)

PDF ist aus der Druck- und Medienbranche nicht mehr wegzudenken. Das Portable Document Format, kurz PDF, basiert auf PostScript und ist als plattformunabhängiges Austauschformat konzeptioniert worden. Es hat die Druckbranche damit revolutioniert, da endlich keine offenen Daten mit all dem Rattenschwanz von Problemem, die sich für die Druckereien damit ergaben, ersetzte.

Neben dem Einsatz in der Druckvorstufe verfügt das PDF über weitere Vorteile und zwar als Verwendung für elektronische Dokumente und die Verwendung in Online und Offline-Medien.

Die Dateigröße ist relativ klein und kann vom Ersteller bei der Generierung eines PDF angepasst werden.

Ein weiterer Vorteil ist, dass das Layout eines PDF-Dokuments unabhängig vom Ausgabemedium ist und somit immer gleich dargestellt wird.

 

PDF/X

Bewertung: 
0
Bisher keine Bewertung

Datenkompression

Bildformate

Viele Bilddateiformate reduzieren den von Bitmap-Bilddaten benötigten Speicherplatz durch Komprimierungsmethoden.

Komprimierungsmethoden werden danach unterschieden, ob sie Details und Farben aus dem Bild entfernen.  

Lossless-Methoden (verlustfreie) komprimieren Bilddaten, ohne Details zu entfernen.
Lossy-Methoden (verlustreiche) komprimieren Bilder durch Entfernen von Details.

Die folgenden Komprimierungsmethoden sind am gängigsten:

Run Length Encoding (RLE)

  • In einer Pixelzeile wird die Anzahl gleicher, aufeinander folgender Pixel zusammengefasst und somit eine Datenreduktion erzielt.
  • abstrahiertes Beispiel (im Original wird binär gespeichert): 00011111111100000 wird zu 309150
  • verlustfrei
  • Praxisanwendung: Besonders bei sich wiederholenden Strukturen wie Grafiken, Clipart. Weniger geeignet für "Pixelbilder", da diese keine hohen Wiederholungsraten haben. Ausnahme JPG nach der Fourier-Transformation (Bildstrukturen werden eingeebnet).
  • Formate: Tif, Bmp, RLE (altes Windows Format), oder als Teil der JPG-Komprimierung
  • Links: 
    http://www.fileformat.info/mirror/egff/ch09_03.htm 
    http://de.wikipedia.org/wiki/Lauflängenkodierung

Huffmann-Codierung

  • Häufige Tonwerte erhalten eine kleine Binärcodierung, z. B. 0, 1 - seltene Tonwerte erhalten eine größere Binärcodierung, z. B. 11111111
  • Die Huffmann-Codierung geht davon aus, das die Verteilung der Tonwerte nicht gleichförmig ist, sondern einer (ähnlich Gaußkurve) folgt.
  • Der Datei-Vorspann benötigt eine Umcodierungs-Tabelle, um die codierten Inhalte übersetzen zu können.
  • verlustfrei
  • sehr gleichförmig verteilte Bilder (z. B. Cyankeil) schwieriger 
  • Praxisanwendung: CCITT (Group4)-Komprimierung (PDF) in der JPG-Komprimierung, in der MP3-Komprimierung

Lempel-Zif-Welch“ (LZW)

  • Vergleich von Bildinhalten: Bei Wiederholung schon übertragener Information wird nicht neu codiert, sondern einer Querverweis auf eine bestehende Bildstelle gesetzt.
  • verlustfreie
  • Praxisanwendung: TIFF, PDF, GIF und PostScript unterstützte Komprimierungsmethode.
  • optimal zum Komprimieren von Bildern mit großen, einfarbigen Flächen oder Text
  • die PNG-Komprimierung basiert auf der gleichen Grundlage, wurde aber konkurrierend entwickelt und hat sich aufgrund eines Patentstreites (ausgehend von LZW) durchgesetzt.
  • Link: http://de.wikipedia.org/wiki/Lempel-Ziv-Welch-Algorithmus

Differenz-Puls-Code-Modulation (DPCM)

  • Nicht der Tonwert selbst, sondern die Differenz zum nächsten Pixel wird codiert. Kleinere Zahlenwerte, da die Differenz oft niedriger als der absolute Wert ist – dadurch Datenreduktion.
  • verlustfrei
  • Praxisanwendung: Audiokomprimierung und innerhalb der JPG-Komprimierung

Fourier Transformation

  • Dichteverläufe (z. B. innerhalb von einer Bildzeile) werden in der Fourier-Transformation als mathematischen Funktionen dargestellt. Die einzelnen Pixel-Dichte-Werte werden also in eine Kurve zueinander umgewandelt. Dies geschieht in Abschnitten von 8x8 Pixeln (Artefaktbildung in der Größe von 8x8 Pixeln).
  • Um eine höhere Kompression zu erreichen wird die Gesamtkurvenfunktion bereinigt - Ausschläge minimiert. Die Höhe der Kompression ist einstellbar (der JPG-Kompressionsregler stellt diese Komprimierung ein).
  • verlustbehaftet
  • Praxisanwendung: Innerhalb der JPG-Komprimierung

Joint Photographic Experts Group“ (JPEG)

  • ist eine von den Formaten JPEG, TIFF, PDF und PostScript unterstützte Lossy-Methode. Die JPEG-Komprimierung führt bei Halbtonbildern, z. B. Fotos, zu den besten Ergebnissen.
  • Folgende Kompressionsverfahren werden in einer JPG-Komprimierung angewendet:
    1. Umwandlung in den YUV-Farbraum (oder YCbCr) - dadurch Trennung von Helligkeits- und Farbinformation (Helligkeit wird vom Auge empfindlicher Wahrgenommen als Farbe) 
    2. Fourier Transformation von Farbe (stärker) und Helligkeit (schwächer) 
    3. DPCM-Codierung 
    4. Lauflängencodierung (Runlength-coding)
    5. Huffmann-Codierung
    ACHTUNG: 3.+4. uneins mit dem Kompendium, Wikipedia drückt es wieder anders aus. Kontrolle.
  • Praxisanwendung: Bei der JPEG-Komprimierung legen Sie die Bildqualität fest, indem Sie eine Option aus dem Menü „Qualität“ wählen, den Regler „Qualität“ verschieben oder im Testfeld „Qualität“ einen Wert zwischen 1 und 12 (10) eingeben. Wählen Sie die Komprimierung mit der höchsten Qualität um ein optimales Druckergebnis zu erhalten. Dateien mit JPEG-Kodierung können nur auf PostScript-Level-2-Druckern (oder höher) ausgegeben werden und lassen sich u. U. nicht in individuelle Platten separieren.

CCIT

  • Bei der CCITT-Kodierung handelt es sich um eine Gruppe von verlustfreien, von Dateiformaten PDF und PostScript unterstützten Komprimierungsmethoden für Schwarzweißbilder.
  • CCITT ist die Abkürzung des französischen Namens für den Internationalen Ausschuss für Telefgrafie und Telefonie, Comité Consultatif International Téléphonique et Télégraphique
  • s. oben Huffmann-Codierung

ZIP

  • Die ZIP-Kodierung ist eine Verlustfreie, von den Dateiformaten PDF und TIFF unterstützte Komprimierungsmethode. Wie LZW ist auch die ZIP-Komprimierung am besten für Bilder mit großen, einfarbigen Flächen geeignet.
  • ACHTUNG: ZIP ist eher als Kontainer-Komproessionsformat als für Bilder im Gebrauch + nicht alle Programme die …zip… im Namen haben, nutzen auch diese Komprimierung. Bitte Kontrolle.

(ImageReady) PackBits

  • ist eine verlustfreie Komprimierungsmethode, die ein Run-Length-Komprimerungsschema verwendet. PackBits wird vom TIFF-Format nur im ImageReady unterstützt.

Video

MPEG (Motion Picture Experts Group)

  • MPEG besteht aus der Intra-Frame- (Frame = einzelnes Bild) Komprimierung: 
    Jedes einzelne Bild wird JPG komprimiert.
  • und der Inter-Frame-Komprimierung: Vergleich von Bildinhalten mehrerer Frames. Nur veränderte (bewegte) Bildinhalte werden neu codiert.

  • Beispiel (Inter-…): Eine Person steht und nimmt den rechten Arm nach oben. Es wird nur der bewegte rechte Arm codiert. Danach bleibt der Arm oben und es wird der linke Arm auch nach oben genommen. Es wird nur der linke Arm (+ Hintergrund natürlich) codiert.

Sonstiges

Der Preflight in Layout-Programmen prüft, ob die Bildauflösung, die Datentiefe, der Ausgabefarbraum dem Ausgabemedium gerecht wird. Ein Bild mit 72 dpi ist zum Beispiel nicht für den Druck geeignet. Der Prefligt würde eine entsprechende Fehlermeldung ausgeben.

---

Die Abtastrate, Kanalzahl und Framerate ist bei Audio und Video relevant.

Hier ist die Abtastrate der Wert, der angibt, wie oft eine Tonspur in einer bestimmten Zeit abgetastet wird. Je höher diese Rate ist, desto klarer wird der Ton später. Sie wird in Hertz angegeben, was für "1 pro Sekunde" steht. 44000 KHz entsprächen also 44.000.000 Abtastungen pro Sekunde.

Verringert man den Wert, so werden in einer Sekunde weniger Abtastungen gespeichert. Dadurch gehen Informationen verloren.

Ein Beispiel:

Eine Treppe hat 100 Stufen, die man leicht heraufsteigen kann. Verdoppelt man die Anzahl der Stufen (die Abtastrate), so werden die Stufen nur noch halb so groß. Fügt man beliebig viele Stufen hinzu, so entsteht der Eindruck einer glatten Fläche und damit beim Ton ein sehr präziser Klang.

Die Kanalzahl gibt lediglich an, wie viele Tonspuren nebeneinander in einem Video oder Musikstück laufen. Für Mono ist das einer, für Stereo zwei, für 5.1-Surround-Sound sind es sechs und für 7.1-Surround-Sound sind es acht. Eine Kompression ist zu erreichen, wenn Kanäle entfernt werden. So können z.B. zwei Tonspuren (Stereo) zu einer (Mono) verrechnet werden. Dabei geht der Eindruck des räumlichen Klangs verloren, die Reduzierung von Audio-Kanälen ist also verlustbehaftet.

Die Framerate gibt an, wie viele Bilder pro Sekunde in einem Videosignal codiert werden.

Üblich sind hier 25 Frames per second (FPS), 29,97 FPS, 30 FPS und 60 FPS. Eine Kompression lässt sich hier erreichen, wenn man die Framerate reduziert, also weniger Bilder pro Sekunde darstellt als im Ausgangsmaterial. Dabei gehen allerdings auch Informationen verloren.

 

Übungsaufgaben: 

http://www.mathemedien.de/datenkompression.html

http://www.mathemedien.de/pruef_2012-12.html

Bewertung: 
3.25
Durchschnitt: 3.3 (4 Stimmen)

Komprimierungsmethoden

Unter Komprimierung versteht man die rechnerische Verkleinerung des Speicherbedarfs einer Bilddatei unter Beibehaltung von Farbtiefe, Bildgröße und Auflösung. Die Bildinformation wird beim Speichern durch so genannte Komprimierungsalgorithmen zusammengefasst und neu verpackt. Zur Weiterverarbeitung oder Ausgabe muss die Datei wieder dekomprimiert werden. Die Vorteile sind bessere Nutzung von Speichermedien und höhere Geschwindigkeit beim Datenaustausch.

Grundsätzlich wird zwischen verlustfreien und verlustbehafteten Komprimierungsmethoden unterschieden.

Verlustfreie Komprimierung
Eine der bekanntesten – aus Photoshop –  Komprimierungsmethoden ist LZW.  Die Abkürzung geht auf die drei Entwickler (Lempel, Ziv, Welch) zurück. Hier wird nur ein Teil der Bildinformation dargestellt und es wird dabei verglichen welche Tonwertabstufungen bereits an anderer Stelle auftreten und anstatt die Informationen ein weiteres mal anzulegen wird eine referenzbibliothek angelegt auf die im Wiederholungsfalle verwiesen wird.

Zu den verlustfreien Verfahren gehören auch RLE (Run Length Encoding), ZIP und CCITT Group 3 bzw. Group 4, die speziell für Strichzeichnungen und Grafiken entwickelt wurden.  Auch JPEG-2000 komprimiert verlustfrei im Gegensatz zu anderen JPEG-Komprimierungen.

Verlustbehaftete Komprimierung
Hierunter werden alle Verfahren gefasst, die zwar die Datenmenge sehr stark reduzieren aber auf Kosten der Darstellungsqualität, wie man es von der JPEG-Komprimierung kennt.

 

Datenkompression bei Film (laufenden Bildern)
Bei der Komrimierung von Filmdateien werden die Ähnlichkeiten zu benachbarten  und schon gesendeten Frames berücksichtigt.
Die einzelnen Frames werden dabei in Kästchen (4x4 oder 16x16 Pixel) zerlegt und anschließend nach schon übertragenen Bildteilen nach Wiederholungen gesucht.

 

Bewertung: 
0
Bisher keine Bewertung

Datenmengenberechnung

Sind zwar nur die Formeln mit einem Beispiel, aber ich denke das reicht aus.

AnhangGröße
PDF icon U7: Datenmengenbrechenung500.94 KB
Bewertung: 
0
Bisher keine Bewertung

Datensysteme

Hier könnt ihr eure Notizen, Sammlungen von hilfreichen Links etc. zum Thema sammeln. Einige Beiträge gibt es bereits aus vorhergehenden Prüfungsvorbereitungen.

Der Computer als Datensystem

Stichworte:

Hauptplatine, Bussysteme, Steckplätze (PCI, AGP),
Schnittstellen (USB, Firewire, SATA, VGA, DVI, RJ-45)

Betriebssysteme

  • Prozessmanagement
  • Speichermanagement
  • Steuerung und Abstraktion der Hardware
  • Ein- und Ausgabesteuerung
  • Dateiverwaltung
  • Bereitstellen der Benutzeroberfläche

Betriebssysteme erfüllen folgende Aufgaben:

Prozessmanagement:
Die Ressourcen des Systems müssen zwischen Programmen und Systemaufgaben verteilt werden. Einzelne
Aufgaben werden als so genannte Prozesse ausgeführt, die vom BS als verwaltet werden.
 

Speichermanagement:
Das Speichermanagement sorgt dafür, dass immer die gerade benötigten Speicherinhalte zur Verfügung stehen,
ohne dass die Programmierer der Anwendungssoftware sich darum kümmern müssen.
 

Steuerung und Abstraktion der Hardware:
Computersysteme sind modular aufgebaut; Bestandteile unterschiedlicher Hersteller kommen zum Einsatz.
BS bedienen sich der Gerätetreiber, die die Steuerlogik für bestimmte Hardware enthalten.
 

Ein- und Ausgabesteuerung:
Computerprogramme sind auf die Eingabe von Daten angewiesen. BS steuern die Zusammenarbeit mit
verschiedenen Ein- und Ausgabekanälen wie Tastatur und Bildschirm, Datenträgern oder Netzwerken.
 

Dateiverwaltung:
Daten werden auf Datenträgern wie Festplatten, CDs o.ä. gespeichert. Die Dateiverwaltung wird als Dateisystem vom BS zur Verfügung gestellt, damit alle Programme auf dieselbe Art und Weise darauf zugreifen.
 

Bereitstellen der Benutzeroberfläche:
Das BS und alle Programme kommunizieren mit dem Benutzer durch zwei Arten von Benutzeroberflächen:
Die dialogorientierte Konsole ermöglicht das Eingeben von Befehlen per Tastatur.
Die grafische Benutzeroberfläche ermöglicht die Benutzerführung durch Menüs und Symbolen mit der Maus.

 

Dateisysteme:

Sind die Schnittstellen zwischen dem Betriebssystem und den Partitionen auf Datenträgern.
Sie organisieren die geordnete Ablage von Daten.

Was macht ein Dateisystem?

Neben der Datenorganisation auf dem Datenträger kann ein Dateisystem noch zusätzliche
Möglichkeiten zur Verfügung stellen (Beispiele):

  • Verzeichnisse und Unterverzeichnisse anlegen
  • Datumsinformationen speichern (Erstellungsdatum, letzte Änderung, Zugriff)
  • Lange Dateinamen verwenden
  • Groß- und Kleinschreibung für Dateinamen berücksichtigen
  • Sonderzeichen für Dateinamen ermöglichen (z.B.: Leerzeichen)
  • Rechteverwaltung zur Zugriffssteuerung auf Dateien/Verzeichnisse
  • Journaling-Funktionen
  • ...

Dateisystem und Formatierung

 

  • Ein Dateisystem wird einer Partition durch Formatierung zugewiesen, „man formatiert mit einemDateisystem“. Hierbei werden auf einer Partition bestimmte Stellen für die Verwaltung reserviert undmit vordefinierten Werten überschrieben (was zu Datenverlust führt). Außerdem wird eineInhaltstabelle angelegt und die ersten Werte (für die reservierten Stellen) eingetragen.

Apple

 

  • HFS (Hierarchical File System): hierarchisches Dateisystem mit Apple-Macintosh-spezifischen Eigenschaften, auf Macintosh-Modellen ab 1986
  • HFS+ weiterentwickelte Variante von HFS mit Journaling, Standard unter Mac OS X

Unix

  • UFS (UNIX File System): verwendet unter Solaris und BSD
  • VxFS (Veritas Journaling File System): Journaling-Dateisystem von VERITAS
  • XFS Journaling-Dateisystem von SGI primär für IRIX (nicht verwechseln mit xFS)
  • ZFS (Zetta File System): Copy-On-Write-Dateisystem von Sun Microsystems für Solaris geschrieben

Microsoft

  • FAT12 frühes Dateisystem der FAT-(File Allocation Table)-Dateisystemfamilie, heute noch gängig für Disketten (wird von nahezu jedem Betriebssystem unterstützt)
  • FAT16 neuere Variante in der FAT-Dateisystemfamilie mit erweiterten Limits gegenüber FAT12 (wird von nahezu jedem Betriebssystem unterstützt)
  • FAT32 neuere Variante der FAT-Dateisystemfamilie mit erweiterten Limits gegenüber FAT16, ab Windows 95b bzw. Windows 2000 (wird von neueren Betriebssystemen unterstützt)
  • FATX spezialisierte Variante von FAT16/FAT32 für die Xbox
  • NTFS (New Technology File System): Journaling-Dateisystem der Windows NT-Produktlinie, seit Windows XP das Standarddateisystem von neuen Windows-Versionen

Journaling-Dateisystem

  • Speichert alle Änderungen vor dem eigentlichen Schreiben in einem dafür reservierten Speicherbereich, dem Journal.
  • Damit ist es zu jedem Zeitpunkt möglich, einen konsistenten Zustand der Daten zu rekonstruieren, auch wenn ein Schreibvorgang abgebrochen wurde.
  • Im Fall von Systemabstürzen oder Stromausfällen von Vorteil. So kann die (früher) automatisch gestartete Überprüfung des ganzen Dateisystems mit oft erfolglosen Reparaturversuchen entfallen. Speziell bei großen Festplatten mit Partitionsgrößen über 100 GByte von Vorteil.
  • Man unterscheidet zwischen Metadaten-Journaling und Full-Journaling. Während Metadaten-Journaling lediglich die Konsistenz des Dateisystems garantiert, wird beim Full-Journaling auch die Konsistenz der Dateiinhalte gewährleistet.
  • Umgangssprachlich wird oft der allgemeine Begriff des Journaling verwendet, wenn eigentlich Metadaten-Journaling gemeint ist.

 

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Datenübertragungsrate Tutorial

Dieser Prüfungsbereich ist meines Erachtens nach ein Geschenk für uns Digital-Jungs und -Mädels.

Zum einen besteht die Möglichkeit, dass man ein wenig mit Übertragungsraten rechnen muss (z.B.: Wie lange dauert es mit einer ISDN Leitung mit Kanalbündelung 12MB Daten hochzuladen?) oder dass man Begrifflichkeiten erklären darf à la "Was ist asymmetrische Übertragungsrate?"

Dazu muss man einfach mal grundlegende Dinge über die Datenübertragung für das Internet oder in lokalen Netzwerken verstehen, was jedem, der einmal im Internet unterwegs war oder Daten von Rechner A nach Rechner B oder auf einen USB-Stick übertragen hat, relativ bis ganz klar sein dürfte.

Was ist Datenübertragungsrate?

Die Datenübertragungsrate (auch Datentransferrate, Datenrate) bezeichnet die digitale Datenmenge, die innerhalb einer Zeiteinheit über einen Übertragungskanal übertragen wird (Quelle: http://de.wikipedia.org/Datenübertragungsrate ).

Wie wird sie angegeben?

Die Datenrate wird in bit pro Sekunde (bit/s) angegeben und wird gemessen in Dateneinheiten pro Zeiteinheit (Datendurchsatz). 1000 bit/s wären 1 kbit/s (Kilobit pro Sekunde), sprich es wird im Dezimalsystem gerechnet.

Gängige Datenübertragungsraten

Internet

Modem: maximal 56kbit/s

ISDN: 64kbit/s (128kbit/s bei Kanalbündelung)

ADSL Light: 384kbit/s Downloadrate, 64kbit/s Uploadrate

ADSL: Minimum 768kbit/s Downloadrate, 128kbit/s Uploadrate

ADSL2+: Maximum 25Mbit/s Downloadrate, 1Mbit/s Uploadrate

Netzwerkverbindungen

Ethernet: 10 Mbit/s

Fast-Ethernet: 100 Mbit/s

Gigabit-Ethernet: 1Gbit/s

WLAN: 1 bis 600 Mbit/s

Von der anderen Seite betrachtet

Was wäre wohl eine sinnige Sache, wenn man Daten im Internet bereitstellt? Genau, eine möglichst geringe Datenmenge. Ergo ist für Streaming von Audio- oder Videodaten zu beachten, dass man den Datendurchsatz möglichst gering hält, bei möglichst hoher Qualität der Daten.

Was ist asymmetrische Datenübertragung

Klingt komplizierter als es ist. Im Grunde geht hierbei nur darum, dass bei bestimmten Internetverbindungen die Downloadrate höher ist, als die Uploadrate. Sprich Daten werden verschieden schnell übertragen, je nach "Übertragungsrichtung".

Das typische Beispiel ist hier die DSL Verbindung, wo die Downloadrate 768 kbit/s beträgt, die Uploadrate um Daten im Internet bereitzustellen lediglich 128 kbit/s.

 

Sollte ich etwas vergessen oder totalen Humbug verzapft haben, so möge man dies mir mitteilen und/oder verbessern bzw. ergänzen. =)

 

Bewertung: 
0
Bisher keine Bewertung

Digitale und gedruckte Veröffentlichung

Cross-Media Publishing:

 

  • schnell & einfach Inhalte von Medien zu vervielfältigen​
  • erstellen von medienneutraler Daten
  • publizieren von Daten für verschiedenen Ausgabemedien (digital, print, ...)

eine Datenbank -> alle relevanten Infos und Daten gespeichert

 

   *höchste Qualität hinterlegen (Bilder)

   *Daten medienneutral, unverfälscht, unformatiert abspeichern

   *Text -> XML

 

Medienneutrale Daten:

 

  • Grundlage für viele verschiedene Ausgabesituationen

    ->Daten digital und print (unterschiedliche Bedrucksstoffe) ausgeben
      -Mehrfachnutzung
      -Flexibel im Druck

    ->Fotos im großen RGB-Farbraum abspeichern
     
     -CMYK- Bilder nur wenn Schwarzaufbau
     -RGB-Bilder erst kurz vor Druck konvertieren

3 Konzepte:
Early Binding: gleich CMYK konvertierne -> keine medienneutrale Daten

Intermediate: Bindung: bei PDF-Erstellung in CMYK konvertieren

Late Binding: PDF in RGB; konvertiert Druckerei in Ausgabeworkflow/RIP

 

Vorteile:

  • flexibel bei Druck und Papier
  • Druckerei kann entscheiden welches Profil
  • keine Zerstörung von Daten
  • alle Bilder mit gleicher Einstellung
  • Sparen von Speicherplatz

Nachteile:

  • Farbeinfluss vom Erzeiger geht verlohren
  • ungewohnt für Anwender

technische Anfordeungen:

  • fehlerfreier Datenbestand
  • plattformneutral -> auf alle Computersysteme verwendbar
  • Herstellerunabhängigkeit
  • auf Format mus mit beliebiger Programmiersprache zugreifen können

 

Database-Publishing:

 

  • Erstellung von Preislisten, komplexen Dokumenten, umfangreichen Katalogen
  • Datenbankinhalte an offen gestaltetes Layoutdokument (Änderungen automatisch aktualisiert)
  • bietet Schablonen von Seiten für Datenbankinhalte (Seiten enthalten Markierungen und werden durch Daten ersetzt)
  • Alternative: regelbasierter Layout-satz (anselle von Schablonen -> Layout-Regeln beschrieben)

Template-basierter Publishing-Ansatz:

 

  • mithilfe Layoutprogramm werden Schablonen (Templates) für gewünschte Seiten entworfen, welche Platzhalter für die aus der Datenbank zu bestückenden Elemente beinhalten

Vorteile:

  • mit üblichen Werkzeugen sehr einfach Vorlagen erstellen

Nachteile:

  • Nachbearbeitung erforderlich

Content-Management-Sytem:

  • Datenbankinhalte für Print- und Digitalmedien nutzen
  • Einpflegen der Daten in Datenbanken, Bereitstellung der Inhalte erfolgt medienneutral
  • Printmedienproduktion: Database-Publishing
      -> Inhalt während Produktion aus Datenbank in Workflow eingespielt und integriert
       -> Inhalte in konventionellen Druckverfahren ab Produktionsschritt der Druckformherstellung bzw. im Digitaldruck ab Bebilderung nicht mehr veränderbar
  • Publikation von Internetseiten: Inhalte erst zum Zeitpunkt des Aufrufs durch Nutzer auf Webserver generiert und an Client geschickt

Templates:

  • bestimmt Darstellung der Website im Browser und Verknüpfung verschiedener Komponenten
  • setzen sich aus mehreren CSS-, HTML-, PHP-Dateien zusammen (CSS – Abbildung des Designs; HTML und PHP zur Umsetzung der Funktionalität)
  • es können auch mehrere Templates durch „Default“ genutzt werden (Template bei Aufruf der Website im Browser geladen)
Bewertung: 
1.5
Durchschnitt: 1.5 (2 Stimmen)

EDV (BIOS)

Allgemein

· BIOS = (Basic Input Output System)
·...ist auf einem ROM Speicherbaustein auf dem Mainboard abgespeichert ¹ auf der Festplatte.
· Grundlegendes Systemprogramm eines PCs, welches unmittelbar nach dem Einschalten zur Verfügung steht, ist für den Start verantwortlich

· Das BIOS ist dem Betriebssystem vorangelagert, erst nach dem Durchlauf des BIOS ist das Starten des Betriebssystems (von Festplatte) möglich (BIOS-Setup)
·...bildet Schnittstelle zwischen Hard- und Software
· Schnittstelle BIOS/Software = standardisiert
· Schnittstelle BIOS/Hardware = Unterschiedlich
· BIOS greift auf Hardwarekomponenten wie Prozessor und Mainboard zu, die Software wiederum spricht das BIOS an

Wie gelange ich ins BIOS?,was kann ich dort einstellen?

· Da sich die Hardwarekonfiguration eines PCs ändern kann (z.B. neue USB-Karte, Brenner, Drucker), muss man dies dem BIOS mitteilen können
· Man kann Hardwarekomponenten aktivieren/deaktivieren
· Man kann Arbeitsweise und Leistungsfähigkeit beeinflussen
· Diese Nutzerdaten werden in der CMOS (Complementary Metaloxide Semiconductor) gespeichert (eine Art RAM (Arbeitsspeicher Random Access Memory), CMOS behält den Speicherinhalt auch nach dem Ausschalten des PCs in einer Batterie
· Beim Rechnerstart wird die Entf.-Taste gedrückt (meist bei Meldung to enter Setup)
· Da im BIOS fast immer die engl. Tastaturbelegung gilt, muss man z.B. zur Bestätigung die (Z)-Taste drücken für Y(es)

Was genau macht/kann das BIOS?

· Liefert alle Informationen zur Erkennung der vorhandenen Hardware
· Testet alle Hardwarekomponenten der Reihe nach (z.B. Tastatur, Festplatte, Arbeitsspeicher, Diskettenlaufwerk), dieser Test wird auch POSt genannt (Post-On Self Test)
· Initialisiert (wertet aus) diese
· Gibt eventuell Fehlermeldungen aus
· Im Arbeitsspeicher werden Bereiche mit Parametern über die konkrete Ausstattung des PCs zur späteren Verwendung erstellt (BIOS-Routine)
· Abschließend lädt das BIOS den ersten Sektor des Speichermediums und übergibt die Kontrolle an das dort enthaltende Programm
· Das Bios besteht aus einer umfassenden Sammlung von elementaren Programmen, welche die Zusammenarbeit zwischen Prozessor und den einzelnen Rechnerkomponenten auf niedrigster Basis abwickeln
· Nach dem Start bleibt das Bios im Hintergrund aktiv, die Bios-Routinen stehen dann sowohl dem Betriebssystem als auch den Anwendungsprogrammen zur Verfügung

Verschiedene BIOS

· AWARD BIOS
· MR BIOS
· AMI BIOS
· PHOENIX BIOS
· Allgemeines BIOS = System BIOS, verschiedene Karten wie z.B. Grafikkarte haben ihr eigenes BIOS

Bewertung: 
0
Bisher keine Bewertung

Farbmanagement-Einstellungen

Erst einmal Grundsätzliches:

Man spricht immer von einem Quell- und einem Zielfarbraum.

Beispiel: Beim Scannen werden die Farben vom Scannerfarbraum (= Quellfarbraum) in den gewünschten Zielfarbraum umgewandelt, z. B. Adobe RGB oder ECI RGB v2 für Web-Leute auch sRGB.

Es gibt nur zwei Möglichkeiten, wie das Farbmanagement Einfluss auf Farben nimmt:

a) Farben werden vom Quell- in den Zielfarbraum umgerechnet (jeder RGB- oder CMYK-Wert ändert sich).

Mögliche Umwandlungen gehen von RGB nach RGB, von CMYK nach CMYK, von RGB nach CMYK, von CMYK nach RGB.

b) Den Farben des Quellfarbraums werden die des Zielfarbraums zugewiesen (alle Farbwerte bleiben gleich, das Aussehen der Farben ändert sich).

Hierbei kann die Anzahl der Kanäle nicht verändert werden, also funktioniert das nur von einem RGB in ein anderes RGB oder von einem CMYK in ein anderes CMYK.

Im Menü unten sind die beiden Befehle zu sehen: In Profil umwandeln | Profil zuweisen

FM-Einstellungen-1

Farbräume werden mittels Profilen beschrieben (Adobe RGB, sRGB, ISO Coated v2, PSO Uncoated usw. … )

Farbmanagement-Einstellungen klären unter welchen Umständen Farben eines Quell- in einen Zielfarbraum umgewandelt werden und wie das geschehen soll.

Außerdem gibt es Schwierigkeiten beim Umwandeln der Farben, wenn der Zielfarbraum eine andere Größe hat als der Quellfarbraum (z. B. Umwandlung von RGB nach CMYK aber auch von Adobe RGB nach sRGB).

Damit Farbänderungen in diesem Falle möglichst wenig auffallen, werden Rendering Intents(Berechnungsabsichten) hier angewendet.

Definition: Rendering Intents sind Berechnungsprioritäten. Das bedeutet, dass man mit diesen Einstellungen festlegt, nach welcher Priorität Photoshop die Farben übersetzt.
 
Folgende Rendering Intents werden angeboten:
 
Absolut farbmetrisch: Photoshop übersetzt Pixel für Pixel nacheinander, ohne den farblichen Gesamteindruck des Bildes zu berücksichtigen. Die Farben innerhalb des Zielfarbraums bleiben nahezu unverändert, Farben außerhalb werden einfach beschnitten.
Diese Einstellung verwendet man z.B. wenn Logofarben in CMYK konvertiert werden sollen. Bei der Konvertierung von RGB zu CMYK sollte man es eigentlich nicht verwenden.
 
Perzeptiv: Photoshop analysiert das ganze Bild und versucht, bei der Übersetzung den farblichen Gesamteindruck des Bildes beizubehalten. Pixel im Quellfarbraum, die mit ihren Farben außerhalb des Zielfarbraums liegen, werden in den nächstmöglichen Farbwert übersetzt. Farbwerte der angrenzenden Pixel werden verschoben, sodass die farblichen Abstände der Pixel beibehalten werden.
Diese Einstellung wird bei der Umwandlung von RGB in CMYK benutzt. 
 
Relativ Farbmetrisch: Deckungsgleiche Farbbereiche werden "absolut farbmetrisch" übersetzt. Nicht deckungsgleiche Farbbereiche werden "perzeptiv" übersetzt. 
Diese Einstellung wird verwendet, wenn die zu konvertierenden Farbräume schon "relativ nah" beieinander sind, also z.B. bei CMYK zu CMYK.
 
 

Einige Beispiele für die beiden Möglichkeiten, wie sie oben unter a und b beschrieben wurden:

Scannen: Jeder Scanner hat irgendeinen Farbstich. Der wird beim Profilieren mittels einer it8 Karte ermittelt und in ein Profil geschrieben – das kann eine Kalibrierungs-, genauer Profilierungssoftware. Wird dem falschfarbigen Scan das Scanner-Profil zugewiesen, ändern sich die Farben. Die auf der Lab-Schuhsohle an nicht korrekter Stelle liegenden Farben des Scans werden an die richtige Stelle geschoben.

Der Scan liegt jetzt im Scanner-Farbraum vor. Beim Speichern des Scan wird das Profil mit in die Datei hinein geschrieben.

Damit man sich nicht mit unendlich vielen Geräte-Farbräumen herumschlagen muss, wird der Scan anschließend in einen Standard-Farbraum (z. B. sRGB) umgerechnet. Dabei wird der Farbraum geändert, aber die Farben bleiben im Lab-Farbraum an ihren Stellen liegen. Der Scan sieht also weiterhin farblich gleich aus, die RGB-Farbwerte sind dafür verändert worden, umgerechnet halt.

Öffnet man den Scan z. B. mit Photoshop, kann das Programm in einem anderen Farbraum laufen. Eine Farbmanagement-Einstellung (unter Farbmanagement-Richtlinien) klärt, wie mit dem abweichenden Verhalten umgegangen werden soll:

FM-Einstellungen-2

Soll Photoshop dem Anwender etwas mitteilen? Falls ja, dann muss das erste Häkchen gesetzt sein. Im PopUp-Menü darüber kann eingestellt werden, was bei Farbabweichung geschehen soll, wenn also das Profil des Bildes nicht mit dem von Photoshop übereinstimmt:

aus = Profil des Bildes wird nicht gelesen – das Bild wird ohne im Farbraum von Photoshop angezeigt. Ist der nicht derselbe wie der des Bildes, werden die Farben nicht richtig dargestellt.

Eingebettete Profile beibehalten = Profil des Bildes wird gelesen und verwendet, um die Farben des Bildes richtig anzuzeigen.

In RGB-Arbeitsfarbraum konvertieren = das eingebettete Profil wird gelesen, damit die Farben richtig sind und anschließend werden die Farben in den Arbeitsfarbraum von Photoshop konvertiert.

Weiterführende Links:
http://www.cleverprinting.de/pdf/Cleverprinting_2013.zip

 
Bewertung: 
0
Bisher keine Bewertung

Farbräume / Kontraste / HEX - Werte

Hi! Bin neu hier und versuche mal, mit diesem Beitrag meinen Einstand zu geben.
Hoffe, ich mache nicht direkt alles falsch :-)

 

Farbe im Screendesign ist

  • im RGB - Farbmodus (additive Farbmischung)
  • Mit RGB lassen sich mehr Farben darstellen, als in CMYK
  • sRGB (small RGB) wird für Websitegrafiken verwendet. Der Farbraum ist kleiner und spart Speicherplatz
  • wird bei Website in Hexadezimal angegeben und sieht z.B. so aus: #000099 (Siehe extra Abschnitt)

 

Kontraste

Komplementärkontraste (z.B. rote Schrift auf grünem Grund) führen auf dem Monitor zu noch stärkerem Flimmern, als bei Print.

Bei schwarzer Schrift auf weißem Grund, kommt es aufgrund der additiven Farbmischung zum Überstrahlen. So sind klein gesetzte outline Schriften oder Schriften mit feinen Haarlinien schlechter zu lesen, als im Print (natürlich auch wegen der Auflösung, aber nicht nur). Daher ist es empfehlenswert, den Hintergrund nicht komplett weiß zu gestalten, sondern ein ganz leichtes grau zu wählen, damit die umliegenden weißen pixel die wenigen schwarzen pixel der schrift nicht überstrahlen. Dies ist auch für die Augen angenehmer zu lesen und die Augen ermüden nicht so schnell.

 


Hex-Werte:

Bei Websites werden die Farben in Hex angegeben.
Dabei besteht der Wert aus 6 Zeichen (Buchstaben und Ziffern)

Die ersten beiden Ziffern stehen für R, also den Rotanteil der Farbe.
Die mittleren beiden Ziffern stehen für G, also den Grünanteil der Farbe.
Die letzten beiden Ziffern stehen für B, also den Blauanteil der Farbe.

Je niedriger die Zahl, desto weniger "leuchtet" diese Farbe.
00 bedeutet also, diese primäre Farbe ist nicht Bestandteil in der sekundären Farbe.
"ff" bedeutet, diese Farbe leuchtet mit voller Kraft und somit Bestandteil der sekundären Farbe ist.

Der Farbcode #ff0000 steht also für ein helles rot, da der R Kanal voll "aufgedreht" ist.
Der Farbcode #ffff00 steht für ein helles gelb, da der rote und der grüne Farbkanal voll "aufgedreht" sind und rot und grün die sekundärfarbe gelb ergeben.
Der Farbcode #000000 steht für schwarz, #ffffff steht für weiß

 

 

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Font Rendering

FONT RENDERING:

 

  • Web-Font-Revolution muss mehr beachtet werden für das Verstehen der Technologie hinter Webschriftarten

 

  • Unterschiedliche Browser und Betriebssysteme zeigen Schriften unterschiedlich an. Das Verstehen, warum Schriften wie dargestellt werden hilft dabei, Webseiten zu schaffen, die erfolgreich sind und in allen Varianten bequem zu lesen sind. (Statt den Versuch zu starten, die Nutzung von Browser und OS zu bestimmen, sollte das Augenmerk darauf gelegt werden, wie die Differenzen ausgeglichen werden können)

 

  • Bisher gab es nur eine handvoll brauchbarer Webschriftarten, die allgemeine Gültigkeit haben.

 

  • Heute gibt es eine riesige Auswahl an Schriften, aber nicht jedes Betriebssystem unterstützt diese. Verschiedene OS-Hersteller verfolgen unterschiedliche Strategien, um Fonts zu Rendern, also um ihre Darstellung zu berechnen.

 

  • Betrachtet man entsprechend, wie die Schriften auf dem Bildschirm aussehen, stellt man fest, dass die Zeichen stellenweise starke Unterschiede von System zu System aufweisen.

--> Auch sehr gut designte Schriftarten können nicht gut auf z.B. Windows aussehen, wenn eine entscheidende Sachen fehlt: Das Hinting.

 

  • Es ist also wichtig, zu wissen, worauf man bei der Auswahl von Schriften achten muss, um eine hohe Typo-Qualität dauerhaft zu erhalten.

 

RENDERING-ARTEN

 

Rasterung

  • Die Buchstaben werden als abstrakte Zeichnungen - meist mit sehr genauen, feinen Rändern - designt.
  • Wir der Text auf dem Bildschirm angezeigt, muss die präzise, ideale Form in einem mehr oder minder groben Raster von Pixeln dargestellt werden
  • Während der Gebrauch von der bloßen Vorschau am Monitor sich zur Druckausgabe in das eigentliche Medium, das wir lesen, wandelte, wurden immer mehr und mehr anspruchsvollere Wiedergabeverfahren (rendering methods) entwickelt, die auch das Lesen am Monitor angenehmer machen.

 

 

Schwarz-Weiß-Wiedergabe (Black-White-Rendering)

  • Die erste Methode, um Buchstabenformenauszudrücken, beruhte auf rein weißen und schwarzen Pixeln (auch "Bi-Level Rendering")
  • Im Druck gibt es durch die hohe Druckauflösung ein sehr gutes Ergebnis, auf dem Monitor macht uns die eher geringe Anzahl an verfügbaren Pixeln zu schaffen und die genaue Form kann nicht gut wiedergegeben werden. Auch wenn wir die einzelnen Pixel nicht sehen können, erfassen wir die Pixeltreppen statt einer Rundung doch.

 

 

Graustufen Wiedergabe (Grayscale-Rendering / Anti-Aliasing)

  • Idee: Verbesserung der runden Darstellung durch bessere Kontrolle der Helligkeit eines Pixels.
  • Ein Pixel, der auf dem Rand der Buchstabenform liegt, wird grau. Je mehr des Pixels noch in den Buchstaben bzw. die Form integriert ist, desto dunkler wird er.
  • Das Ergebnis ist eine weichere Kontur, durch die unschöne Pixeltreppen weniger auffallen.
  • Das Prinzip ist das gleiche wie bei der harnkomprimierung von Fotos auf eine niedriegere Auflösung: Unser Auge wandelt die Graustufen in einen Teil der Form um, sodass wir einen Buchstaben sehen, der an sein Form-Vorbild sehr nah herankommt.

 

 

Subpixel Rendering

  • Die dritte Generation der Wiedergabe-Technologie
  • Charakterisiert durch scheinbar farbige Pixel (Nimmt man einen Screenshot und vergrößert diesen, sieht man blaue, grüne und rote Pixel)
  • Die Farbigen Pixel sind Subpixel, die Farbe und Helligkeit der Pixel neben ihnen controllieren.
  • Sie sind so klein, dass wir sie als einzelne farbige Punkte gar nicht wahrnehmen.
  • Alle Subpixel werden individuell dazugeschaltet; Ist der rechte Subpixel eines Weißraums z.b. rot, erscheint er als Vollpixel technisch auch rot.
  • Die Vorteile dieser Technik werden deutlich, wenn man die Subpixel entsättigt. Verglichen mit dem einfachen Grayscale-Rendering hat sich die Auflösung horizontal verdreifacht. Position und Gewicht vertikaler Stämme können noch genauer reflektiert werden und der Text erscheint klarer.

 

 

DERZEITIGE AUSFÜHRUNGEN

 

  • Da sich fast alle Browser auf das System Beziehen, auf dem sie aufgerufen werden, muss das Augenmerk bezüglich Webfont-Rendering auf das Betriebssystem gelenkt werden.
  • Trotzdem gibt es auch Unterschiede unter den Browsern was die Unterstützung von Kerning und Ligaturen, genauso auch die Anwendung von Unterstreichungen und Fetten Schriftschnitten angeht.

--> Allein deswegen kann mannichtmal für ein Betriebssystem alle Browser auf den exakt gleichen Darstellungsstand bringen.

 

Ein Beispiel, welche Wiedergabeverfahren für Browsers unter Windows verwendet werden:

 

Browser: PS-Webfonts - TT-Webfonts

 

IE 6-8 (XP): not supported - GDI grayscale

IE 6-8: not supported - GDI grayscale

IE 9: Direct Write - Direct Write

FF 4+: GDI grayscale - GDI grayscale

FF 4+: Direct Write - Direct Write

(Direkt Writer activated by User)

 

Chrome: GDI grayscale - GDI grayscale

Opera: GDI grayscale - GDI grayscale

 

 

Windows:

  • Font-Format hat maßgeblichen Einfluss auf die Wiedergabe
  • Der entscheidende Unterschied liegt zwischen PostScript-Schriftarten und TrueTypeFonts, nicht auf welche Weise sie in den Browser integriert werden

--> Solange die grundlegende Schriftart die selbe ist, sehen wir ein identisches Rendering

 

  • Das Dateiformat der Schriftarten gibt Hinweise, welche grundlegende Technik benutzt wird (EOT & .ttf enthalten immer TrueTypes, während .otf typischer Weise PostScript-basiert ist. WOFF kann beides enthalten)
  • Unterschied im Hinting: PS enthalten nur wage Informationen über die Position verschiedener Teile eines Buchstabens und benötigen eine intelligente RenderingSoftware, um sie auszulesen. TTF dagegen beinhalten sehr spezifische, einfache Einstellungen, die den Wiedergabe Prozess direkt kontrollieren.

 

---> Neue Rendering-Software von Windows, ClearType, unterstützt nur TrueTypeFonts und rendert diese mit einem Hybrid aus SubpixelRendering und Schwarz-Weiß-Rendering

---> Das Ergebnis sind Treppen in der Kontur, die vorallem bei sehr großen Schriftgrößen sichtbar sind. Diese sind zwar unschön, aber nicht zu vermeiden, selbst mit dem besten Hinting.

 

  • ClearType ist entsprechend eher ein Schritt zurück bei großen Schriften; Der Gewinn in der horizontalen Präzision im gering gegenüber den rauen Konturen, die das Gesamtbild stören.

 

  • Aber: Windows hat eine lösung. Mit DirectWrite gab es die Ergänzung zur Weichzeichnung in der Vertikalen für ClearType.
  • DirectWrite gibt eine Verbesserung der Gleichmäßigkeit von Texten, da es die Positionierung von Subpixeln erlaubt, die den Buchstaben einen entsprechenden Abstand geben, ganz, wie sie programmiert und angelegt wurden.
  • Auch im PS-Font-Rendering gibt DirectWrite weichere Konturen und lässt Subpixel-Rendering zu. Es sorgt für mehr Graupixel, um Strichstärken besser zu reflektieren.

---> Sehr ausbalanciert und sehr ähnlich zu Mac OS rendering

 

  • in GDI-basierten Browsern werden PS-Web-Fonts mit GrayscaleRendering angezeigt

----> Anders als GDI-ClearType gibt es hier weiche Konturen

----> Anders als TrueType-Hints, ist PS-Hinting deutlich leichter zu erstellen, auch automatisch.

 

Unhinted Fonts in Windows:

  • Schriften im alten graustufen-Modus von Windows sahen erstaunlich gut aus.
  • Solange sie nicht via Hinting mit vollen Pixeln gefüllt werden und der rasterizer das wieder entkräftet, ist dieses alte System gleich dem von iOS, doch heute sind unhintet Fonts keine Option mehr.

---> GDI-ClearType ist auf ein gutes Hinting angewiesen, eine Unhintet Font mit GDI zu rastern verschlechtert die Qualität. (Horizontale Striche werden extrem dich angezeigt; "Warzen"/"Warts" werden dort sichtbar, wo Konturen nicht ordentlich an das Pixelraster ausgerichtet sind)

 

---> In DirectWrite gibt es genau die selben Probleme, wegen des fehlenden Hintings können die Striche nicht exakt angepasst werden.

 

 

Mac OS X

  • Alle Browser nutzen die QuartzRendering Software, die sehr verlässlich ist, da sie nicht versucht intelligent zu sein
  • Da das Hinting ignoriert wird, rendert die Software alle Schriftarten - ob PS oder TT - genau gleich.
  • Das angewandte Subpixel-Rendering ist sehr robust und ausgewogen; Der Rasterizer versucht nicht zu verstehen, wie dick oder dünn striche sind und was eine Schrift ausmacht, sondern betrachtet nur, was durch dunklere und hellere Pixel dargestellt wird.
  • Da die Buchstabenform nicht interpretiert wird, kann sie auch nicht falsch interpretiert werden.

---> Führt stellenweise zu Problemen, gerade weil einiges nicht intelligent controlliert wird:

  • Bei manchen Schriftgrößen kann es passieren, dass Horizontale eine Graureihe haben, weil die theoretische Höhe keinen ganzen Pixel darstellt. Eine minimale Änderung der Schriftgröße behebt das Problem jedoch.
  • Schriften neigen dazu, zu stark gerendert zu werden, was sie sehr massiv macht. Sichtbar wird das, wenn man die gleiche Schriftart in Windows anzeigt und dort vergleicht. (Oft ist das nur in gewissen Schriftgrößen extrem)

 

iOS

  • selbes Prinzip wie Mac OS, nur kein Gebrauch von Subpixel-Rendering (die macher wollten den CPU-Gebrauch einschränken. Beim Subpixel-Renderiung muss das System das Renderiung über"denken", da Subpixel physisch auf eine spezielle Weise angebracht werden)

 

===> Mac: Keine Kontrolle über das Rendering, was akzeptabel ist, da das System generell verlässlich ist. Der einzige Schwachpunkt ist, dass Schriften generell zu massiv dargestellt werden.

 

===> Windows: Hinting-Angelegenheit, speziell bei TT-basierten WebFonts. Als Kontrolle gibt es die Wahl zwischen PS- und TT-basierten Schriften. Wichtig ist vorallem, dass sie vernünftigt gehintet werden.

 

 

Quelle: http://www.smashingmagazine.com/2012/04/24/a-closer-look-at-font-rendering/

(auf der Seite gibt es auch Bilder zu den einzelnen Rendering-Arten und Ansichten)

Bewertung: 
0
Bisher keine Bewertung

Grafikkarten

Die Grafikkarte ist für die Monitordarstellung verantwortlich. Sie wird als Erweiterungskarte mit dem Motherboard verbunden oder ist direkt in den Chipsatz des Motherboardes integriert und verfügt über einen Prozessor (GPU), einen Grafik-/Videospeicher (Video-RAM), einen Chip zur Umwandlung von digitalen in analoge Signale (RAMDAC) sowie über Schnittstellen für externe Geräte wie Monitor oder Fernseher.
Die erste Grafikkarte, die 1981 in einem PC verwendet wurde, konnte Text einfarbig darstellen, doch Verbesserungen folgten schnell. Am bekanntesten wurde die VGA-Karte, die IBM 1989 auf den Markt brachte.
Mit der Entwicklung und Verbreitung der PCs wurden auch die Grafikkarten weiter verbessert und konnten, indem sie über eine eigene CPU sowie über einen eigenen Grafikspeicher verfügten, nicht nur Text, sondern auch komplexere grafische Funktionen darstellen. Auch die Verbreitung von 3D-Computerspielen und leistungsfähigere Grafikkarten bedingten sich gegenseitig. Aktuell besitzen Grafikkarten bis zu 512 MB Grafikspeicher, jedoch auch weitaus größere Speicher (bis 1.536 MB) sind erhältlich.
Derzeitiger Mindeststandard bei der Darstellung ist der VESA-Modus (Video Electronics Standards Association) mit einer Auflösung von maximal 1280 x 1024 Punkten bei 16 Bit Farbtiefe.
Neben Grafikkarten für den Einsatz im Office-Bereich und bei Spielen gibt es auch Karten für den professionellen Einsatz z.B. bei aufwendigen Bildbearbeitungen oder CAD-Anwendungen.
 

Grafikkarten und deren Mainboardanbindung

Hardwareschnittstellen zum System

   • bekannteste Hardwareschnittstellen für Grafikkarten: PCI, AGP und PCI-Express
      (früher waren auch ISA und VESA Local Bus gängig)
   • diese Schnittstellen sind entweder Bussysteme oder Direktverbindungen (AGP, PCI-Express),
      die den Buscontroller mit der Grafikkarte verbinden
   • Spezifikation der Schnittstellen wird meist durch Interessenverbände vorgenommen
     (in denen sowohl Controller-/Grafikkarten-/Grafikchiphersteller Mitglied sind)
      --> deswegen funktionieren im Idealfall alle konformen Grafikkarten mit allen konformen Controllern!

Grafikspeicher

   • Grafikspeicher dient zur Ablage der im Grafikprozessor (GPU) verarbeiteten Daten und als Bildspeicher
     („Framebuffer“) à das sind digitale Bilder, die später auf dem Computer-Bildschrim ausgegeben werden
   • Größe des Grafikspeichers bestimmt die maximale Farbtiefe und Bildauflösung
   • Grafikspeicher leicht zu errechnen:
      - z.B. gewünscht ist eine Auflösung von 1600 x 1200 und eine Farbtiefe von 24 bit
      - Anzahl der Bildpunkte berechnen  (1600 x 1200 = 1.920.000 Pixel insgesamt)
      - für jedes Pixel 24 Farbinformationen: Pixelanzahl x Farbtiefe (1.920.000 x 24 = 46.080.000 Bit = 5.760.000 Byte)
      - Umrechnung in Byte bei 1 MB = 1.048.576 Byte (5.760.000 Byte : 1.048.576 = 5,49 MB
         Grafikspeicher erforderlich)
   • heute werden nur noch Grafikkarten mit viel mehr Speicher gebaut,
      als zur reinen Bildspeicherung notwendig wäre
   • beim Rendern dreidimensionaler Grafiken werden hier zusätzlich zum Framebuffer die Daten
      der Objekte (z.B. Größe, Form, Position, Textur) gespeichert
   • besonders die immer höher auflösenden Texturen haben für einen starken Anstieg
     der Speichergröße gesorgt
   • Speichergröße aktueller Grafikkarten liegt im hohen Megabytebereich
     (bei 256 MB, 512 MB, 1024 M, 2048 MB)
   • Spielegrafikkarten haben Speichergrößen von 2 GB bis 4 GB
   • bei Onboard-Lösungen wird meist der Gauptspeicher des Systems als Grafikspeicher genutzt
     („Shared Memory“)
   • Zugriff erfolgt über das jeweilige Bussystem und ist deshalb langsamer als direkt
     angebundener Speicher

Grafikprozessor (GPU)

   • dient zur Berechnung der Bildschirmausgabe
   • Mitte der 1990er Jahre kamen die ersten 3D-Beschleuniger auf den Markt
     - waren in der Lage, einige Effekte und dreiecksbasierte Algorithmen (wie Z-Puffer/Texture Mapping)
        und Antialiasing selbstständig durchzuführen
     - besonders den Computerspielen halfen solche zusätzlich zu installierenden Steckkarten
       zu einem Entwicklungsschub
   • heute sind GPUs wegen ihrer Spezialisierung auf Grafikberechnungen den CPUs
     in ihrer Rechenleistung überlegen

Kühllösungen

   • notwendig aufgrund der hohen thermischen Verlustleistung durch zunehmende Komplexität
     von Grafikprozessoren/Grafikspeicher
   • z.B. Prozessorkühler
   • Grafikkarten verbrauchen mit einem Grafikprozessor (GeForce 8800 Ultra) bis zu 175 W Leistung,
     die vollständig als Wärmeenergie abgeführt werden muss
   • zur Abführung der Wärmeenergie existieren mehrere Ansätze:

passive Luftkühlung

• durch Kühlkörper wird die thermische Energie durch Konvektion an die
   Umgebungsluft abgegeben
• nur bei geringen Leistungen oder mit sehr großen Kühlkörpern möglich
• oft werden auf beiden Seiten der Grafikkarte großflächige Kühlkörper angebracht,
   die mit einer Heatpipe verbunden sind
• Problem: Kühlkörper haben hohes Gewicht, dies führt zu einer hohen mechanischen
   Belastung des Steckplatzes

aktive Luftkühlung

• die thermische Energie wird über einen Kühlkörper an die Umgebungsluft abgegeben,
   die durch Lüfter umgewälzt wird
• einfachste und preiwerteste Variante, verursacht allerdings Störgeräusche

Wasser-kühlung

• wenn für die CPU eine Wasserkühlung eingesetzt wird, kann auch Grafikkarte
   eingebunden werden
• die thermische Energie wird dann an das Wasser im Kreislauf
   und von dort über einen Radiator an die Umgebungsluft abgegeben
• ermöglicht einen Transport von großen Wärmemengen, ist aber auch aufwendig/teuer

RAMDAC („Random Access Memory Digital/Analog Converter“)

   • = Chip, der für die Umwandlung von digitalen (Videospeicher) in analoge Bildsignale (Monitor)
      verantwortlich ist
   • von ihm werden die Signalausgänge angesteuert
   • kann auch im Grafikprozessor integriert sein

Externe Signalausgänge

VGA-Out

• an einer 15-poligen D-Sub-Buchse wird eine analoges RGB-Signal hergestellt
• über ein VG-Kabel mit entsprechendem Stecker werden CRT-Monitor
   (Röhrenmonitor), Projektor oder Flachbildschrim angeschlossen

DVI-Out

• liefert ein digitales Signal und dmait die bester erreichbare Bildqualität
   an Bildschirmen mit DVI-Eingang
• die meisten heutige Grafikkarten sind mit einem DVI-I-Anschluss („i“ für „integrated“)
   ausgestattet und liefern damit zusätzlich ein analoges RGB-Bildsignal
• somit können mit einem (meits beiliegenden) passiven Adapter auch Bildschirm mit
   analogem D-Sub-Eingang angeschlossen werden
  (die Bildqualität entspricht dann jedoch mehr der des S-Sub-Ausgangs)

• es existieren weiterhin die Varianten DVI-D mit ausschließlich digitalen
  Signalleistungen
• bei DVI-D sind die Varianten Single-Link-DVI und Dual-Link-DVI zu unterscheiden
   - letzterer beinhaltet doppelt so viele Datenleistungen,
      kann somit größere Bandbreite liefern,    
   - ist notwendig für Auflösungen größer als WUXGA (1920x1200), um trotz größerer
     Datenmengen pro Bild eine Bildwiederholfrequenz von mind. 60 Hertz zu
     gewährleisten

HDMI-Out

• HDMI = „High Definition Multimedia Interface“
• seit 2007
• hier wird das Videosignal auch digital und gegebenenfalls mit HDCP verschlüsselt
   ausgegeben
• es könen auch DVI-D-Signale übertragen werden, d.h. DVI-Geräte sind kompatibel
   zu HDMI
• Unterstützung von HDCP ist bei DVI jedoch optional, sodass nicht alle Geräte derartig
   geschützte Signale wiedergeben können
• Übertragung von Tonsignalen ist jedoch nur über HDMI-Verbindungen möglich

Display Port

• relativ neuer Verbindungsstandard für Bild-/Tonsignale
• er ist kompatibel zu VGA, DVI und HDMI 1.3
• unterstützt Kopierschutzverfahren HDCP und DPCP
   („Display Port Content Protection“)
• Verbreitung beschränkt sich Anfang 2010 auf professionelle Grafikkarten, sowie einige
   Modelle der AMD Radeon HD 5000-Serie und eine proprietäre Version am MacBook

TV-Out

(= Video-Out)

• der als Cinch- oder S-Video-Buchse ausgeführte TV-Ausgang kann mit einem
   Fernseher/Projektor verbunden werden
• man kann so mit mehreren Bildschirmen (PC-Bildschrim +  Fernseher) arbeiten
• allerdings ist die Signalqualität des Anschlusses meist nicht sehr hoch, da es sich um
   ein analoges FBAS- oder S-Video-Signal handelt und die meisten Karten nicht den
   nötigen Schaltungsaufwand treiben, um aus diesen Signaltypen das
    Bestmögliche herauszuholen

 

Software-Grafikschnittstellen

   • notwendig, um Grafikkarten benutzen zu können, ohne Hardware und Software für jede
      einzeln zu entwickeln
   • Gerätetreiber stellen Verbindung zwischen Hardware & Software her
     - ohne diese müssten Programme die Hardware direkt ansprechen
     - würde aufgrund der Unterschiede zwischen Grafikarten zu einer hohen Spezialisierung
        und damit zu einem hohen Programmieraufwand für die Unterstützung vieler Grafikkarten führen
    - Grafikkartentreiber können ebenfalls sehr unterschiedliche Funktionen anbieten
    - deswegen wurden verschiedene Grafik-APIs entwickelt, die den Zugang zu diesen Funktionen
       erleichtern sollen (z.B. OpenGL oder DirectX)
     - d.h. ermöglichen dem Programmierer, einfach und unabhängig von der Grafikkarte
       2D- & 3D-Grafik anzuzeigen

 

Bewertung: 
5
Durchschnitt: 5 (3 Stimmen)

HARDWARE

Bewertung: 
0
Bisher keine Bewertung

Plotter

Plotter sind Computer gesteuerte elektronische Ausgabegeräte

  • Sie sind besonders für die Ausgabe von Zeichnungen aus CAD-Programmen (Computer unterstütztes Konstruieren) geeignet.
  • Man unterscheidet Flachbettplotter (kleine Formate) und Trommelplotter (große Formate)
  • Bei den Flachbettplottern liegt das Papier flach und fest auf dem Zeichentisch. Ein Stift wird mit einem horizontal und vertikal steuerbaren Schlitten über das Papier geführt.
  • Beim Trommelplotter bewegt sich der Zeichenstift nur in einer Richtung während die Bewegung in die 2. Richtung durch das Hin- und Herfahren des Papiert mittels einer Trommel durchgeführt wird. Das Papier wird dabei durch ein Vakuum in Kontakt mit der Trommel gehalten (durch automatisches Wechseln sind auch mehrfarbige Zeichungen möglich).
  • Eine Sonderform der Plotter sind schneid Plotter die Schablonen z.B. für den Siebdruck schneiden

Im Unterschied zu Drucker „setzen“ Plotter nicht einzelne Punkte, sondern zeichen oder schneiden „echte“ Linien. Vergleichbar mit: Messwertschreibern (EKG) die mit analog bewegten Tintenstiften Linien auf kontinuierlich vorgeschobenes Papier schreiben.

Generell sind 2 Verfahren zu unterscheiden:

  • Entweder wird das Plottmedium (Papier/Folie) unter dem Schreib- oder Schneidekopf von und zurück bewegt während dieser quer zur Papierrichtung läuft.
  • oder der Kopf wird auf x- und y-Schiene über das unbewegte Medium geführt.
  • Eine Kombination der Verfahren ist möglich.

 

  • Der Schreibkopf kann programmgesteuert mit verschiedenen Stiften für Strichstärken und Farben bestückt werden, bei schneide Plottern mit Messern (dem entsprechenden Material angepasst).
  • Ausgabegerät für Strichzeichnungen z.B. Bau- und Konstruktionszeichnungen.
  • Für Bilder und Verläufe sind sie nicht geeignet da sie keine Halbstöne darstellen können.
  • Bei Vektrografiken ist höchste Präzision erreichbar.
Tags: 
Bewertung: 
0
Bisher keine Bewertung

Beamereinsatz und -technologie

 Hier könnt ihr eure Zusammenfassung veröffentlichen.

Stichwort: ANSI Lumen

Bewertung: 
0
Bisher keine Bewertung

Computersicherheit

Hier ein Handout, dass auch schon von unseren Lehrern korrigiert worden ist und somit alles wichtige beinhaltet.

AnhangGröße
PDF icon <p>Computersicherheit.pdf</p> 1.52 MB
Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Energieoptionen

Einstellbare Energieoptionen sind:

(Ergänzung bitte)

1. Energiesparplan

2. Festplatte ausschalten nach...

3. Desktophintergrundeinstllungen (z.B. Diashow)

4. Drahtlosadaptereinstellungen

5. Energiesparen (z.B. Deaktivieren nach...., Hybriden Standbymodus)

6. USB-Einstellungen

7. Netzschalter und Zuklappen

8. Prozessorenenergieverwaltung

9. Bildschrim verdunkeln, abschalten; Helligkeit, ....)

10. Multimediaeinstellungen

11. Internet Explorer

12. Akku

 

Diese Einstellungen können jeweils in Netz- oder Akkubetrieb verändert werden (optimiert werden)

Weiterführende Links:

http://www.greencomputingportal.de/artikel/referenz-windows-7-energieoptionen-erklart/
http://www.edv-lehrgang.de/energieoptionen-strom-sparen-mit-energiesparmodus/
http://www.oeko-fair.de/clever-konsumieren/wohnen-arbeiten/oeko-fair-im-buero/computer-fax-und-co/energieeffiziente-geraete-erkennen/energieeffiziente...

Bewertung: 
0
Bisher keine Bewertung

Glasfaserkabel (LWL)

• teuerste Kabel, umfangreiche Verlegung
• große Datenübertragungsraten
• nicht anfällig gegen elektromagn. Störungen
• Abhörsicherheit
• Blitzschutz

Anwendungsgebiete:

• Verbindung von Leistungskomponenten in einer strukturierten Verkabelung

Aufbau:
• Innenleiter aus Quarz oder Glas, der mit verschiedenen Schichten ummantelt ist
• äußere Schichten dienen der mechanischen Stabilität
• Auf beiden Seiten befindet sich eine Sende- und Empfangseinheit, die die elektrischen
Signale in Lichtimpulse umsetzt und umgekehrt (mittels Leucht- oder Laserdiode und Photodioden)

Dispersion: Strahlenüberlagerung durch unterschiedliche Strahlenlaufzeiten (je nach
Einfallswinkel entstehen unterschiedliche Laufzeiten)

Tags: 
Bewertung: 
0
Bisher keine Bewertung

Kameraeinstellungen – Spiegelreflexkamera

I. Spiegelreflexkamera

Das Bild wird durch einen Umlenkspiegel auf die Mattscheibe der Kamera reflektiert. Das Bild sieht man entweder direkt durch den Lichtschacht oder durch ein Sucher-Okular über ein Pentaprisma. Größter Marktanteil sind die einäugigen Kameras. Zweiäugige haben ein extra Objektiv zum betrachten.

Das Motiv wird über den Sucher anvisiert, nach dem Auslösen schließt sich die Blende, Spiegel klappt hoch. Der Verschluss öffnet sich und der Film wird belichtet, danach schließt sich der Verschluss und der Spiegel klappt nach unten, Blick durch den Sucher wieder frei.

I.1. Funktionsweise einer Digitalen Spiegelreflexkamera

Sind alle Kameraeinstellungen (Schärfe, Belichtungszeit und Blende) vom Benutzer eingestellt und der Auslöser gedrückt geht es in der Kamera wie folgt weiter

Optische Projektion durch das Objektiv auf den Bildsensor

 

  •     Optische Filterung durch Tiefpass-, Infrarot- und Farbfilter (meist im Bildsensor integriert)
  •     Wandlung der Lichtintensitäten in analoge elektrische Signale in diskreten Stufen (Diskretisierung)
  •     Digitalisierung der Signale durch Analog-Digital-Wandlung (Quantisierung)
  •     Bildverarbeitung der Bilddatei:
            Umrechnung von Signalen in Helligkeiten
            Farbrekonstruktion
            Rauschunterdrückung
            Entfernen bekannter korrigierbarer Fehler des Bildaufnahmesystems (defekte Pixel,
            Übersprechen, Nachschärfen, Randlichtabfall, Verzeichnung, chromatische Aberration)
  •     Komprimierung der Bilddatei
  •     Speicherung der Bilddatei.

(Quelle: Wikipedia)

II. Kameraeinstellungen

II.1. Blende
Vorrichtung zum abhalten von Licht. Sitz im Objektiv zwischen den Linsen. Besteht aus mehreren Lamellen die eine mehr oder weniger kreisrunden Öffnung bilden ->Irisblende.
Je kleiner die Blendenöffnung, desto größer die Blendenzahl. Blendenzahl gibt an wie oft der Blendenöffnungsdurchmesser in die Brennweite des Objektivs passt. -> Internat.

Blendenreihe:
1; 1,4; 2; 2,8; 4; 5,6; 8: 11; 16; 22; 32; 45 .... Immer mal Wurzel 2.
Abstand zwischen zwei entspricht einer Blendenstufe. -> Blende 4 lässt doppelt soviel Licht rein wie Blende 5,6. 

Aufgabe der Blende:
reguliert die Beleuchtungsstärke in der Film/Sensorebene
Beeinflusst die Schärfentiefe
Beeinflusst je nach Objektiv die Abbildungsqualität (Bewegungsunschärfe bzw. Unschärfe durch Abbildungsfehler

II.2. Belichtung
Die Lichtmenge wird von Blende zu Blende verdoppelt, wenn immer gleich viel Licht einwirken soll.
Die Belichtungszeit ist die Intensität mal Zeit.
Große Blende = kleine Blendenzahl= kurze Belichtungszeit
Bei einer Änderung der Blende muss die Belichtungszeit angepasst werden.
Für die exakte Dauer der auf dem Film/Sensor einwirkende Lichtmenge sorgt der Verschluss.

II.2.1 Kameraverschlüsse
Hat die Aufgebe/Funktion die Dauer des Lichteinfalls auf den Film/Sensor zu begrenzen. Je länger der Verschluss offen ist, desto mehr Licht gelangt auf den Film/Sensor.

Internat. genormte Verschlusszeitreihe: 30, 15,8 ,4 2 ,1, 1/2, 174, 1/8, 1/15, 1/30, 1/60, 1/125, 1/250, 1/500, 1/1000, 1/4000, 1/8000.

Von einer zur nächsten Verschlusszeit ist es eine Zeitstufe. Bei 16 sek fällt doppelt so lange licht wie bei 8sek. Eine kurze Verschlusszeit mindert die Verwacklungsgefahr bei Aufnahme aus der Hand, mit einer langen Verschluss-/Belichtungszeit lassen sich bewusst Bewegungen durch Bewegungsunschärfen festhalten.

Einstellung „B“ :
Beliebig lange Belichtungszeit. Belichtungszeit aus der Hand ohne verwackeln liegt bei 1/30s bis zu 1/1000s.

1/ Brennweite in mm = Belichtungszeit in s ohne verwackeln

Sehr schnell bewegende Objekte muss eine kurze Belichtungszeit gewählt werden und ggf. die Kamera mit gezogen werden (Hintergrund wird verwischt, Objekt scharf).

Einstellung „S“:
Shutter Speed Priority (Verschlusszeiten Vorwahl Priorität) Man wählt die verschlusszeit vor, zb wegen freihandaufnahmen oder Darstellen von Bewegungen und die Kamera bestimmt den passenden Blenden wert.

Einstellung „A“:
( = Aperture Priority / Av- Einstellung / Aperture Value )Bei der Verwendung des A- Modus wird an der Kamera eine feste Blendeneinstellung gewählt ( Aperture Priority = Blendenpriorität ) und die Automatik wählt die zur korrekten Belichtung notwendige Belichtungszeit. Diese Einstellung wird auch Zeitautomatik genannt. Der Vorteil besteht darin, dass man die Schärfentiefe besser beeinflussen kann.

III. Blitz
III.1. Blitz auf den zweiten Verschlussvorhang:
Bei langsamer Verschlusszeit, Blitz wird unmittelbar vor dem Schließen des Verschlusses ausgelöst.
-> Bewegungsspur hinter dem Motiv

III.2. Stroboskopblitz:
Rasche Folge von Blitze. Der Verschluss bleibt während der Blitze geöffnet.
-> mehrere Bilder eines Ablaufes in einer Fotografie.

III.3.Verschiedene Aufnahmetechniken
Verwischung/Wischer: Objekt aufgrund zu langer Verschlusszeit verwischt dargestellt.
Mitziehen der Kamera (1/30 oder 1/60): Objekt scharf, Hintergrund verwischt.
Zeitreihe(Bildserie): Bildfolge von Bewegungsabläufen
Stroboskopblitz: Bewegung wird durch pulsierenden Blitz in einzelne Phasen zerlegt
Zoom-Aufnahme: Verwischung vom Objekt weg durch Ein-/Auszoomen
Blitzsynchronisation: Auf den zweiten Verschluss, leichtes Verwischen des Objekts

IV. Objektive
Normalobjektiv: 45-55° -> entspricht etwa Blickwinkel des Menschlichen Auges. Brennweite etwa Formatdiagonale

Großer Blickwinkel und großer Betrachtungsabstand = Weitwinkeleffekt, kleinere objekte. kleiner abstand, größere objekte als normal.

Normalbrennweite= Negativdiagonale.

Jedes Objektiv, dass bei gleichen Filmformat eine kürzere Brennweite hat, wird es zum Weitwinkelobjektiv und mit längerer Brennweite zum Teleobjektiv. Maßgebend für den Bildeindruck ist das Verhältnis zwischen Brennweite und Aufnahmeformat. Schärfentiefebereich ist umso kleiner, je länger die Objetktivbrennweite ist.

V. Schärfentiefe
Bereich der Schärfenausdehnung einer Aufnahme. Objektiv kann nur eine Ebene einwandfrei scharf wiedergeben, davor und dahinter wird unscharf abgebildet (Zerstreuungskreis). Der Objektpunkt auf dem das Objektiv wird entsprechend dem Auflösungsvermögen des Objektiv und Film/Sensor scharf abgebildet, der Objektivpunkt liegt dann auf der Schärfeebene. Punkte vor oder dahinter werden mehr und mehr als Scheibchen abgebildet.  Mit Verringerung des Blendendurchmessers verkleinert sich gleichmäßig der Zerstreuungs-Durchmesser. Punkte ausserhalb der Schärfeebene werden zunehmend als kleine Zerstreungsscheibchen abgebildet, sie erreichen irgendwann das Stadium bei dem sie als Punkt gelten können und werden „scharf“ abgebildet. Die Schärfentiefe nimmt beim Abblenden zu. Die Schärfentiefe ist von Brennweite und Entfernung abhängig.

V. Blooming:
Belichtungsproblem in der digitalen Fotografie. Überstrahlen sehr hellen Bildstellen, Scharfzeichnungsverlust in hellen Bereichen und unscharfe Lichthöfe an der Grenze von hell zu dunkel. Trotz richtiger Belichtung werden einzelne Sensorelemente überbelichtet, z.B. stark reflektierende oder aktive Lichtquellen. In den überbelichteten Sensorteile werden zu viele Elektronen freigesetzt die in benachbarte Elemente „überlaufen“. Tritt vor allem bei CCD Flächensensor auf.

VI. Weißabgleich
Lichtquellen haben verschieden starke farbige Strahlungsanteile. Der Kamerasensor analysiert das Licht objektiv auf seine Rot- Blau- und Grünanteile. I  Glühlampen licht variieren  die RGB Werte stark und das Bild bekommt einen gelb-rot stich.

Automatischer Weißabgleich in Kameras, funktioniert bei hellen unbunten FFlächen gut
Manuell durch Farbtemperatur Schätzung oder Messung
Kalibrierung durch fotografieren eines weißen Gegenstandes
    

Weiterführende Links

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Server

Zentraler Rechner in einem Netzwerk, der den Arbeitsstationen/clients Daten, Speicher und Ressourcen zur Verfügung stellt. Auf dem Server ist das Netzwerk-Betriebssystem installiert, und vom Server wird das Netzwerk verwaltet. Im www sind Server Knotenpunkte des Netzes.

Ein Server kann aus einem Rechner mit zugehörigem Betriebssystem und einem Dienstprogramm bestehen.
Es gibt verschiedene Server-Klassen:

  1. File-Server: Stellt seinen clients Dateien und Platz auf dem Dateisystem bereit. Zusätzlich übernimmt er die Sicherung der Benutzerdateien.
  2. Applications-Server: ermöglicht dem Anwender den Zugriff auf ein oder mehrere Anwendungsprogramme.
  3. Datenbank-Server: Auf ihm läuft eine große Datenbank. Die Aufgabe des Servers ist die Verwaltung und Organisation der Daten, die schnelle Suche, das Einfügen und das Sortieren von Datensätzen.
  4. Internet-Server: stellt Internet- und Intranet-Dienste bereit. Typische Dienste umfassen das WorldWideWeb, den DomainName-Service, sowie e-mail...
  5. Media-Server: stellen Multimedia-Daten (Audio-, Videoclips) in Echtzeit und höchster Dienstqualität zur Verfügung.
Bewertung: 
0
Bisher keine Bewertung

Interne Speicher

VORSICHT! Alle Festplatten (auch die eingebauten) zu den externen Speichern.

Dies kommt daher, dass es bei der Erfindung des Computers (von-Neumann-Architektur) noch keine Festplatten gab sondern nur einen (eben internen) Speicher.

Quelle: Wikipedia

Daher hat man später alle Speicher, die nicht zum Arbeitsspeicher zählen als externe Speicher definiert. Alle Daten/Programme, die auf einem Rechner genutzt werden sollen, müssen aus externen Speicher erst in den internen Speicher geladen werden, um durch die CPU verarbeitet zu werden.

siehe http://de.wikipedia.org/wiki/Von-Neumann-Architektur

(sehr ausführliche Zusammenfassung von 2003)

Bewertung: 
0
Bisher keine Bewertung

Internetanschluss

Ein Internetzugang (auch Internetanschluss, Internetverbindung) bezeichnet im Allgemeinen die Nachrichtenverbindung eines Computers oder eines Netzwerkes mit dem Internet. (Quelle: Wikipedia)

Um Zugang zum Internet zu erhalten, benötigt man zunächst einen Host. Der Host ist permanent mit dem Internet verbunden und befindet sich meist im Rechenzentrum eines Providers wie z.B. 1&1, T-Online, Alice etc. Die Verbindung zum Host erfolgt über den nächstgelegenen Einwahlknoten und ist eine telefonische Verbindung. Hierbei unterscheidet man zwischen dem analogen und dem digitalen Zugang.

Analoger Zugang (mittels Telefonmodem)
Grafische Darstellung

  • nur noch selten genutzt
  • Übertragungsrate von max. 56,6 kbit/s, sofern Kopplung mit digitaler Vermittlungsstelle (ansonsten max. 40 kbit/s)
  • oft als Dial-Up-Verbindung bezeichnet, da wie beim Telefon ein Wählvorgang nötig ist
  • funktioniert nach dem Modulations-/Demodulationsprinzip, daher auch der Name

    MO(Modulation)DEM(Demodulation)
     

Digitaler Zugang mittels ISDN

  • ISDN steht für "Integrated Services Digital Network"
  • Eine Leitung kann für mehrere digitale Dienste gleichzeitig genutzt werden
  • Anschluss an das ISDN-Endgerät NTBA (=Netz-Terminator-Basisanschluss) erfolgt über einen ISDN-Adapter bzw. ISDN-Karte
  • höhere Kosten als beim analogen Anschluss
  • Übertragungsrate von max. 64 kbit/s pro Kanal (Kanalbündelung möglich, dann 128 kbit/s)

Digitaler Zugang mittels DSL
Grafische Darstellung

  • DSL steht für "Digital Subscriber Line"
  • Übertragungsrate von derzeit max. 100 MBit/s
  • Man unterscheidet symmetrische DSL (SDSL) und asymmetrische DSL (ADSL)
  • SDSL: Datenraten für Up- und Downstream sind gleich – teuer!
  • ADSL: Niedrigere Datenrate für Upstream – übliche, weil kostengünstige Variante

Wichtige Begriffe
TAE = Telekommunkations-Anschluss-Einheit (Bild)
NTBA = Netz-Terminator-Basisanschluss (Bild)

 

Bewertung: 
0
Bisher keine Bewertung

JDF

JDF steht als Abkürzung für Job Definition Format und basiert auf XML. JDF ist ein umfassendes, hersteller-, programm- und plattformunabhängiges Job-Ticket-Format für den gesamten Workflow von der Druckvorstufe über Druck und Druckweiterverarbeitung bis zur Auslieferung.

Die Aufgabe eines JDF-Format als Teil der vernetzten Druckerei ist es alle Arbeitsschritte eines Druckauftrages in einem Format zusammeln und zu editieren (es ist wie eine Art Auftragstasche).

Dadurch wird der gesamte Workflow flexibel und die Arbeitsschritte transparent und nachvollzieh- und kontrollierbar. Sie beschreibt zugleich das Konzept zur Vernetzung von Systemkomponenten und zur Automatisierung von Produktionsprozessen, sowie ihrer Steuerung und Überwachung. Aber auch betriebswirtschaftliche und kaufmännische aufgaben, wie Kostenrechnung, Kalkulation oder Angebotserstellu