Wiki zu Druck und Medien

Datenbearbeitung

Farbdefinition

Farbdefintion, Farbdichte, Farbräume, ...

Bewertung: 
0
Bisher keine Bewertung

Farbtemperatur

Laut wissenschaftlicher Definition ist die Farbtemperatur die Temperatur, die ein Schwarzer Körper (der alles Licht schluckt) haben müsste, um der jeweiligen Lichtquelle zu entsprechen – er müsste vereinfacht gesagt glühen, so wie z.B. Metall bei unterschiedlichen Temperaturen mit unterschiedlichen Farben glüht.

Mit der Farbtemperatur und der Einheit K (Kelvin) wird die Lichtfarbe gemessen, die eine spezifische Lichtquelle abgibt. Das Spektrum geht dabei von Rot über Gelb und Weiß zu blau. Je niedriger die Farbtemperatur ist, desto roter ist das abgegebene Licht.

Besondere Bedeutung kommt der Messung der Farbtemperatur bei der Fotografie und der Farbbeurteilung im Druck zu.
In der Fotografie muss die Farbtemperatur eingestellt werden, um die aufgenommenen Farben realistisch wiederzugeben. Das geschieht in der Digitalfotografie über den Weißabgleich, in der Analogfotografie über die Wahl von Tageslicht- oder Kunstlichtfilmen bzw. über entsprechende Filter.
Für die Farbbeurteilung im Druck muss ein neutralweißes Licht (Normlicht, D50) als Lichtquelle gewählt werden, da das menschliche Auge einen automatischen Weißabgleich vornimmt und Farben unter Lichtquellen mit »Farbstich« nicht richtig beurteilt werden können.

Abbildung

Übersicht der Farbtemperatur häufiger Lichtquellen:

Kerze: 1500 K
Glühlampe (40 W): 2200 K
Halogenlampe: 3000 K
Abendsonne: 3400 K
Normlicht: 5000 K
Tageslicht (Sonne): 5500 K
Bewölkter Himmel: 6500 bis 7500 K
Nebel: 8500 K
Himmel (blau) vor Sonnenaufgang: 9.000 bis 12.000 K

Bewertung: 
0
Bisher keine Bewertung

Farbensehen – Farbmetrik

  • die lichtempfindliche Struktur des Auges ist die Netzhaut
  • die enthält die Photorezeptoren (Stäbchen und Zapfen) sowie verschiedenartige Nervenzellen, die sich schließlich zum Sehnerv vereinen
  • die Rezeptoren wandeln als Messfühler den Lichtreiz in Erregung um
  • nur die Zapfen sind farbtüchtig
  • es gibt 3 verschiedene Zapfentypen, die je ein spezifisches Photopigment besitzen, dessen Lichtabsorption in einem ganz bestimmten Wellenlängenbereich ein Maximum aufweist
  • diese Maxima liegen im Rotbereich bei 600 – 610 nm (Rotrezeptor), im Grünbereich bei 550 – 570 nm (Grünrezeptor) und im Blaubereich bei 450 – 470 nm (Blaurezeptor)
  • durch die Überschneidung der Absorptionskurven sprechen auf viele Wellenlängen mehrere Zapfentypen in unterschiedlicher Stärke an
  • jede Farbe wird durch ein für sie typisches Erregungsverhältnis der 3 Rezeptorentypen bestimmt
  • die Farbvalenz ist die Bewertung eines Farbreizes durch die 3 Empfindlichkeitsfunktionen des Auges
  • pathologisch können eine oder mehrere Komponenten gestört sein oder ganz fehlen – es kommt dann zu Farbsehstörungen, der Farbenschwäche oder Farbenblindheit
  •  diese Störungen werden durch das X-Chromosom rezessiv vererbt

Farbmetrik

  • die Farbmetrik entwickelt Systeme zur quantitativen Erfassung und Kennzeichnung der Farbeindrücke (Farbvalenzen)
  • das menschliche Farbensehen wird messtechnisch erfassbar und ermöglicht somit eine objektive Prozesssteuerung des gesamten Workflows
  • die Normfarbwertanteile x, y und z kennzeichnen den geometrischen Farbort einer Farbe
  • sie lassen sich einfach aus den Farbvalenzen errechnen

Farbseparation

  • wenn es um das Drucken von Farben geht, hört man oft den Begriff Farbseparation. Dies kann mehreres bedeuten: Spotfarben, Schmuckfarben
  • als Spot- oder Schmuckfarben werden Farben bezeichnet, die nicht durch Farbmischung beim Drucken erzeugt werden, sondern dadurch, dass der jeweilige Farbton beim Drucken dazugegeben wird.
  • werden Spotfarben gedruckt, dann ist für jede Farbe eine separate Druckvorlage notwendig
  • will man 7 verschiedene Farben, benötigt man auch 7 Filme pro Seite
  • Farbseparation bedeutet hier, dass die einzelnen verwendeten Farben herausgefiltert und auf separaten Filmen belichtet werden

Vierfarbdruck

  • Farbseparation bedeutet beim Vierfarbdruck, dass die verwendeten Farben in ihre Grundbestandteile zerlegt werden, so dass 4 Filme benötigt werden
  • 16,7 Mio. Farbnuancen werden durch Mischen von 3 Grundfarben erzeugt
  • die 4. Farbe schwarz dient zur Qualitätssteigerung
  • durch ein satteres Schwarz werden Tiefen erzeugt, die durch die Mischung der 3 Grundfarben nicht erreichbar wären
  • dabei müssen die einzelnen Punkte so angeordnet werden, dass kein Moiré entsteht
  • Rasterweiten und Rasterwinkelungen müssen für jede Farbe unterschiedlich und sehr präzise eingestellt werden
  • hier werden sehr hohe Anforderungen an alle Komponenten gestellt
  • z.B. benötigt das Belichtungsstudio Belichter mit hoher Genauigkeit, die in klimatisierten Räumen stehen müssen
  • auch werden für Belichtungen von Filmen für den Vierfarbdruck neue Möglichkeiten der Rasterung (z.B. andere Punktformen) entwickelt

Analytische Farbmetrik

  • Normale = deskriptive (beschreibende) und analytische Farbmetrik
  • die „normale“ Farbmetrik hat die Aufgabe Farben zu messen und zu beschreiben und darüber hinaus in der „höheren“ Farbmetrik auch Farbunterschiede möglichst empfindungsgemäß richtig zu bewerten. Diese Aufgaben sind zusammenfassend als deskriptive einzustufen
  • die „analytische Farbmetrik“ geht der Farbe „auf den Grund“, bewertet die optischen Materialeigenschaften z.B. einer Lackfarbe in Gestalt ihrer optischen Daten, d.h. ihrer wellenlängenabhängigen Absorptions- und Streukoeffizienten
  • die normale Farbmetrik bestimmt z.B. eine Farbdifferenz, die analytische klärt ihre Ursache und ermöglicht ihre Beseitigung
  • während die normale, deskriptive Farbmetrik nur z.B. feststellen kann, dass zwischen 2 blauen Testaufstrichen eine Ursache dieser Farbdifferenz auf eine um 5% geringere Farbstärke zurückzuführen und die Farbdifferenz durch entsprechende Änderung der Konzentration zu beseitigen
  • s/w – Kontrast – appliziert man einen Lack in nicht deckender Schicht auf schwarz-weißem Kontrastkarton so ist zwischen Schwarz und Weiß ein Kontrast – die Berechnung des Deckvermögens des Lackes anhand der optischen Daten, die aus den R-Werten über Schwarz und Weiß berechnet werden können

Farbrezeptberechnung

  • mittels der optischen Daten, die sich aus den R-Werten von „Eichfärbungen“ berechnen lassen, werden die Konzentrationen von Farbmitteln berechnet, welche den gleichen Farbeindruck wie die Vorlage hervorrufen
  • die analytische ermöglicht die Berechnung von Farben aus optischen Materialkonstanten

 

Bewertung: 
0
Bisher keine Bewertung

Farbseparation

- ursprünglich eine klassische Aufgabe der Druckvorstufe, wird die Farbseparation für immer mehr Fotografen zum Thema
– mit den noch wenig verbreiteten Colormanagementsystemen und den passenden ICC-Profilen ist diese Problematik recht einfach zu lösen
– immer wieder hört man, einer der Hauptvorteile der Digitalfotografie sei die Tatsache, dass der Druck auf den Auslöser in Sekundenschnelle druckreife Bilddaten liefere
– da auch die Kunden diesen Schwachsinn vernehmen, verlangen immer mehr Auftraggeber aus Kosten- und Zeitgründen nicht nur digitale, sondern auch druckfertige Bilddaten
– zwar lässt sich das Digifoto tatsächlich sofort auf jedem beliebigen Fotodrucker ausgeben; vor den „echten“ Druck in Katalog, Zeitschrift oder Anzeige hat der Herr der Bilder allerdings die Farbseparation gestellt
– dieser Prozess bestimmt, wie der Bildinhalt auf die 4 Druckfilme verteilt wird
– es ist ein sehr komplexer Prozess, bei dem zahlreiche Faktoren berücksichtigt werden müssen
– die endgültige Farbgebung wird von der Vorstufe erst nach der Farbseparation festgelegt
– sinnvoll wäre es jedoch, dass ein digital arbeitendes Fotostudio den Schritt in den CMYK-Farbraum wagt: die Bilddaten sind vorhanden, ebenso wie das erforderliche „Werkzeug“
– der gut bezahlte Job der Farb-Reprografen wird heute langsam in Maschinen- bzw. Softwarewissen überführt
– wenn allerdings ein digitales Bild über einen Filmrekorder auf Diamaterial ausbelichtet wird, ist keine Farbseparation erforderlich
– Filmrekorder und Dia arbeiten im RGB-Farbraum

Separationssoftware
– Spezialprogramme wie etwa Linocolor (früher: Linotype), ResoLUT oder die speziell für Leaf-Digitalkameras abgestimmte Variante ColorShop von Scitex liefern exzellente Ergebnisse
– aber auch Photoshop bietet ein Fülle von Funktionen. Allerdings gehen hier die Meinungen was die Qualität angeht auseinander: eine Seite verschmäht die Separationsergebnisse von Photoshop, für die andere Seite ist es das Non Plus Ultra
– Photoshop ist auf einem kalibrierten System durchaus in der Lage, exzellente Resultate zu zeigen. Aber bereits eine einzige fehlerhafte Einstellung kann zum kompletten Bildermüll im Druck führen
– nur mit dem Klick auf den CMYK-Modus ist es nicht getan
– für gute Ergebnisse ist die absolut sorgfältige Eingabe der versch. Parameter entscheidend
– man kann versuchen mit der Trial-And-Error-Methode zu den korrekten Einstellungen zu kommen
– für ein echtes Verständnis der Farbseparation ist es aber ohnehin unabdingbar, sich mit den
theoretischen und praktischen Grundlagen des Prozesses vertraut zu machen

Basics: Addition und Subtraktion
– die Wurzel der Problematik liegt im Unterschied zwischen den Farbmodellen, die im Produktionsprozess eine Rolle spielen
– Digitalfotografie findet im RGB Farbraum statt
– für die Darstellung auf dem Monitor stehen 256 Abstufungen zur Verfügung
– insgesamt also 16,8 Mio Farben
– es ist das additive Farbmodell
– Legt man alle 3 Farben in voller Intensität übereinander entsteht weiß
– das Übereinanderlegen in minimaler Intensität (0,0,0) ergibt schwarz
– subtraktives Farbmodell: CMYK, verhält sich gegenüber RGB genau andersherum
– es ist das subtraktive Farbmodell
– Druckt man alle 3 Bunt-Farben (c,m,y) in voller Intensität übereinander entsteht Schwarz
– das Übereinanderlegen in minimaler Intensität ergibt lichte Töne
– Farbe auf dem Monitor ist selbstleuchtend. Gilt auch für Dias (wirkt wie Filter zwischen Netzhaut und Umgebungslicht). Gedruckte Farbe: matter Reflex: das einfallende Licht wird von den Farbpigmenten reflektiert und auf das Auge projiziert
– Folge: die Farbwirkung des Drucks weicht auch dann von der Monitordarstellung ab, wenn alle RGB-Farben tatsächlich den CMYK-Werten entsprechen (weiß & schwarz auf Monitor wirken anders als auf Papier)
– die Kunst der Farbseparation besteht darin, die grundsätzlichen Probleme bei der „Übersetzung“ jedes RGB-Wertes in ein CMYK-Wert so weit wie möglich zu eliminieren und ein visuell gefälliges Ergebnis im Druck sicherzustellen
– es kommt dabei nicht darauf an, dass einzelne Farben absolut exakt wiedergegeben werden, wichtiger ist viel mehr, dass der Gesamteindruck stimmt
– ebenso entscheidend ist, dass vor der Separation mechanisch-physikalische Eigenschaften des Druckprozesses vorhergesehen und bei der Berechnung der Farbwerte für die einzelnen Bildpunkte berücksichtigt werden.

– Die wichtigsten sind:

Tonwertzuwachs
– der gleichen Tropfen Tinte ergibt auf grobem Löschpapier einen größeren Fleck als auf glattem Briefpapier
– dasselbe zeigt sich beim 4-Farbdruck auf versch. Papiersorten
– auf entsprechend saugfähigem Papier kann eine am Monitor auf 50% Grau eingestellte Fläche wesentlich dunkler ausfallen, da die einzelnen Rasterpunkte auslaufen
– verschiedene Druckarten haben unterschiedlichen Tonwertzuwachs, da die Druckform unterschiedlich stark an das Papier gedrückt wird; das bewirkt, dass der Druckpunkt leicht auseinandergedrückt wird.
– im Photoshop wird dieser Wert unter den Separationseinstellungen eingestellt

UCR

– UCR steht für Under Color Removal (Unterfarbenreduzierung) und bewirkt, dass bei dunklen Farben die Tiefe vor allem durch den Schwarzauszug erreicht wird – hierzu reduzieren die entsprechenden Separationsalgorithmen gleiche Anteile der drei Druckfarben und ersetzen diese durch schwarz.

GCR
– GCR steht für Gray Component Replacement (Unbuntaufbau)

– GCR ist für einen Großteil der Produktionsmethoden (besonders im Rollenoffset) der Standard
– Beim GCR-Schwarzaufbau wird eine wählbare Menge von Grauanteilen einer Farbe ersetzt.
– Vorteil: Neutrale Grautöne bekommen bei schwankendem Farbauftrag im Druck keinen Farbstich
– Nachteile: subtile Farbverläufe (etwa in Hauttönen) fallen unter Umständen zu hart aus

Step-by-Step
– ausgehend von einem RGB-Bild erfordert die erstmalige Farbseparation mit Photoshop zum einen die Grundkalibrierung des Systems, zum anderen die Eingabe der eigentlichen Separationseinstellungen

Schritt 1: Kalibrierung
– umfaßt die Einstellung des Monitorgammas und die Abstimmung des Bildschirm-Weiß auf die Farbe des später im Druck verwendeten Papiers
– dazu kommt die Monitorfarbeinstellungen, die deshalb besonders wichtig sind, weil die hier vorgenommenen Änderungen die Umwandlung von RGB in CMYK beeinflussen (Grundkalibrierung muß nur einmal gemacht werden)

Schritt 2: Bearbeitung
– RGB-Bild kann nun beliebig bearbeitet werden
– Warum führt man nicht die komplette Bildbearbeitung nach der Farbseparation durch? Weil die Bilddatei durch die Separation um ein Drittel größer wird, was die Performance des Rechners vermindert
– viel gravierender ist, dass eine Reihe von Photoshop-Funktionen (vor allem Filter) für Bilder im CMYK-Modus nicht zur Verfügung stehen
– schwierig ist auch, in einigen CMYK-Situationen Korrekturen vorzunehmen
– wenn das alles nicht stört, spricht nix gegen die Bearbeitung im CMYK-Modus, allerdings nur dann wenn Separations- und Druckfarbeneinstellungen schon vor der Separation des Bildes korrekt eingegeben wurden

Schritt 3: Separationseinstellungen
– vor der eigentlichen Farbseparation sind Separationseinstellungen festzulegen
– diese umfassen die Separationsart (GCR mit Wahl des Schwarzaufbaus oder UCR) sowie den Wert für max. schwarz
– genauen Werte für alle Einstellungen sind bei der Druckerei zu erfragen
– Optionen des Schwarzaufbaus zeigen die Kurven an, wie die Neutraltöne (x-Achse) durch die 4 Prozeßfarben gemischt werden
– Schwarzaufbau bestimmt, wie die neutralen Tonwerte zwischen Weiß und Schwarz durch Mischen der 4 Druckfarben generiert wird
– Standardeinstellung: mittel ohne: Bild wird nur in CMY separiert (Schwarzkanal bleibt leer)
Maximal: alle Neutraltöne werden komplett in den Schwarzauszug verschoben

Schritt 4: Druckfarben
– als nächstes sind die Druckfarben festzulegen
– es handelt sich hier um ein „Einstellungspaket“, dass Papierart, Druckfarben und Tonwertzuwachs definiert
– Standard-Vorgabe von Photoshop: SWOP gestrichen
(Specifications for Web Offset Publications auf gestrichenem P.)
– in Deutschland ist „Euroskala“ gebräuchlich

Schritt 5: Separation
– jetzt kann man endlich per Mausklick auf Bild – Modus – CMYK die Separation in Gang setzen
– Photoshop erstellt die Separationstabelle und ändert nach der Umwandlung gegebenenfalls die Bilddarstellung, um eine Vorschau des zu erwartenden Druckergebnisses zu geben – sollte diese nicht zufrieden stellen, macht es keinen Sinn, nun die Separations- und Druckfarbeneinstellungen zu ändern, denn diese werden nur beim eigentlichen Separationsvorgang berücksichtigt
– stattdessen sollte man sofort den Widerruf-Befehl anwenden oder zum Ausgangsbild zurückkehren, bei den Schritten 2-4 Änderungen vornehmen und das Bild dann erneut separieren
– wichtig zu wissen: wenn man rückkonvertiert (von CMYK auf RGB) wird nicht das ursprüngl. Bild wiedergegeben, sondern auf Grund der Rundungsfehler ein leicht verändertes. Deshalb sollte man auf jeden Fall eine nicht separierte Variante des Bildes sichern um später mit den Originaldaten gegebenenfalls eine andere Separation durchführen zu können.

Schritt 6: Separationstabellen
– nach der Separation, sollte man abschließende Farb- und Kontrastkorrekturen vornehmen
– diese werden das Ziel verfolgen, ungewollte, durch die Umwandlung verursachte Farbabweichungen zu kompensieren

Goldene Regeln
– Bilder sollten nicht mehrmals zwischen RGB und CMYK hin- und herkonvertiert werden, da hierbei jedesmal ein gewisser Informationsverlust auftritt
– es empfiehlt sich, in Photoshop die Funktion Farbumfang-Warnung zu aktivieren.
Diese zeigt bereits bei der Bearbeitung eines RGB-Bildes an, wenn bestimmte Farben in CMYK nicht druckbar sind. Spezialfunktion der Informationen-Palette (relativ unbekannt): wird der Mauszeiger über nicht druckbare Farben bewegt, erscheint in ihr hinter den CMYK-Werten ein Ausrufezeichen
– Änderungen der Separationseinstellungen bei einem CMYK-Bild werden in Photoshop nach dem Klick auf OK zwar bei der Bilddarstellung berücksichtigt; die eigentlichen Bilddaten bleiben jedoch unverändert und werden erst dann korrekt modifiziert, wenn das ursprüngliche RGB-Bild erneut separiert wird – für besonders anspruchsvolle Produktionen lassen sich die farblichen Einschränkungen des CMYK-Modells umschiffen (z.B. mit dem Hexachrom-Prozeß von Pantone). Hierbei werden – zusätzlich zu verbesserten CMYK-Farben – 2 weitere Druckfarben eingesetzt: orange & grün.
Dadurch kann mehr als die doppelte Anzahl der Pantone-Farben simuliert werden wie im herkömmlichen Vierfarbdruck. Andere setzen auf 7 Farben und können damit sogar die Anzahl der Nuancen des RGB-Farbraums übertreffen.
– Vorsicht mit Selbstbezichtungen, wenn ein separiertes Bild im Druck einmal völlig daneben geht, denn nicht immer ist der Fehler bei der Separation zu suchen. Manche Vorstufenbetriebe und Druckereien lassen separationswillige Fotografen gern einmal gegen die Wand fahren. Die Methoden reichen von schlichter Verweigerung der notwendigen Info bis hin zur regelrechter Sabotage.

Farbseparation:
Übergabe zwischen RGB- und CMYK-Farbmodus
a) Vor- und Nachteile der Farbmodi RGB und CMYK
– eigentlich sind alle Tonwert- und Farbkorrekturen sowohl im RGB als auch im CMYK-Modus durchführbar, man sollte sich trotzdem vorher genau überlegen, welchen Modus man verwendet
– mehrfache Konvertierungen zwischen den Modi sollte vermieden werden, da bei jeder Konvertierung Farbwerte gerundet werden und verloren gehen
– falls ein RGB-Bild nur auf dem Monitor verwendet wird, muss es nicht in ein CMYK-Bild umgewandelt werden
– umgekehrt brauchen Korrekturen nicht im RGB-Modus vorgenommen werden, wenn ein CMYK-Scan
separiert und gedruckt werden soll
– wenn das Bild jedoch ohnehin von einem Modus in den anderen konvertiert werden muss, ist es sinnvoll die meisten Tonwert- und Farbkorrekturen im RGB-Modus und die Feineinstellungen im CMYK-Modus vorzunehmen
– beim Arbeiten im RGB-Modus hat man folgende Vorteile:
– man spart Arbeitsspeicher und verbessert die Leistung
– die Arbeit ist weniger geräteabhängig, da RGB-Farbräume nicht von Monitoren oder Druckfarben abhängig sind. Im RGB-Modus vorgenommene Korrekturen bleiben unabhängig vom verwendeten Monitor, Computer oder Ausgabegerät erhalten. Wird eines dieser Geräte ausgetauscht, muss nur die entsprechenden CMYK-Einstellungsoption geändert und das RGB-Bild anschließend wie der in ein CMYK-Bild konvertiert werden
– bei bestimmten Farbauszügen kann ohnehin nur im RGB-Modus gearbeitet werden
– wenn ein Bild z.B. mit der Option „Schwarzaufbau: Maximum“ im Separations-Einstellungsdialog separiert wurde, ist es schwierig, wenn nicht sogar unmöglich, Korrekturen vorzunehmen, für die die Cyan-, Magenta- oder Gelbanteile stark erhöht werden müssen. In diesem Fall muss das Bild wieder in den RGB-Modus umgewandelt, die Farben korrigiert und dann das Bild erneut separiert werden

b) die verschiedenen Farbumfänge
– der Farbumfang eines Farbsystems ist der Farbbereich, der in diesem System angezeigt oder gedruckt werden kann.
– eine nicht druckbare Farbe ist eine Farbe, die im RGB- oder HSB-Modell angezeigt, aber nicht gedruckt werden kann, weil es keine Entsprechung im CMYK-Modell gibt
– das vom Auge wahrnehmbare Farbspektrum ist größer als der Farbumfang verschiedener Farbmodelle
– unter den Farbmodellen hat das Lab-Modell den größten Farbumfang – es umfasst Farben des RGB- und CMYK-Farbumfangs
– der RGB- Farbumfang ist Teilmenge der Farben, die Computer- und Fernsehmonitore anzeigen können
– einige Farben (z.B. reines Cyan oder Gelb) können daher am Bildschirm nicht korrekt angezeigt werden
– der CMYK- Umfang ist kleiner und enthält nur Farben, die mit Vierfarbdruckfarben produziert werden können
– Farben, die am Bildschirm dargestellt, aber nicht gedruckt werden können, werden als nicht druckbare Farben bezeichnet; sie liegen außerhalb des CMYK-Farbumfangs

c) Notwenigkeit einer digitalen Farbsteuerung
– die meisten Schwierigkeiten, die beim Reproduzieren von Farben, welche mit dem Computer erstellt wurden entstehen, ergeben sich aus dem Farbumfang, der mit Monitoren mit Rot, Grün und Blau dargestellt wird und der sich stark von dem Farbumfang der in herkömmlichen Druckverfahren benutzten Farben Cyan, Magenta, Gelb und Schwarz unterscheidet
– die Unterschiede zeigen sich jedoch auch zwischen verschiedenen Monitoren, Druckern und Layoutprogrammen
– deswegen ist eine Abstimmung zwischen den beteiligten Geräten, eine sogenannte „Kalibrierung“ notwendig, um zu einwandfreien Ergebnissen zu kommen.

Bewertung: 
3
Durchschnitt: 3 (2 Stimmen)

Metamerie

Jeder hat es wohl schon erlebt, dass ein Kleidungsstück im Geschäft unter Kunstlicht einen anderen Farbton zu haben schien als später draußen bei Tageslicht. Eben dieses Phänomen versteht man unter Metamerie: ein Farbton ändert sich mit der vorhandenen Lichtquelle bzw. dem Umgebungslicht.

Das hängt mit der Farbtemperatur der jeweiligen Lichtquelle zusammen, die zum Beispiel ein gelblicheres Licht (wie eine Glühbirne) oder ein weißes Licht (Tageslicht bzw. Normlicht) abgeben kann.

Zur verlässlichen, sicheren Beurteilung von Farben ist daher immer ein standardisiertes, weißes Licht (Normlicht) nötig, um Metamerie-Effekte zu vermeiden.

Die Firma Cleverprinting hat einen Testkeil mit metameren Farben entwickelt, der in etwa so aussieht wie das Bild unten zeigt. Mit ihm kann man zum einen die Farbtemperatur des Umgebungslichtes beurteilen, zum anderen sieht man, welche Auswirkungen Metamerie-Effekte bzw. die Farbdarstellung unter nicht-Normlicht haben kann.
Abbildung
Im oberen Fall ist das Umgebungslicht neutral, d.h. bei ca. 5000 K. Alle Farbfelder scheinen den gleichen Farbton zu haben. Im unteren Fall jedoch weicht das Umgebungslicht von 5000 K ab, so dass die Farbfelder deutlich unterschiedliche Töne zu haben scheinen.

Bewertung: 
0
Bisher keine Bewertung

Metamerie und Metamerieindex

Das Phänomen der Metamerie, ist die bedingte Gleichheit von Farben. Zwei oder mehr Farben erscheinen nur unter einer bestimmten Lichtart (z.B. Neonlampe) gleich und unterscheiden sich ansonsten aufgrund ihrer spektralen Eigenschaften (z.B. die verwendeten Pigmente und Farbstoffe) bei jeder anderen Beleuchtung.
Metamarie entsteht nie an einer Farbe allein. Z.B. wirkt ein weißes Hemd in rotem Sonnenlicht anders als in gelben Sonnenlicht. Metamarie ist der mit dem Licht veränderliche Farbunterschied zwischen zwei und mehreren Farben.

Der Metamerieindex ist der Delta-E-Wert im CIE- L*a*b – System unter jeweils zwei Lichtarten – meist von der Tageslicht- (C, D50, D60) zur Kunstlichtart (A).

Bewertung: 
0
Bisher keine Bewertung

Unscharfmaskierung

Die Unscharfmaskierung ist eine Methode, mit der ein Bild nachgeschärft werden kann. Im Gegensatz zur allgemeinen Scharfzeichnung sind dabei an drei Parametern Einstellungen möglich. Ziel ist es nicht, das komplette Bild zu schärfen, sondern nur die Stellen, die ohnehin schon eine gewisse Schärfe haben – oder anders gesagt, der Unterschied zwischen den scharfen und unscharfen Bildstellen wird verstärkt.

Abbildung

Generell funktioniert eine Scharfzeichnung so, dass die Software versucht, Kanten im Bild zu finden und diese dann zu betonen. Das ist bei der Unscharfmaskierung nicht anders, und so stellt man über den Radius ein, wie viele Pixel eine Kante aufweisen darf. Bei einem hohen Radius wird der Kontrast zwischen hellen und dunklen Bildpartien extrem erhöht.

Abbildung

Der Schwellenwert gibt an, wie ab welchem Helligkeitsunterschied überhaupt eine Kontur vorhanden ist. Ist der Wert niedrig, werden mehr Bildteile als Kontur wahrgenommen als bei einem hohen Wert.

Abbildung 

 

Bei der Stärke (im Fenster ganz oben) stellt man ein, welchen Unterschied die Kante zum Ursprungswert haben darf – sei es zum Hellen oder Dunklen hin. Bei hoher Stärke und gleichzeitig niedrigem Schwellenwert wirkt das Bild gesprenkelt.

Bewertung: 
0
Bisher keine Bewertung

Audiobearbeitung

Aufnahme

Grundsätzlich gilt: Nehmen Sie in hoher Qualität auf und reduzieren Sie die Datenmenge am Ende der Bearbeitung auf das benötigte Enddateiformat.

 

Making of

 

Qualitäteinstellen:

  • Abtastfrequenz (Samplingrate) z. B. 96 kHz
  • Abtasttiefe z. B. 24 Bit
  • Kanalanzahl z. B. Stereo

 

Grundsätzlich gilt, dass der Pegel so nahe wie möglich an der Aussteuergrenze von 0 dB liegen sollte, um

den Abstand zwischen Signal und (unvermeidlichem) Rauschen so groß wie möglich zu machen.

Achten Sie aber darauf, dass die Aufnahme nicht übersteuert wird, da es sonst zum Abschneiden (Clipping) der Abtastwerte kommt.

 

Schneiden

gehört sicherlich zu den wichtigsten Aufgaben der Soundbearbeitung. Ziele könnten sein,

  • eine Aufnahme auf eine gewünschte Länge zu reduzieren,
  • Teile einer Aufnahme in eine andere Tonspur zu kopieren oder
  • Störanteile einer Aufnahme zu löschen.

 

Mischen

Beim Mischen werden mehrere Tonspuren aufeinander abgestimmt. Dies kann beispielsweise notwendig sein, um eine Sprecherstimme mit Hintergrundmusik zu hinterlegen oder um mehrere einzeln aufgenommene Instrumente zu einem Gesamtklang zu kombinieren.

 

Normalisieren

Wenn im Vorfeld richtig ausgepegelt wird, kommt es bei der Aufnahme nicht zum „Clipping“ von Abtastwerten. Andererseits wird dann aber das Spektrum an zulässigen Werten möglicherweise nicht voll ausgenutzt. Diesen Nachteil behebt die Normalisieren-Funktion (Normalize) des Audioeditors: Die Software sucht den größten Pegel der Aufnahme und verstärkt danach alle Pegel so, dass der maximale Wert an der Aussteuergrenze liegt.Hierdurch erhält man also die gerade noch zulässige Verstärkung, ohne dass es zum Clipping kommt.Die Normalisieren-Funktion sollte grundsätzlich auf alle Sounds einer Produktion angewandt werden. Dies führt dazu, dass die Sounds bei der Wiedergabe eine einheitliche Lautstärke besitzen.

 

Ein- und Ausblenden (Faden)

Auch das Einblenden (Fade-in) oder Ausblenden (Fade-out) eines Sounds gehört zu den Standardfunktionen der Soundbearbeitung. Dabei wird der Soundpegel im ersten Fall sukzessive von null bis zur normalisierten Lautstärke angehoben und im zweiten Fall auf null reduziert. Diese Technik wird verwendet, um

  • die Länge eines Sounds anzupassen,
  • einen „weichen“ Übergang zweier Sounds zu erzielen (Crossfade mix),
  • eine Soundschleife zu realisieren, wenn ein „Loopen“ nicht möglich ist.

 

Klangregelung (Equalizer)

Mit Hilfe eines Equalizers lassen sich gezielt Frequenzveränderungen vornehmen. Das Frequenzspektrum der Aufnahme wird hierzu in „Frequenzbänder“ unterteilt, die individuell verstärkt oder abgeschwächt werden können. So lassen sich beispielsweise tiefe Frequenzen (Bässe) verstärken und hohe Frequenzen (Höhen) absenken. Diese Regelmöglichkeit kennen Sie von der Stereoanlage. Alternativ kann auch gezielt nach Störfrequenzen (Rauschen, Pfeifton, S-Laute in Sprachaufnahmen) gesucht werden, um diese aus dem Gesamtsignal zu filtern.

Tonhöhenänderung (Pitching)

Mit Hilfe des Pitchreglers lässt sich die Tonhöhe einer Aufnahme in beiden Richtungen verändern, also erhöhen oder absenken. Ersteres führt bei Sprache zu der bekannten „Micky-MausStimme“ und Letzteres zu einer tiefen und unnatürlichen „Roboterstimme“. In Maßen eingesetzt kann der Filter jedoch durchaus zu einer Verbesserung des Klangbildes beitragen. Weiterhin wird der Filter dazu verwendet, unterschiedliche Tonhöhen von Sounds aneinander anzupassen. Die Funktion entspricht dann dem Stimmen von Instrumenten.

 

Tempoänderung (Time compress/ Time expand)

Oft kommt es vor, dass zur Nachvertonung einer Multimedia-Produktion oder eines Videos die Länge des Sounds nicht mit der Filmdauer übereinstimmt. Abhilfe bietet hier die Möglichkeit, die Dauer des Sounds zu verändern, ohne dass hiervon die Tonhöhe betroffen ist. Im Unterschied zum Pitching verändert sich der Sound klanglich also nicht. Die Software verlängert bzw. verkürzt lediglich  die Tonabstände.

 

Hall (Reverb)

Hall simuliert die Schallreflexionen innerhalb eines Raumes. Hierbei kann der gewünschte Raum ausgewählt werden,zum Beispiel eine Halle oder Kirche.

 

Echo

beim elektronisch hinzugefügten Echo handelt es sich um eine zeitlich verzögerte Wiederholung des Originals. Verzögerungszeit, Anzahl und Pegel der Wiederholung lassen sich hierbei vorgeben.

 

Rauschunterdrückung (Noise Gate)

Bei Sprachaufnahmen ist es trotz großer Sorgfalt nicht immer vermeidbar, dass Rauschen (Noise) mit aufgenommen wird. Zur Reduktion dieses Rauschens gibt es Filter zur Rauschunterdrückung. Hierzu muss eine Schwelle in dB vorgegeben werden, unterhalb der ausgefiltert wird. Wenn beispielsweise ein Rauschsignal bei – 45 dB liegt,dann muss diese Schwelle knapp oberhalb von – 45 dB eingestellt werden.

 

Lautstärkenänderung (Volume)

Die Lautstärkenänderung – Verstärkung oder Dämpfung – ist zum Abmischen mehrerer Tonspuren  unerlässlich.

 

Kompressor

Ein Kompressor kann dazu verwendet werden, um leise Passagen anzuheben, ohne dass dabei lautere Passagen zu sehr in den Vordergrund treten.

 

Schleifen (Loops)

Multimediale Produkte sind in der Regel interaktiv. Für die Nachvertonung bedeutet dies, dass die benötigte Länge eines Sounds nicht vorherbestimmt werden kann, da die Verweildauer auf einem bestimmten Screen vom Benutzer abhängig ist. Um dieses Problem zu umgehen, müssen Anfang und Ende eines Sounds aufeinander abgestimmt werden, so dass der Sound später als Schleife (Loop) abgespielt werden kann. Es leuchtet ein, dass das Loopen eines Sounds nicht generell möglich ist. Oft passen Anfang und Ende vom Rhythmus, der Melodie und dem Takt nicht zusammen. Abhilfe schaffen hier CDs, die Soundloops enthalten. Aus diesen lassen sich mit etwas Geschick neue Sounds „sampeln“, für die dann auch keine GEMA Gebühr bezahlt werden muss.

 

Quelle: Kompendium der Mediengestaltung 5. Auflage

Bewertung: 
0
Bisher keine Bewertung

Digitalfoto Workflow

Guten Tag,

Wenn ihr mit dem Raw Format oder Jpeg oder TIFF fotografiert ist es sehr wichtig die Orginale zu sichern.

Also die Orginale werden nicht bearbeitet sondern die Sicherheitskopien.Beim Jpeg Format ist es besonders wichtig weil Jpeg verlustbehaftet ist das bedeutet nach jeden speichern Bildinformationen verloren gehen.

Es würde sich anbieten die Jpeg Datei in ein verlustfreies Dateiformat umzuwandeln und abzuspeichern.

Als ersten erfolgt die Raw Konvertierung.Mit dem Konveter haben wir verschiedene Möglichkeiten unser Bild zu bearbeitren.Als erstes erfolgt in der Regel der Weissabgleich.Danach gibt es verschiedenste Einstellungsoptionen um unser Bild zu bearbeiten.

Es ist nicht schlimm wenn das Bild bevor wir es in unser Bildbearbeitungsprogramm importieren noch ein wenig blass und kontrastarm ist.

Das kann man ohne Probleme nach bearbeiten.(Einstellungsebenen)

Jetzt kommen wir zur Bildanalyse macht euch Gedanken für welchen Zweck ihr das Bild braucht.

Möchtet ihr eine natürliche, dezent wirkende Bearbeitung? Oder darf es etwas mehr sein.

Muss die Aufnahme entfleckt werden, um sie “aufgeräumter” wirken zu lassen?

Sollen einzelne Bildbereiche retuschiert werden?

Stimmen die Kontraste? Decken die Tonwerte das gesamte Spektrum von ganz dunklen bis zu ganz hellen Tönen ab?

Sind die Farben gut? Hat das Bild einen Farbstich? Soll die Leuchtkraft der Farben verstärkt oder abgemildert werden?

Wirkt die Aufnahme vielleicht besser in Schwarzweiß oder getont?

Müssen stürzende Linien ausgerichtet oder muss das gesamte Bild gedreht werden?Könnte der Ausschnitt noch optimiert werden?

 

Kommen wir jetzt zur Retusche und Montagearbeiten(z.B störende Bildpunkte...Hautunreinheiten entfernen) diese Aufgabe kann sehr zeitaufwendig sein.

Deswegen fangen wir damit an.Vergesst nicht immer wieder Zwischenspeicherungen zu machen.

Als nächtes müssen wir uns überlegen ob wir das Bild in Farbe oder Schwarz/Weiss haben möchten.

Anschließend überprüfen wir noch den Tonwertumfang

Idealerweise führt man eine Tonwertkorrektur mit der größten Farbtiefe durch, die die Kamera und das Bearbeitungsprogramm zulassen.

Kommen wir jetzt zur Farbanpassung das ist der kreative Teil den man so gestalten kann wir man es möchten.

Anschließend die Helligkeits und Kontrasteinstellungen vornehmen dann noch den Schnitt anpassen und die Ausgabeversion erstellen fertig.

 

 

 

 

 

 

Bewertung: 
0
Bisher keine Bewertung

Camera-RAW-Workflow

Camera-RAW-Workflow

1. Bildübertragung und bildverwaltung

  • Übertragen über...

    integrierten Cardreader

    externen Cardreader mit USB-Anschluss

  • Dateien Aussortieren, Umbennen und Verschlagworten

    Software:

    Adobe Bridge (Bildverwaltung)

    Adobe Photoshop mitRaw-Konverter (Bildkonvertierung und -bearbeitung)

    Adobe Photoshop Lightroom (Bildverwaltung, Bildkonvertierung, Bildbearbeitung)

    Camera eigene Software mit Raw-Konverter

  • Benamung: „Sprechende Dateinamen“

  • Metadaten und Stichwörter :Exif und IPTC (Jpg und Tiff,) bzw. Xml-Datei (Raw)

    Kameradaten (Brennweite, Blitz, Weißabgleich, Sensortyp, Markem Modell,etc)

    Dateieigenschaften( Dateiname, -format, -größe, Maße, Auflösung, Bittiefe, Farbmodus und -profil)

    IPTC (Nutzungsrechte,Herkunft, etc.)

  • Orginalbilder archivieren und für die Weiterbearbeitung kopieren

 

2. Globale Bildbearbeitung

  • Arbeitsfarbraum festlegen (Raw)
  • Bildgröße und Auflösung festlegen (Raw)
  • Bilder drehen und zuschneiden (Raw)
  • Korrekturen technischer Objektivfehler (Raw)

    Vignettierung
    =>ungleichmäßige Helligkeitsverteilung vom Zentrum hin zu den Bildrändern
    =>tritt vorallem bei Weitwinkelobjektiven auf

    Verzeichnung
    =>Kissen- oder tonnenförmig Verzerrung
    =>Enstehen durch unsymetrischen Objektivaufbau und unsymetrischer Position der Blende im Objektiv Chromatische Aberration
    =>Farbsäume und unscharfe Kanten
    =>entstehen dadurch, dass Objektivlinsen die Wellenlängen des Lichts unterschiedlich stark brechen.

  • Bildoptimierung (Raw)

    Weißabgleich, Farbtemperatur
    => automatische Profile verwenden oder manuell z.B. über die Pinpette

    Bildhelligkeit und Kontraste
    =>Histogramm
    =>Tonwertkorrektur
    =>Gradationskurve (für differenzierte Korrekturen der Tonwerte)
    =>Belichtung, Wiederherstellung, Aufhelllicht, Schwarz, Helligkeit,

    =>Kontraste und Klarheit

    =>Farbsättigung (Dynamik und Sättigung)
    Bildschärfung und Rauschen rezuieren

    Perspektive korrigieren und begradigen (Raw)

  • Raw-Formate in Ausgabeformat konvertieren

3. Selektive Bildbearbeitung

  • Selektive Farbkorrekturen (Jpg/Tiff)
  • Retusche (Jpg/Tiff)
  • Weiterführende Bildbearbeitungen wie z.B. Composing oder Panormabilder (Jpg/Tiff)

4. Bild für die Ausgabe vorbereiten

  • Farbprofil einbetten (Jpg/Tiff)

  • Speichern und Ablegen

Bewertung: 
0
Bisher keine Bewertung

Display-Berechnung

Rechnen mit Seitenverhältnis

Diagonale und Seitenverhältnis ist gegeben

Gegeben: Seitenverhältnis: 4:3 und Diagonale: 15 Inch
Gesucht: Breite und Höhe

a/b = 4/3     | x b
a = 4b / 3    | Einsetzen in Pythagoras

15² = (4b/3)² + b²
225 = (16b² / 9) + b²             | x 9
2025 = 16b² + 9b²
2025 = 25b²       | : 25
81 = b²                | √
b = 9 Inch (Höhe)

3 = 9 Inch
4 = 9 : 3 x 4 = 12 Inch (Breite)

Links:

http://www.mediencommunity.de/content/monitor-mathe

http://www.mathemedien.de/pruefung.html

Bewertung: 
0
Bisher keine Bewertung

Farbkonvertierung

Allgemein:

  • Farben müssen je nach Ausgabegerät, wenn Farbräume nicht übereinstimmen, konvertiert werden.
    Beispiel:
    Monitor: vorhandene CMYK-Daten werden zu RGB-Daten konvertiert
    Drucker: vorhandene RGB-Daten werden zu CMYK-Daten konvertiert
  • Da Farbärume unterschiedlich groß sind, kommt es zu Farbveränderungen bei der Konvertierung in einen anderen Farbraum.

Druckproduktion:

  • Farben müssen in ein entsprechendes CMYK-Farbprofil für das jeweilige Druckverfahren konvertiert werden.
  • Druckverfahren, Papierweiße, der maximale Farbauftrag, Punktzuwachs usw. müssen bei der Farbkonvertierung berücksichtigt werden.

Early binding:

  • CMYK-Farbraum wird bereits am Anfang der Produktion festgelegt.
  • Bei der Konvertierung in Photoshop kann auf Farbveränderungen durch die Konvertierung direkt reagiert werden.
  • Early binding empfiehlt sich nur wenn man bereits zu Beginn der Produktion weiß wie das Druckerzeugnis hergestellt wird.

Intermediate binding:

  • Im Layout wird noch mit RGB-Daten gearbeitet.
  • Die Farben werden erst bei der Erstellung der Druckdaten PDFs konvertiert.
  • Höhere Flexibilität und Ausgabesicherheit
  • Softproof ermöglicht das Simulieren der CMYK-Farben wodurch auf Veränderungen noch Einfluss genommen werden kann.

Late binding:

  • Im Layout wird noch mit RGB-Daten gearbeitet.
  • Farbkonvertierung der Druckdaten findet erst in der Druckerei statt.
  • Vorteil: Die Druckerei Konvertiert die Daten in das für die Produktion benötigte CMYK-Modell
  • Für dieses Verfahren würde das PDF/X-3 Format entwickelt.
  • Empfiehlt sich nur wenn Datenlieferant und Datenempfänger nach Norm arbeiten und wissen wie PDF/X-3, die RGB-Daten beinhalten, zu verarbeiten sind.
  • Im Idealfall ein Digitalproof anfordern um Farbveränderungen einschätzen zu können.
  •  

Profilierung und Kalibrierung
Profilierung und Kalibrierung gehören zusammen und die Profilierung baut auf der Kalibrierung auf.
Bei der Kalibrierung bezeichnet man die für ein Gerät (z.B. Scanner) oder ein Verfahren (z.B. Offsetdruck) notwendigen Grundeinstellungen. Diese Grundeinstellungen sichern die gleichbleibende Funktionsweise und somit die konstante Qualität über einen bestimmten Zeitraum.
Für einen Monitor ist beispielsweise die Einstellung von Weiß- und Schwarzpunkt, Kontrast und Helligkeit sowie Farbtemperatur für eine anschließende Profilierung entscheidend.
Das Ergebnis der Profilierung ist dann beim Monitor das ICC-Profil, welches mithilfe der Farbmesstechnik das Farbverhalten des Geräts oder Verfahrens beschreibt.

Rendering Intents

Es gibt vier Varianten (Rendering Intents) von Farbraumkonvertierung/Farbraumtransformation: 

Perzeptiv (wahrnehmungsorientiert):
-bei Farbbildern
-großer Farbraum in kleinen, Bsp.: RGB in CMYK
-Farben, die außerhalb des Zielfarbraums liegen, werden stark verschoben, Farben am Rand weniger stark, Farben im Innenraum leicht
-nicht-lineare Komprimierung

Farbmetrisch:
-für Proof
-Clipping-Vorgang: kleiner Farbraum in großen, Bsp.: Offset-CMYK in Proofer-CMYK
-der kleinere wird exakt im größeren abgebildet

Absolut farbmetrisch:
-Proofpapier hat andere Farbe als Auflagenpapier, Papierfarbe wird simuliert

Relativ farbmetrisch:
-Proofpapier hat Farbe des Auflagenpapiers (Auflagenpapier benötigt)

Sättigung:
-für Infografiken
-Skalierung des Quellfarbraums in Zielfarbraum
-relative Sättigung bleibt erhalten, Farbtöne verschieben sich
lineare Komprimierung
 

Weiterführende Links

http://www.publisher.ch/dynpg/upload/imgfile1088.pdf (zu Rendering Intents)

Bewertung: 
0
Bisher keine Bewertung

Farbreproduktion

Farbreproduktion ist nicht nur die Umwandlung von einem Farbraum in einen anderen wie weiter unten von ausgeführt. Als ersten Schritt muss man zunächst die gegebenen Farben einer Vorlage bestimmen. Ohne sie zu kennen, kann keine saubere Reproduktion gelingen. 

Klassisches Beispiel: ein Scan, der gedruckt werden soll. 

Es muss ein Scannerprofil erstellt werden, das die gerätespezifischen Farben des Scanners korrigiert. Dazu wird zumeist eine it8-Karte eingescannt. Auf dieser sind rund 220 Farbfelder vorhanden. 

Zu dieser Karte wird immer eine Textdatei geliefert, in der die vermessenen Farbwerte (z. B. in Lab) dieser Karte gespeichert sind. Diese Werte wurden mit einem Spektralfotometer erstellt. 

Zum Erstellen eines Scanner-Profils braucht man ein Programm, dass den Scan der Karte vergleicht mit den Werten in der Textdatei. Da jedes Gerät einen Farbstich hat, wird der San farblich nicht genauso aussehen, wie die Farben der Vorlage (der it8-Karte). Die Abweichungen werden vom Profilierungsprogramm erkannt und in ein Profil geschrieben. 

Wird dieses Profil dem Scan zugewiesen, werden die falschen Farben korrigiert (die Farbwerte bleiben dieselben, das Farbaussehen ändert sich). Das passiert in jeder Scansoftware, die auf individuelle Scanner-Profile zugreifen kann. 

 

siehe auch die Seite:

http://www.targets.coloraid.de

Ein anderes Beispiel ist die Reproduktion mit einer Kamera. Auch hierfür gibt es Farb-Karten, die fotografiert werden können, um die nicht ganz korrekten Farben der Kamera beziehungsweise die Verfärbungen durch künstliche Beleuchtung zu erkennen und mittels eines Profil, ähnlich wie oben beschrieben, zu korrigieren. (Auch hier wird das Profil zugewiesen.)

siehe beispielsweise die Seite: 

http://xritephoto.com/ph_product_overview.aspx?id=1257

Bei letzterer Lösung wird ein Profil erstellt, dass sich in den RAW-Converter einklinkt und nur dort ansprechbar ist. 

Wichtig beim Fotografieren einer Vorlage ist, dass man die Kamera auf manuellen Betrieb stellt, sodass nicht unterschiedliche Helligkeiten entstehen aber auch die Farbtemperatur nicht immer wieder neu von der Kamera (anders) beurteilt wird. 

Was sind Farbmodelle und Farbräume?

  • Farbmodelle:
    Beispielsweise CMYK /RGB/Lab
     
  • Farbraum:
    Ist die praktische Anwendung eines Farbmodells, das Gamut (Bereich) eines Farbmodells.

Was ist Farbreproduktion?

Von Farbreproduktion spricht man, wenn man einen Farbraum in einen Anderen konvertiert.
Z.B. der Farbraum einer Digitalkamera in den eines Laserdruckers.

Um keine Verluste oder Veränderungen der Farben zu bekommen, müssen die Farben innerhalb der Schnittmenge der Farbräume liegen.

Welche Probleme können bei unterschiedlicher Größe der Farbräume auftreten?

Ist der ursprüngliche Farbraum größer als jener in den umgewandelt werden soll, ist es sehr wahrscheinlich dass bei der Reproduktion bestimmte Farben vom Zielmedium nicht korrekt abgebildet werden.

Wozu Farbprofile?

Jedes Ausgabegerät hat einen speziellen Farbraum. Monitore geben Farbe anders aus, als Scanner sie wiedergeben und im Druck kommen Farben erneut ganz anders raus.

In einer Produktreihe macht es daher Sinn, alle zu verwendete Geräte innerhalb eines Workflows zu kalibrieren und zu profilieren. Alle Geräte arbeiten dann in einem und denselben Farbraum. Gespeichert werden diese Daten in einem Profil.
 

Wie ist eine Profildatei aufgebaut?

Die genormten Informationsträger, die den Farbraum eines Ein- oder  Ausgabegerätes beschreiben, nennt man ICC-Profile. Das *ICC-Profil besteht aus einem Header (Kopfbereich) mit den Basisinformationen wie Profiltyp, Profilersteller und das verwendete *Farbmanagement-Modul. Es folgt eine Art Tag-Tabelle, eine Übersicht darüber um welches Ausgabemedium es sich handelt, um ein Eingabe- (scnr), Monitor- (mntr) oder Ausgabeprofil (prtr).

Diese Inhalte werden auch Profilklassen genannt. Diese erkennen ob ein Monitor benutzt wird oder auch welcher Drucker die Ausgabe übernimmt und welchen Farbraum der Scanner besitzt. Der Hauptteil solch einer Datei besteht allerdings aus dem LUT (Look-Up-Table). Hier ist der passende Farbwert zu jedem Farbwert zu finden.
 

Was ist ein Farbmanagementmodul - Color Management Modul (CMM)?

Alle Farbtöne die eine Tabelle eines Profils nicht enthält wird rechnerisch ermittelt müssen, das ist neben der Farbraumanpassung, ebenfalls eine Aufgabe des CMM: Das Interpolieren aller Farbwerte mittels der in den Profilen enthaltenen Farbwerttabellen.

FAZIT: Das Color-Management-Modul/*Farbmanagement-Modul rechnet von einem Ursprungsprofil in ein Zielfarbraum um - wird auch Farb-Engine genannt, und ist eine Komponente im Farbmanagement-System um die Farbtreue auf allen Geräten zu gewährleisten, es ist das Herzstück jedes Farbmanagementsystems.

Wenn man beispielsweise ein CMYK-Bild in einem Bildbearbeitungsprogramm öffnet, sorgt das Farbmanagementmodul dafür, dass das Bild gut auf dem RGB-Monitor zu sehen ist. Es arbeitet hauptsächlich im Hintergrund - doch wenn wir selbst auf RGB-Bild in CMYK-Bild umwandeln gehen, nutzen wir es auch manuell.

 

ICC-Profile?

Ein *ICC-Profil  ist eine genormte Datei der den Farbraum enthält für diverse Farbwiedergabegeräte. Alle ICC-Profile sind formal gleich aufgebaut.

Der ICC-Standard wird heute von wichtigsten Anwendungen unterstützt. Einige ICC-Profile werden von Anwendungsprogrammen zur Verfügung gestellt. Welches Profil gebraucht wird, hängt von der individuellen Arbeitssituation ab. Neben individueller Drucker- & Scannerprofile benötigt man in der Regel nur eine Handvoll Standardprofile.

ISO- Profile sind von der ECI (European Color Initiative) entwickelte Standards für den Auflagendruck mit unterschiedlichen Papiertypen. ISO-Profile sind ICC-Profile - nicht das der Eindruck entsteht es seien zwei verschiede Varianten.
 

Was sind die wichtigsten Farbprofile?

  • RGB-Profile: eciRGB v2Adobe-RGB (größerer Farbraum wie sRGB)sRGB
  • CMYK-Profile
    • ISO Coated v2
    • ISO Coated v2 300%
    • ISO Uncoated
    • ISO Webcoated

Was ist CIE-Lab?

Basiert auf den LAB- Farbraum. Der Lab-Farbraum ist drei demensional und besteht aus drei Achsen. Das Modell dient der geräteunabhängigen Farbbeschreibung und umfasst die Farbräume des RGB- und des CMYK-Modells, darum dient es im übertragenen Sinne als "Übersetzungshilfe" für die Farbraumtransformation im Farbmanagement-Modul.

  • Die drei Achsen: L (Helligkeitsachse) A (rot-grün-Achse) B (gelb-blau Achse)

 

Umwandlungsmethode Rendering Intents:

Es gibt vier verschiedene Rendering Intens:

  • Perzeptiv (fotografisch)
  • Relativ farbmetrisch
  • Absolut farbmetrisch
  • Sättigung

Bei einer Konvertierung von RGB in CMYK eignet sich relativ farbmetrisches Rendering, ebenso eignet sich diese Rendering Methode, wenn von einem CMYK Farbraum in einen anderen CMYK-Farbraum konvertiert werden soll.

Ergänzung:

Redering Intent heißt übersetzt so viel wie Berechnungs-Absicht. Da Farbräume unterschiedlich groß sind, kann es zu Farbverschiebungen kommen, wenn die Farben des Quellfarbraums (z. B. RGB) in die des Zielfarbraums (z. B. CMYK) umgewandelt werden.
Die Berechnungsabsicht versucht, uns diese Unterschiede möglichst wenig deutlich werden zu lassen. 

Relativ farbmetrisch eignet sich, wenn nicht all zu bunte Farben in der Ausgangsdatei vorhanden sind. Bunte Farben liegen am Rande des jeweiligen Farbraums. Ist der Zielfarbraum kleiner (z. B. CMYK) dann werden die bunten Farben beschnitten und sehen im Zielfarbraum alle gleich aus - Beispiel knallbunte Blumen. Die Zeichnung in den roten Farben kann hier verloren gehen. 
Der Vorteil allerdings: alle anderen Farben bleiben gleich, werden also nicht verändert. 

Perzeptiv geht anders vor. Auch die Unterschiede der sehr bunten Farben aus dem Quellfarbraum werden in den Zielfarbraum geholt. Dazu müssen allerdings alle Farben verändert werden, damit die Abstände der Farben zueinander im Zielfarbraum einigermaßen erhalten bleiben. 

Absolut farbmetrisch: nur für Proofs, wo man von einem kleinen Farbraum (zu proofendes CMYK) in den großen Farbraum des Proofdruckers geht. Ein Proofdrucker hat normalerweise 8 Tinten, um möglichst viele verschiedene Druckumgebungen simulieren zu können. Er kann deshalb wesentlich bunter drucken als es im Offsetdruck möglich ist. 
Damit nun der Proof nicht bunter wird als das zu proofende CMYK-Bild, sollen alle Farben exakt am selben Farbort (auf der Lab-Schuhsohle) liegen bleiben. Das macht absolut farbmetrisch. 
(Für eine Wandlung der Farben von RGB nach CMYK ist dieser Rendering Intent nicht gedacht.) 

Ende Ergänzung

 

Wie wird Farbe reproduziert - aus RGB und CMYK?

"CMYK ist ein kleinerer Farbraum als die RGB-Farbräume von Monitoren, digitalen Kameras und Scannern – das CMYK-Gamut ist gegenüber RGB-Farbräumen eingeschränkt. Das bringt sowohl Fotografen als auch Drucker in Schwierigkeiten – insbesondere, wenn der große AdobeRGB-Farbraum für die Aufnahmen benutzt wurde. Der größere RGB-Farbraum muss in den kleineren CMYK-Farbraum komprimiert werden. Die Umsetzung von RGB-Bildern in den CMYK-Farbraum für den Drucker wird auch als Farbseparation bezeichnet."

Quelle :http://www.wisotop.de/vonRGBnachCMYK.shtml>

 

Es gibt drei Konzepte, an welcher Stelle konvertiert wird:

  1. Early Binding
  2. Intermediate binding
  3. Late binding

 

Early binding:

Hierbei legt man den CMYK-Farbraum früh fest, bereits zu Beginn der Produktionskette. Dies ist in sofern umständlich, da man die Daten doppelt vorliegen hat, denn die ursprünglichen RGB-Daten sollten nicht überschrieben werden und immer noch zusätzlich abliegen. Sinn macht dieses Konzept ohnehin nur in der High-End-Bildbearbeitung, wo nichts dem Zufall überlassen werden darf. Zudem sollte das Konzept nur dann angewendet werden, wenn man bereits zu Beginn weiß wo gedruckt wird.

 

Vorteil

Nachteil

  • Direktansicht von Farbe/Bild
  • Umständlich auf Grund doppelter Datenaufbewahrung
  • Für High-End-Bildbearbeitung geeignet
  • Sinnlos wenn nicht klar ist wo gedruckt wird

 

 

Intermediate binding:

Hierbei arbeitet man noch während der Bearbeitung der RGB-Bilddaten im RGB-Modus. Konvertiert wird bei der PDF-Erstellung. Bei diesem Konzept bleibt man flexibel.

 

Vorteil

Nachteil

  • Arbeit im RGB-Modus

Da PDF-Export alles komplett umwandelt

  • Für High-End-Bildbearbeitung ungeeignet
  • Spart Speicherplatz
  • Erst am Ende sieht man wie die Bilder im Prodfil aussehen

 

 

Late binding

Bei diesem Konzept werden die RGB-Bilddaten in die PDF geschrieben und erst kurz vor Ausgabe in oder von der Druckerei in CMYK konvertiert. Das hat den Vorteil, dass die Druckerei entscheiden kann welches Profil sie anwendet und geeignet ist für den individuellen Druckauftrag. Diese Methode eignet sich besonders für Aufträge an denen noch nicht klar ist welches Druckverfahren angewendet wird. Speziell für diesen Druck wurde das PDF-X3 entwickelt.

 

Vorteil

Nachteil

  • Man kann bis zum Schluss im Modus bleiben
  • Man kann nicht sicher sein, wie die Druckerei mit den RGB-Daten umgeht

 PROOF                                                                     

Proof steht für Prüfdruck und wird selbst erklärender Weise zum prüfen von Druckdaten verwendet. Damit möchte man erreichen früh möglichst einen Eindruck über die gedruckte Ausgabe seiner Arbeit zu bekommen.

Man unterscheidet hier unter Softproof und Hardproof

Softproof:

Der Farbeindruck der späteren Ausgabe wird auf einem Monitor simuliert. Die dafür notwenigen Informationen liefert das ICC-Profil (Ausgabenprofil)

Folgende Voraussetzungen sind für einen Softproof notwendig:

  • Neutrale Umgebungsbedinungen (z.B. Lichtverhältnisse)
  • Farbraum des Dokument/Bilds muss bekannt sein
  • Druckfarbraum muss bekannt sein
  • Monitor muss den Farbraum des Dokuments im Druck darstellen können
  • Etc.

 

Hardproof:

Es wird nicht bloß simuliert, unter Hardproof versteht man vor allem dem Kontrolldruck in Form eines Drucks auf Papier. Unter diesem Verfahren unterscheidet man außerdem in:

  • Blaupause (Blue Print)
  • Layoutproof

Ist ein farbiger Druck im Gegensatz zum Blue Print

  • Standproof/Formproof

Zeigt die Platzierung auf dem Druckbogen

  • Halbtonproof/Kontraktproof
  • Maschinenproof
  • Remoteproof

 

BILDAUFBAUVARIANTEN                                        

Buntaufbau

Alle Farbtöne werden aus den bunten Grundfarben Cyan, Magenta und Gelb aufgebaut. Schwarz wird hierbei nur zur Tiefenzeichnung benutzt.

Um alle Varianten verständlich zu erklären, lernen wir an Hand eines Beispiels - welches für alle folgende Varianten fortgeführt wird.

Beispiel:

70% Cyan + 80% Magenta + 90% Yellow + 0% Schwarz = Braun mit 240% Flächendeckung

 

Nachteile für den Drucker:

  • Graubalance ist schwer zu halten, durch den hohen Buntaufbau
  • Erhöhte Trocknungszeit
  • Hoher Farbverbrauch

Der Unbuntanteil dieser Farbe aus dem Beispiel besteht aus:
70% Cyan + 70% Magenta + 70% Yellow

Der Buntanteil dieser Farbe wäre demnach:
10% Magenta + 20% Yellow

(80% Magenta - 70% = -10% Magenta)
(90% Yellow - 70% = -20% Yellow)

Der Unbuntanteil ist quasi der Teil, der für das Schwarz im Bild sorgt - denn im CMYK ergeben alle Farben übereinander gelegt schwarz. Dieses Schwarz ist aber kein Schönes, eher ein dreckiges Braun, darum gibt es die Schlüsselfarbe Schwarz - das "K". Im Buntaufbau wird Dieses aber nicht verwendet, d.h. man erzeugt ein Schwarz über die Drei Farben Cyan, Magenta und Gelb.

Wie eben bereits erwähnt ergeben alle Farben zusammen ein "Schwarz" - werden also wie in diesem Beispiel 70% jeder der drei Farben übereinander gelegt, passiert das Gleiche wie wenn man 100% übereinander legt, das einzige was sich ändert ist der Flächendeckungsgrad.

Man nimmt die Farbe mit dem niedrigsten Auftrag, in diesem Beispiel Cyan, quasi die Mannschaft ist so stark wie das schwächste Glied, und zieht diesen Prozentsatz von den anderen Farben ab, um den Unbuntanteil zu ermitteln. Ist deutlich warum dieser Teil nun Unbuntanteil heißt? Wenn nicht, tut es mir leid besser kann ich es nicht erklären.

Dieser Teil ergibt keine bunte Farbe, die Farben die mehr aufgetragen werden als die niedrigste Farbe, ergeben das Farbbild. Hier berechnet man dann logischerweise nur noch die Differenz - eben der Farbauftrag der übrig bleibt, wenn die Menge an Farbauftrag abgezogen wurde, die man benötigte um das "schwarz" zu erreichen.

 

Buntaufbau mit Unterfarbenreduzierung
UnderColorRemoval (UCR)

Die Unterfarbenreduzierung ist eine Variante des Buntaufbaus.  Hierbei wird ein Teil des Unbuntanteils durch schwarz ersetzt.

 

Beispiel:
Durchführung einer 30%-igen Unterfarbenreduzierung des vorigen Brauntons:

 

70% Cyan + 80% Magenta + 90% Yellow + 0% Schwarz = 240% Flächendeckung
70% - 30% = 40%
40% Cyan + 50% Magenta + 60% Yellow + 30% Schwarz = 180% Flächendeckung

(40% Magenta + 10% Magenta = 50% Magenta)
(40% Yellow + 20% Yellow = 60% Yellow)

 

Vorteile für den Drucker:

  • Graubalance ist leichter zu halten

 

Unbuntaufbau
Grey Component Replacement (GCR)

Bei diesem Verfahren werden generell alle Unbuntanteile durch schwarz ersetzt. Ziemlich simpel, bedeutet nämlich einfach nur 70% Schwarz!

0% Cyan + 10% Magenta + 20% Yellow + 70% Schwarz = 100% Flächendeckung

 

Vorteile für den Drucker:

  • Wenig Farbverbrauch
  • Farbannahmeverbrauch wird deutlich verbessert!

 

Die Flächendeckung darf nicht unter 100% betragen! Dafür gibt es folgende Möglichkeit..

Unbuntaufbau mit Bundfarbenaddition

Under Color Addition (UCA)

Dies ist eine Variante des Unbuntaufbau´s in der bei zu geringer Dichte, Anteile aus Cyan, Magenta und Gelb wieder hinzugefügt wird.

Beispiel bei einer Reduzierung um 25%:

0% Cyan + 10% Magenta + 20% Yellow + 70% Schwarz = 100% Flächendeckung
25% Cyan + 35% Magenta + 45% Yellow + 45% Schwarz = 150% Flächendeckung

Bewertung: 
0
Bisher keine Bewertung

HDR-Erzeugung

 HDR              = High-Dynamic-Range
                        = Pure Mathematik
                        = Mathematische Werte für komplette Dunkelheit & gleißende Helligkeit

 

.HDR Format  = 32 Bit

                          = Radiance Format genannt

                          = Dateinamenserweiterung (Dateiname.hdr.format)


Erstellung von HDR-Bildern mit der Kamera (bzw. Digicam)


·      Digitale Bildsensoren mit hohem Dynamikumfang befinden sich in der Entwicklung

·      Selbst hochwertige Bildsensoren können nicht den Dynamikumfang von natürlichen Szenen abdecken

·      Es gibt bereits vermarktete bzw. in Entwicklung stehende erste Produkte:

o   SpheroCam HDR (Zeilen-CCD)

o   LadyBug-Kamera von Point Grey Research (mehrere Sensoren)

 

Die Kamera schießt verschiedene Bilder des selben Objekts und errechnet aus den unterschiedlichen Belichtungseinstellungen das perfekte Ergebnis.

Damit ist es selbst mit normalen Digital-Kameras möglich, ein HDR-Bild zu Erzeugen (s. Erstellung mithilfe von Software)



Erstellung von HDR-Bildern mithilfe von Software

Kamera auf „Auto-Belichtung“ und „Aperture Priority“ stellen und mind. 3 verschiedene Fotos mit den Werten -2, 0, +2 schießen. Besser ist es wenn die Fotos im RAW-Format wegen der späteren Bearbeitungen geschossen werden.

Nun werden die 3 Fotos mit den verschiedenen Belichtungswerten mithilfe von „Photomatix Pro“ zu einem einzigen Foto zusammengefügt. In Photomatix Pro muss man noch einige Einstellungen (ähnlich wie in Photoshop RAW) vornehmen, um ein perfektes Ergebnis zu erzielen. Das Programm errechnet aus den verschiedenen Belichtungseinstellungen der Bilder den perfekten Mittelwert.

Wenn man sein HDR-Bild erzeugt hat, kann man es noch mithilfe von Photoshop weiter aufbereiten, wenn man möchte.

Bewertung: 
0
Bisher keine Bewertung

Histogramm lesen

Das Histogramm kann in drei Teile aufgeteilt werden – die Tiefen, die Mitteltöne und die Lichter. Die Tiefen entsprechen den dunklen Bereichen in einem Bild, die Lichter demnach den hellen Bereichen. Die Mitteltöne in der Mitte des Histogramms machen den grössten Bereich aus.

Auf der X-Achse, also von links nach rechts auf der Horizontalen, wird der Tonwertumfang von ganz schwarz bis ganz weiß dargestellt. Auf der Y-Achse, also die Vertikale zeigt die Häufigkeit eines bestimmten Tonwerts respektive Helligkeitsstufe. Je höher also ein „Berg“, desto häufiger kommt der entsprechende Tonwert vor.

Anbei ein paar Beispiele von einem hellen, normalen und dunklen Histogramm

normal: https://www.mediencommunity.de/system/files/Histogramm_normal.jpg

hell: https://www.mediencommunity.de/system/files/Histogramm_hell.jpg

dunkel: https://www.mediencommunity.de/system/files/Histogramm_dunkel.jpg

 

Bewertung: 
2.5
Durchschnitt: 2.5 (2 Stimmen)

Maskiertechniken

Masken in Photoshop dienen dazu, bestimmte Bildbereiche auszublenden oder abzudecken, ohne sie zu löschen und so das Originalbild vor Zerstörung zu schützen. Durch die Editierbarkeit von Masken ist man flexibel und kann effizient arbeiten. Das Weglöschen von Bildelementen ist keine Maskierung und führt zur Zerstörung von Bildern. Das Originalbild darf nie durch Bearbeitung zerstört werden. Darum ist die Verwendung von Ebenmasken die professionellste Art und Weise hier vorzugehen.

Ebenenmasken

  • sind auflösungsabhängige Bitmaps
  • können mit Mal- oder Auswahlwerkzeug bearbeitet werden
  • sind gerastert und deshalb auflösungsabhängig
  • werden in einem 8-Bit Graustufenkanal gespeichert
  • auch Filter können auf diese Masken angewendet werden
  • arbeiten mit verschiedenen Deckkraftwerten, verschiedenen Kantenschärfen und Verläufen auf Masken ist möglich

 

Erstellung über Auswahl oder über Farbkanäle

 

Vektormasken

  • sind auflösungsunabhängig
  • werden mit Zeichenstift- oder Formwerkzeug erstellt
  • enthalten ausschließlich Vektorobjekte
  • können ohne Qualitätsverlust beliebig skaliert werden
  • weiche Kanten können nicht verwendet werden
  • kann erst mit Malwerkzeugen bearbeitet werden, wenn sie zu einer Ebenenmaske konvertiert wird (Die Maske wird beim konvertieren gerastert)
Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

PDF-Kontrolle mit Adobe Professional

*/

Acrobate Professional

Um ein PDF-Dokument darauf hin zu prüfen, ob alle Objekte den Anforderungen des gegebenen Ausgabeverfahrens entsprechen hält Adobe Professional eine Reihe an Werkzeugen, wie z.B. das Prefight bereit, das eine automatische Fehlerprüfung nach vorab definierten Kreterien vornimmt.

Neben der Preflight-Prüfung sollte aber auch ein Visueller Datencheck über die Ausgabevorsch erfolgen und jede Seite auf Vollständigkeit geprüft werden. Damit die Ausgabevorschau das PDF-Dokument auch entsprechnd dem Ausgabeverfahren anzeigen kann müssen vorab einge Dokumenteninformationen in den Dateieigenschaften überprüft und Voreinstellungen getroffen werden.

 

 

Voreinstellungen

Seitenanzeige

Hier werden Einstellungen getroffen die zur Überprüfung auf Vollständigkeit wichtig sind

Objekt-, Endformat und Anschnitts-Rahmen anzeigen (Haben alle Seiten genügen Anschnitt?)

Überdruckvorschau ()

Vektorgrafiken glätten ( Sind Texte in Pfade konvertiert wurden?)

Lokale Schriften verwenden (!!!muss)

Farbmanagment

Falls noch keine synchronisierung über die Adobe Bridge stattgefunden hat, sollte hier der Arbeitfarbraum und die Standardkonvertierung definert werden, damit Acrobat die Ansicht der Bilddaten entsprechend des Druckverfahrens simulieren kann. In der Ausgabevorschau können später auch noch andere Druckverfahren simuliert werden.

Dokumenteneingenschaften

Beschreibung

Name der Anwendung mit dem das Layout erstellt wurde und Name der Anwendung mit dem das PDF erstellt wurde

=> Handelt es sich um eine problemanafällige Anwendung? Ist erhöhte Vorsicht bei der Kontrolle geboten?

Version des PDFs

=> Sind Transparenzen darstellebar? ( PDF 1.3 (Acrobat 4) und darunter kennen keine Transparenzen)

Schriften

Hier werden alle in dem Doukent enthaltenen Schriften aufgelistet und es kann überprüft werden, ob diese richtig eingebettet wurden.

„Eingebettete Untergruppen“ = nur die verwendeten Zeichen sind eingebettet

„Ersatzschrift“ Schrift wurde nicht korrekt eingebettet

Standards und Output-Intent

In den Standards werden neben den Informationen zu Konformität (PDF-Version und ) auch die Ausgabebedingungen (Output-Intents) angezeigt. Dabei handelt es sich um eine Art Notizzettel mit Angaben über die Ausgabebedingungen. (Könnte die Kommunikation mit Druckerein erheblich erleichtern, wird aber in der Regel nicht richtig eingesetzt und daher von den Druckerein ignoriert)

Visueller Datencheck

Ausgabevorschau

„Anzeige“ > „Einblenden“ >

Nicht DeviceCMYK = Zeigt nur Elemente an die vor der Ausgabe noch korrigiert werden müssen (RGB- ,Lab-Farben und CMYK-Farben mit falschem ICC-Profil)

DeviceCMYK = Zeigt nur die druckfähigen Objekte an (Gegenprobe zu Nicht DeviceCMYK)

„Simulieren“ = Einstellungen um einem kalibrierten Monitor einen Softproof durchzuführen

Simulationsprofil: hier kann, wenn benötigt, ein abweichend von den in den Voreinstellungen getoffenen Profil, auch ein anderes Profil ausgewähl und simuliert werden

Papierfarbe simulieren

„Farbauszüge“

Welche Farben sind im Dokument enthalten? und Welches Objekt besitz welche Farbe?

Stimmt der Gesamtfarbauftrag mit dem Druckverfahren und Papier überein?

Preflight

Was ist Preflight?

Preflight ist ein Acrobat Professional-Werkzeug dass eine automatische Prüfung von PDF-Dokumenten durchführt, einen Fehlerreport erstellt und - bei Bedarf - auch Korrekturen durchführen kann.

Auf welche Fehlerhin Preflight das Dokument untersuchen soll, wird in Form von Prüfregeln in einem Profil definiert. Auch welche Korrekturen gegebenenfalls vorgenommen werden sollen werden in diesem Profil festgeschrieben.

Profile

Preflight hält sowohl für die Druckvorstuffe als auch für den Digitaldruck und das Online-Publishing einige Profile bereit. es ist aber von deren Nutzung abzuraten, da sie oftmal mehr prüfen als für das jeweilige Ausgabeverfahren nötig und sinnvoll ist und somit einen unübersichtlichen und oft unverständlichen Fehlerreport verursachen. Daher sollten eigene Profile erstellt und verwendet werden.

Benutzerdefinierte Prüfregeln erstellen

> Vorlage aus fertigem Profil erstellen

- Profil, dass dem jeweiligen Ausgabeverfahren entspricht, auswählen, duplizieren und umbennen

- Informationen zum Ausgabeverfahren und Autor des Profils als Kommentar beifügen

> Prüfregeln festlegen

- Bilder => Festlegen was die geringste Auflösung ist

- Farben => Festlegen welche Farben nicht verwendet werden sollen

- Zeichensätze => Festlegen ob und wie Schriften eingebettet sein müssen

- Rendering => Festlegen ob Rasterfunktionen, Transverkurven, eingebettet PS-Codes und Transparenzen vorhanden sein dürfen oder nicht

- Regeln zur PDF-X Konformitäten (können ausseracht gelassen werden, verursachen nur unnötig viele Fehlmeldungen)

- Benutzerdefinierte Prüfung=> Acrobat professional bietet hier eine Zusammenstellung mit rund 200 Prüfregeln aus denen individuell einzelne Regeln für das eigenen Profil übernommen werden können. Prüfregeln zu den folgenden Theman sollten für die Drockvorstuffe immer übernommen werden :

- Courier innerhalb der TrimBox (Ersatzschriften)

- Gesamtauftrag für gesättigtes Schwarz

- Überdrucken von grauen Objekten

- Registerfarben innerhalb der TrimBox

- Aussparen bei weißen Text oder Vektorobjekten

- Farbraum für Transparenz-Überblendungenbei Nicht DeviceCYMK

- Übereinstimmung von CropBox und MediaBox

- Effektiver Farbauftrag

- Korrekturen => Acrobate bietet hier ebenfalls eine umfangreuíche Zusammenstellung von fertigen Korrekturrregln die bei bedarf übernommen werden können

Prüfen und Prüfen und korrigieren

> Prüfen

- Acrobate führt entsprechend dem ausgewählten Profil eine Prüfung des Dokuments durch

- rotes Kreuz = Dokument ist fehlerhaft

- grüner Haken = Dokument ist fehlerfrei

- Mehrere fehler der gleichen Art werden in gruppen zusammengefasst

- Anzeigen von fehlerhafte Objekt in der Ausgabevorschau (rot-gestrichelter rahmen)

- Prüfeintrag einbetten = Dokument wird unter neuen Namen abgespeichert und erhält in den Standards die Informationen zum Prüfergebnis und ob das Dokument nach der prüfung noch mal verändert wurde.

> Prüfen und korrigieren

- Adobe führt entsprechend den Settings des ausgewälten Profils ein Prüfung des Dokuments mit anschließender automatischer Korrektur der, als fehlerhaft regestrierten, Objekte durch.

- Umfangreiche Korrekturen wie der Austausch von schriften oder Textkorrekturen sollten immer im Ursprungsdokument vorgenommen, ein neues PDF erstellt und dieses erneut mit Preflight geprüft werden.

Prüfreport

Der Prüfreport ist eine umfangreiche Auflistung alle Objekte die bei der Prüfung als kritisch regestriert wurden. Bei der Erstellung des Report solllte die Option „Probleme hervorgehoben durch Kommentare“ ausgewählt werden. Acrobat erstellt dann eine PDF in der jedes als kritisch regestriertes Objekt mit einem Notizzettel versehen. Beim Anklicken der Notiz, öffnet sich ein Fenster in dem das Problem näher beschrieben wird. Gelbe fenster beschreiben eine Warnung, rote einen Fehler und blau enthalten Informationen.

 

 

(Dies ist eine Zusammenfassung aus dem Kapitel 5 von CleverPrinting 2013. Ist übriegens kostenlos)

 

Bewertung: 
0
Bisher keine Bewertung

Photoshop CS6 Cheat Sheets als Download

Florian Ehlich, Junior Art Director bei der vorwärts GmbH in Köln, hat für die neue Photoshopversion Cheat Sheets erstellt und ins Netz gestellt. So hat man Shortcuts und neue Funktionen schnell im (Zu-)Griff.

Bewertung: 
0
Bisher keine Bewertung

Prozess Standards Digitaldruck (PSD)

 Aufgrund der verschiedenen Technologien und Verbrauchsmaterialien im Digitaldruck ist der von der FOGRA entwickelten PSD im Gegensatz zum PSO im Sinne einer allgemeinen Vorgehenweise, die prinzipiell auf alle Digitaldruckverfahren angewendet werden, zu verstehen.

 

Prinzipieller ablauf der Prozesskontrolle im 4-c Digitaldruck

1. Wartung und Grundeinstellung

  • Regelmäßige Wartung und Grundeinstellung der Maschinen
  • Fachgerechte Lagerung und Anwendung der Verbrauchsmaterialien
  • Korrekte Anwendung der Maschinen

2. Materialkombinationen prüfen und festlegen
Welcher Bedruckstoff und welche Farben sollen verwendet werden?

  •  Parameter für Be- und Verdruckbarkeiteigenschaften festelgen (Bedruckstoff-Katalog)
  • Zur Prüfung der drucktechnischen Eigenschaften muss der Testdruck im Gerätemodus und nicht im Simulationsmodus, also ohne Farbmanagment („1:1“), durchfürhen werden.

3. Farbreferenz(en) /Druckbedingungen festlegen
Welche Volltonfärbung soll abgedeckt werden?- Gibt es Angaben zu den Druckbedingungen in den
Output-Intents dazu?

  • Die Volltonfärbung bezeichnet die CIELAB-Farbwerte der Prozessfarben, d.h. der Primär- und Sekundärfarben.
  • Druckbedingung FOGRA39 (de-facto Referenz für viele Digitaldrucker): repräsentier den Offsetdruck auf Bilderdruckpapier.

4. Analyse der Druckbedingungen
Wie kann der von der Farbreferenz vorgegebene Farbumfang bestmöglicht reproduziert werden?

  • Es werden zunächst die maschinenseitig vorggeben Zielwerte auf die damit erreichbare Volltonfärbung geprüft und mit der gewählten Farbreferenz abggelichen
  • Ein Farbabstand von ΔE * ab > 10 kann als Anhaltspunkt für einen zu großen Unterschied zwischen
  • Referenzfarbumfang und aktuellem Farbumfang angesehen werden.

5. Justage/Kalibrierung

  • Optimierung der Volltonfärbung durch entsprechende Einstellungen des Drucksystems
  • Lineariserung der Primärfarben hinsichtlich der Dichte, der Tonwerte, der CIEL*-Werte oder des ΔEAbstandes

6. Charakterisierung und Proflierung

  • Charakterisierungtabell aus farbetrischer Messwerten einer Farbtafel erstellen
  • individuelle Duckbedingung etablieren »» Auf der Basis der Charakterisierungsdaten wird eine Farbtransformation in Form eines ICC-Ausgabeprofils erstellt. Hier werden u.a. Ersatzfabendarstellung (Gamut Mapping) und Seperationsstrategien festgelegt.
  • DeviceLink-Farbtransformationen, ermöglichen eine direkte Anpassung vom Refferenzfarbraum in den Farbraum der aktuellen Druckbedingungen

7. Validierung (mit oder ohne Farbmanagment)

  • Prüfung der Stabilität des Drucksystems bzw. der spezifischen Druckbedingungen („1:1“ ohne Farbmanagment)
  • Prüfung des Zusammenspiels aus Farbtransformation und Druckstabilität 

8. Qualitätskonstanz

  • durch PSD-Zertifikate
  • durch etablierte Druckbedingungen die auf Basis mehrer gleichartiger Maschinen aufgebaut ist, um
  • sicherzustellen, dass geringfügoige Unterschiede zwischen ihnen in der jeweiligen Justage ausgeglichen werden können.
  • durch tägliche Kalibrierung; Die regelmäßige Prüfung muss auf Basis eines Druckontrollstreifens basieren, der die Anforderungen gemäß ISO 12647-7 erfüllt (FOGRA Medienkeil). Diese beziehen sich auf:

»» Volltonfarben (Primär- und Sekundärfarben)»» Mitteltöne der Primärfarben (CMY)»» Buntgraukeil, der für eine Druckbedingung eine neutralgraue Wiedergabe aufweist (mindestens 5 Stufen und gleichmäßig in der CIEL*-Helligleit abgestuft)»» Echtgraukeil (gleichmäßig in der CIEL*-Helligleit abgestuft)»» Bedruckstoff (Papierweiß)

Bewertung: 
0
Bisher keine Bewertung

Tonwertkorrekturen

Hier schon mal einen weiterführenden Link zum Thema: http://www.scandig.eu/Tonwertkorrektur.html

Bewertung: 
0
Bisher keine Bewertung

Videoschnitt

Filmmontage bezeichnet das Zusammenfügen von Einstellungen, Szenen und Sequenzen zu einer erzählerischen Einheit.

Im Schnitt oder der Montage entsteht der eigentlich Flim. Die verschiedenen Bausteine eines Flims werden in der endgültigen Abfolge aneinder montiert.

Schnittformen

Schnitt:

Die Bezeichnung Schnitt betrifft die eher handwerkliche Tätigkeit im Schneideraum, sie hat sich aus dem Arbeitsprozess des Auseinanderschneidens und Kürzen einzelner Einstellungen entwickelt.

 

Montage:

Spricht man von Montage, so geht es in erster Linie um den Inhalt und die Gestaltung. Während Schnitt eher das Aussondern und Kürzen des Materials betont, verweist die Bezeichnung Montage auf das Zusammenfügen der Einstellungen. Es ist das Konzept gemeint, nach dem dies geschieht.

 

Kriterien:

Wie jede Gestaltung muss auch jeder Schnitt, jede Überblendung und jeder von Ihnen eingesetzte Effekt motiviert und begründet sein. Die Schnittfolge muss die Handlung des Films weiterbringen und das Interesse des Zuschauers erhalten oder noch besser: steigern. Einstellungsgrößen und -längen sollten variiert werden. Allgemein erzeugen schnelle Schnittfolgen Spannung und Emotionen, lange Schnittfolgen wirken ruhig und sachlich

 

Im Schnitt sollen die Einstellungen so miteinander kombiniert werden, dass sie inhaltlich und optisch als zusammengehörig wahrgenommen werden.

vorhandene Bildmaterial sollte im Schnitt möglichst logisch und folgerichtig geordnet werden

jeder Schnitt sollte motiviert sein z.B. Anlässe für einen Schnitt können Bildimpulse sein, Tonimpulse im Text oder auf Geräuschebene)

ähnliche Bilder, die man aneinander schneidet, irritieren den Betrachter (kann aber auch als Stilmittel verwendet werden siehe Jump Cut)

ein Schnitt sollte ein eindeutig neues Bildangebot schaffen

unterschiedliche Kamerabewegungen sollte man im Schnitt nicht direkt aneinander setzen

durch einen Tempowechsel beim Schnitt kann die Aufmerksamkeit des Publikums gesteigert werden

bei erzählenden Darstellungen signalisiert die Blende Zeit- und Ortswechsel

mit Effektblenden sollte man äußerst sparsam und bewusst umgehen

 

Arbeitsablauf beim Schnitt:

- Material sichten

- unbrauchbare Aufnahmen ausmustern/ entfernen z.B. unscharfe, ablenkende oder verwirrende Aufnahmen

- gelungene und für das Projekt in Frage kommende Aufnahmen kennzeichnen

- digitalisieren des Materials in das Schnittsystem

- Rohschnitt *

- Feinschnitt**

- einfügen von Blenden

 

* Beim Rohschnitt wird die erste Auswahl und Anordnung des gedrehten Filmmaterials bezeichnet und festgelegt.

** Beim Feinschnitt werden die in ihrer Reihenfolge bereits festgelegten Einstellungen auf ihre endgültige Länge gebracht.

 

Motivierter Schnitt = Jeder Schnitt sollte einen Grund haben. Die Motivation kann durch die Bild- und Tonebene begründet sein. Man spricht hier auch von Bildimpulsen und Tonimpulsen.

Beispiel: Ein Mann zeigt auf etwas und es ist nur ein klingelndes Telefon zu hören. Hier sollte idealerweise der nächste Schnitt zu dem Telefon führen.

 

Irritierende Schnitte = Schnitte irritieren, wenn die Kontinuität der Darstellung nicht gewahrt wird. Wenn 2 aufeinander folgende Einstellungen keinen logischen oder optischen Zusammenhang aufweisen, spricht man auch von einem Anschlussfehler

Beispiel: Aufgabe ist 6 kurze Statements einer Straßenumfrage aneinander zu schneiden, dann sollte das Bildmaterial in Bezug auf den Abbildungsmaßstand der Person auf ihre Positionierung innerhalb des Bildrahmens und ihre Blickrichtung möglichst abwechselnd gestaltet sein.

 

Jump Cut = Schnitte, die einen Sprung des Motivs innerhalb des Bildrahmens erzeugen

Match Cut = bezeichnet eine Schnittfolge, bei der 2 auffällig ähnliche Bildinhalte aufeinander folgen, die zeitlich oder räumlich auseinanderliegen

Insert Schnitt = zeigen erläuternde Groß-oder Dateilaufnahmen

Diffuser Schnitt = immer dann, wenn eine Einstellung kein konkretes Blickzentrum (mehr) aufweist

 

Inhaltliche Montageformen

Erzählende Montage: Die einzelnen Stadien eines längeren Prozesses werden exemplarisch gezeigt.

Analysierende Montage: Darstellung von Ursache und Wirkung.

Intellektuelle Montage: Ideen und Begriffe werden visuell übersetzt.

Kontrast-Montage: z.B. Hunger - Essen

Analogie-Montage: z.B. Schafherde und Fabrikeinheiten in modernen Zeiten.

Parallel-Montage: Zwei Handlungsstränge laufen parallel nebeneinander her und werden ständig wechselnd geschnitten, z.B. eine Verfolgungsjagd. Die Stränge werden am Ende zusammengeführt, beide Stränge wissen meist von Anfang an voneinander.

Parallelisierende Montage: Die beiden Handlungsstränge sind wie bei der Parallel-Montage zeitgleich, sie wissen aber nichts voneinander und müssen sich nicht treffen.

Metaphorische Montage: Im Bereich der Handlung angesiedelte oder fremde Metapher.

 

Wahrnehmungsästhetische Schnittform

Harte Montage/harte Schnitte: Krass aufeinander folgend, Brüche, wechselnde Bewegungsrichtung.

Weiche Montage/weiche Schnitte: Harmonisch, kaum wahrnehmbare Übergänge.

Rhythmische Montage: Der Schnittrhythmus wird durch die Filmmusik bestimmt - die Filmmusik orientiert sich am Bilderrhythmus.

Springende Montage: Nicht harmonisch, zerfällt in einzelne Einstellungen, Aufzählung, harte Brüche.

Schockmontage: Zwei aufeinander folgende Einstellungen haben scheinbar keine Verbindung, bewusste Desorientierung des Zuschauers.

 

Schnitttechniken

Überblende

Filmschnitttechnik, die im Gegensatz zum harten Schnitt steht. Hierbei wird das alte Bild langsam ausgeblendet und das neue Bild gleichzeitig eingeblendet. Dadurch entsteht ein fließender Übergang zwischen beiden, was häufig verwendet wird, um zwei zeitlich oder räumlich weit voneinander entfernte Szenen zu suggerieren.

 

Wischblende

Filmschnitttechnik, bei der das alte Bild vom neuen Bild kontinuierlich überblendet bzw. ersetzt wird. Dies kann in vielfacher Art geschehen, z.B. auch horizontal, vertikal, diagonal, sternförmig oder im Uhrzeigersinn. Diese Schnitttechnik wird verwendet, um eine gleichzeitige Handlung an verschiedenen Orten darzustellen. Diese Technik wird in modernen Filmen nur noch selten verwendet, am bekanntesten dürfte die Verwendung von Wischblenden in den Filmen der Star-Wars-Reihe sein.

 

Akustische Klammer

Einstellungen oder Szenen werden durch filmischen Ton unterstützt. In den meisten Fällen wird dies durch den Soundtrack oder andere musikalische Beiträge bewerkstelligt. Oft wird aber auf das Stilmittel der vorgezogenen Soundeffekte und Dialoge verwendet. Das heißt, man hört z.B. schon eine Person reden, obwohl sich erst im Szenenwechsel klärt, dass dies zu einem späteren Zeitpunkt oder an einem anderen Ort geschieht.

Gängig ist auch der umgekehrte Weg, um beispielsweise von der Planung einer Aktion zu deren Durchführung zu schneiden, während die Tonspur mit der Erläuterung des Plans fortfährt.

 

Einstellungsgrößen

Unter Einstellungsgrößen bezeichnet man das Größenverhältnis des abgebildeten Objekts zum Bildfeld. Es handelt sich um verschiedene zueinander in Beziehung stehende Bildausschnitte. Sie sind ein wichtiges Mittel des bildlichen Erzählens und können psychologische Akzente setzen. Sie werden in der Regel in einem Storyboard definiert.

 

Jede Einstellungsform eignet sich für bestimmte Zwecke besonders gut. Eine wichtige Informationsquelle ist aber der Wechsel der Einstellungen. An ihr lassen sich stilistische Merkmale und auch die Handschrift des Regisseurs erkennen. Auch verschiedene Filmtraditionen und -kulturen verwenden traditionell sehr unterschiedliche Wechsel in den Einstellungen.

Actionfilme oder Dokumentarfilme weisen oft einen hohen Anteil an long shots auf, weil für diese Filme Mimik und nonverbale Ausdrucksformen weniger wichtig sind, sondern gesamte Vorgänge eingefangen werden. Die erforderlichen schauspielerischen Leistungen sind bei diesen Filmtypen vergleichsweise gering. Auch quasidokumentarische Filme enthalten oft viele totale Einstellungen und verraten hiermit ihre Herkunft aus dem Dokumentarfilm. Filme, die Beziehungen der Figuren und das Gefühl in den Vordergrund stellen, enthalten viele close-ups.

 

Die wichtigsten Einstellungen sind:

Totale (long shot)

Halbtotale (medium long shot)

Amerikanische Einstellung (american shot)

Halbnahaufnahme (medium close- up)

Nahaufnahme (close-up)

Großaufnahme (very close-up)

Detailaufnahme (extreme close-up)

 

Totale - long shot

Mit der Totalen wird dem Betrachter ein Überblick/Orientierung geboten. Er wird in die Thematik der Szene eingeführt.

 

Halbtotale - medium long shot

Es wird ein beschränkter Ausschnitt der Totalen gezeigt. So wird der Blick des Betrachters auf das bildwichtige Motiv gelenkt.

 

Amerikanische Einstellung - american shot

Es handelt sich um eine in Western häufig eingesetzte Einstellungsgröße. Beim Duell sehen wir einen Revolverhelden mit seinem Colt vom Knie an aufwärts im Vordergrund, sein Gegner steht leicht seitlich versetzt im Bildmittelgrund.

 

Halbaufnahme - medium close-up

Es werden erste Details gezeigt, z.B. die obere Körperhälfte einer Person.

 

Nahaufnahme - close-up

Es werden weitere Details des Motivs gezeigt. Für den Betrachter gehen der Überblick und die Möglichkeit zur Einordnung in die Umgebung verloren.

 

 

Bewertung: 
0
Bisher keine Bewertung

Datenhandling / Hardware / Software

Kamera-Raw

Raw-Daten von Kameras sind vergleichbar mit den Negativen der analogen Kameras und diese lassen sich ähnlich wie analoge Daten in Raw-Convertern »entwickeln«. Dabei bleiben die Raw-Daten unberührt und die Entwicklungseinstellungen werden in eine gesonderte Datei geschrieben.

  • Roh-Datenformat von Digitalkameras
  • geräteabhängig, kein einheitlicher Standard
  • Eine Raw Datei wird nicht komprimiert (JPG ist immer komprimiert, ausser JPEG 2000)
  • spezielle Software zur Anzeige nötig

RAW-Format ist ein jeweils vom Kameramodell abhängiges Dateiformat, bei dem die Daten ohne Bearbeitung auf das Speichermedium geschrieben werden.

Definiert jeder Kamerahersteller sein eigenes RAW-Format, gibt es Probleme, wenn es mit der Bildbearbeitungssoftware nicht kompatibel ist.
Um das Problem zu lösen, hat Adobe einen Standard entwickelt, wie Rohdaten kompatibel gesichert werden können: das digitale Negativ, kurz DNG.

Bei Raw Dateien werden pro Kanal 4000 Tonwertstufen gespeichert (bei JPG sind es 256 Tonwertstufen). Mit Raw-Dateien hat man unendlich viele Möglichkeiten das Bild zu bearbeiten

  • nachträglicher Weißabgleich
  • Objektivkorrekturen
  • Farbe, Sättigung und Helligkeit (geht zwar auch mit  JPG, es entstehen aber bei weitem nicht so schnell hässliche Artefakte).

Raw Dateien heißen niemals XXXX.raw , sondern die Endung ist Hersteller spezifisch z.B.:

Nikon = .nef
Olympus = .orf
Canon = .cr2 
Sony = .arw
Minolta = .mrw
Sigma = .x3f
Adobe= .dng

Mehr zum Thema auf Heise Foto: "Raw-Entwicklung: Rohkost für Feinschmecker" (3-teilige Artikelserie) und bei Laserline unter "Was ist Camera-raw?".

 

Vorteile und Nachteile von RAW:
(wenn euch noch was einfällt, bitte ergänzen. Danke)

Vorteile:

  • bessere und mehr Möglichkeiten in der Nachbearbeitung
  • Originalbild bleibt erhalten und Korrekturen können wieder verändert werden, da korrigierte Einstellungen in einer seperaten Datei gespeichert werden
  • größere Datentiefe 
  • Korrektur von Objektivfiltern
  • nachträglicher Weißabgleich
  • keine Kompressionsverluste
  • RAW (engl. raw = roh) ist keine Abkürzung sondern steht für roh sowie unbearbeitet.

    Mit einem RAW-Konverter kann man sehr viele Faktoren beeinflussen:

  • keine Verluste bei der Bearbeitung der RAW-Datei, sie bleibt immer im Original-Aufnahmezustand gespeichert.
  •  16 Bit Farbtiefe statt 8 Bit = viel mehr Reserve im Datenmaterial, Helligkeits-und Farbverläufe werden harmonischer dargestellt.
  •  Korrektur vom Weißabgleich - die Farbtemperatur kann von Sonne, Schatten, Wolken, bis Blitzlicht usw. per Mausklick oder händisch von 2000 bis 10000 Kelvin eingestellt werden.
  • Das Bildrauschen kann sehr gut korrigiert werden
  • Der Tonwertumfang kann einfach gespreizt oder gestaucht werden
  • Die Gradation kann individuell angepaßt werden
  • Der Blendenspielraum beträgt +/- 2 Blenden um zu "pushen" oder "pullen"
  • die Vignettierung kann eliminiert werden
  • die chromatische Abberation (Farbfehler der Objektive an den Bildrändern) kann ebenfalls korrigiert werden

Der Nachteil der RAW-Dateien ist der große Speicherbedarf und die zeitaufwändige Nachbearbeitung sowie die unterschiedlichen RAW-Formate der Kamerahersteller. Für hochwertige Bilder sollten sie also auf jeden Fall im RAW-Format fotografieren.

 

Nachteile:

  • größere Dateigröße (RAW benötigt mehr Speicherplatz als ein JPG)
  • keine Rauschunterdrücken (moderne Bildprozessoren haben einen Rauschfilter, der beim Abspeichern von RAW Dateien nicht angewendet wird)
  • kein Einheitliches Format (jeder (Kamera)Hersteller macht sein eigenes Format)
  • keine direkte Weiterverarbeitung möglich (die RAW Datei muss erst in ein "normales" Format umgewandelt werden z.B. TIFF oder JPG)

 

Bewertung: 
4.5
Durchschnitt: 4.5 (2 Stimmen)

Das Densitometer

Ein Densitometer ist ein Messgerät für Dichten von Tonwerten, so dass die Tonwertwiedergabe auf dem Film exakt beurteilt werden kann. Densitometer zeigen den gemessenen Tonwert als logarithmische Zahl an. Diese Zahl gibt den Grad der Dichte an. Dichte wird auch Schwärzung genannt. (Da sie von geschwärzten Silberteilchen kommt). Außer der Schwärzemessung gibt es noch die Farbdichtemessung.

Dichtemessung (Densitometrie):
Dichtemessung ermöglicht die objektive Beurteilung von Halbton- und Rastertonwerten. Also die Berechenbarkeit, Steuerung und damit die Standardisierung der Bildbearbeitung. Dichtemessung nimmt in dem ausgewählten Messbereichen von Bildern die Abdunklung in Bezug auf Weiß und ermittelt so die Tonwertstufe einer Farbe.

Es gibt 3 Arten von densitometrischer Messung:

  • Durchsichtsmessung (von Negativen und Diapositiven)
  • Aufsichtsmessung (von Fotoabzügen und grafischen Vorlagen)
  • Rastermessung (von gerasterten Filmen und Rasterdrucken)

Grundregeln für die Messung mit einem Densitometer

  • Das Densitometer muss kalibriert sein.
  • Densitometer muss vor der Messung auf das jeweilige Papierweiß des Auflagenpapiers genullt sein. (Damit die Papierfarbe keinen Einfluss auf die Messung hat).
  • Nur lasierende Farben messen, da nur sie mit zunehmend dickerer Farbschicht weniger Licht absorbieren.
  • Einseitig bedruckte Bogen auf weißer Unterlage messen. Doppelseitig bedruckte Bogen auf schwarzer Unterlage messen, da so der durchscheinende Druck neutralisiert wird.

Anwendungsgebiete:

  • Reproduktion
  • Desktop Publishing
  • Fotosatz
  • Technik
  • Medizien

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Normal
0
21

false
false
false

MicrosoftInternetExplorer4

/*-->*/

/* Style Definitions */
table.MsoNormalTable
{mso-style-name:"Normale Tabelle";
mso-tstyle-rowband-size:0;
mso-tstyle-colband-size:0;
mso-style-noshow:yes;
mso-style-parent:"";
mso-padding-alt:0cm 5.4pt 0cm 5.4pt;
mso-para-margin:0cm;
mso-para-margin-bottom:.0001pt;
mso-pagination:widow-orphan;
font-size:10.0pt;
font-family:"Times New Roman";
mso-ansi-language:#0400;
mso-fareast-language:#0400;
mso-bidi-language:#0400;}

Messprinzip

  • Licht wird durch Optik gebündelt auf bedruckte Fläche geworfen
  • Teil des Lichts wird absorbiert
  • Teil des Lichts durchdringt die durchscheinende Farbschicht (& wird abgeschwächt)
  • Restlicht wird von Bedruckstoff remittiert
  • davon läuft es wiederum zurück durch Farbschicht (weitere Abschwächung)
  • Linsensystem fängt Restlicht, welches aus der Farbschicht austritt
  • leitet es an Fotodiode
  • empfangene Lichtmenge wird in elektrische Energie umgewandelt
  • Elektronik vergleicht Messstrom mit einem Referenzwert
  • Differenz davon ist Grundlage zur Errechnung des Absorptionsverhaltens

    der gemessenen Farbschicht

  • Farbdichte wird angezeigt

 

Kurz

Hin: Lichtquelle -> Linsensystem -> Polarisationsfilter -> Farbfilter -> Messgut

Zurück: Linsensystem -> Polarisationsfilter -> Empfänger (Diode) -> Elektronik -> Anzeige

 

Filter

Farbfilter begrenzen Licht auf die für die jew. Druckfarbe relevante Wellenlänge

Farbfilter für:

  Cyan -> Rot

                       Magenta -> Grün

                       Yellow -> Blau

                       Schwarz -> Breitband oder spez. Grünfilter

 

Polarisationsfilter verhindert größere Messwertdifferenzen zw. trockener & nasser

Druckfarbe

 

 

 

Bewertung: 
0
Bisher keine Bewertung

Daten für Druckausgabe optimieren

Ausgabe von PDF-Dateien im Druck

• Was versteht man unter Preflight-Check?

 

Unter Preflight-Check versteht man die Prüfung einer PDF-Datei auf deren Ausgabetauglichkeit.

Folgen Kriterien sind u.a. beim Preflight-Check zu beachten:

  • PDF Version
  • Datenformat ( binär oder ASCII)
  • Font-Einbettung / Font-Typen
  • Farbmodelle / Sonderfarben
  • Bildauflösung

 

• Arbeitsschritte bis zur Ausgabe über den RIP

 

Die Ausgabe von PDF-Datein hängt vom PostScript-RIP ab. Bei Verwendung älterer RIPs wir die PDF-Datei, bevor sie zum RIP geschickt wird, in Postscript umgewandelt und unter Umständen noch farbsepariert. Der Adobe PostScript-3-RIP bietet die komfortabelste Möglichkeit: Die PDF-Datei wird über einen HOTFOLDER direkt eingelesen und automatisch in PostScript umgewandelt und separiert.

 

• Einstellungsmöglichkeiten

 

  • Komprimierung

    für Halbton,- Graustufen- und Schwarzweiß-Bitmap-Bilder stehen die Kompressionsverfahren JPG und ZIP zur Auswahl

  • Neuberechnung
    Bilder mit zu hoher Auflösung als für die Ausgabe nötig, werden heruntergerechnet. Dies gilt auch für Bilder, die im Layout-Programm verkleinert wurden.

  • Einbettung der Schriften

  • Hinterlegung von ICC-Profilen

  • PDF X Standards

(Quelle: ABC der Mediengestaltung)


PDF-Erstellung – Generelle Fehler

Wen Sie die nun folgenden Punkte beachten, können Sie schon während der Erstellung des Layoutdokuments einige Fehler vermeiden, welche die Print-Qualität Ihrer PDF-Datei schmälern.

  • Vermeiden Sie die Verwendung von RGB-Daten. Wandeln Sie diese vor der PDF-Erstellung über ein gesichertes Verfahren in CMYK-Bilddaten um.

  • Achten Sie generell darauf, dass die Auflösung der Bilddaten für das Endformat im entsprechenden Ausgabeverfahren reicht, z.B. 300 dpi für den Offsetdruck. Die Qualität der Bilddaten wird durch eine nachträgliche Skalierung verändert!

  • Vermeiden Sie den Einsatz von Haarlinien, also Linien mit einer Strichstärke unter 0,3 pt. Diese können durch die Rasterung im Druck nur in ungenügender Qualität wiedergegeben werden. Definieren Sie die Linienstärke immer manuell. Die Auto-Funktion der Linienwahl (Dicke, mittlere, dünne Linien) liefert keine verlässlichen Werte.

  • Transparenzen sind effektive Stilmittel, allerdings kann es bei der Druckausgabe zu Problemen kommen, da der RIP sie nicht richtig interpretiert. So ist es möglich, dass Transparenzen nicht verrechnet werden, d. h. Objekte im Vordergrund überdecken den Hintergrund wieder vollständig und die Transparenz geht verloren. Zukünftige Ausgabe-RIPs wie z. B. die Adobe-PDF-Engine werden diese Problematik beheben.

  • Wenn Sie im Layoutprogramm mit verschiedenen Ebenen arbeiten, sollten Sie darauf achten, dass Sie nur aus den druckrelevanten Ebenen ein PDF erstellen. Achten Sie dabei auf die Anordnung der einzelnen Ebenen.

  • Betten Sie Schriften bei der PDF-Erstellung immer vollständig in das Dokument ein. So vermeiden Sie einerseits Darstellungsprobleme, wenn Sie das Dokument an Ihre Druckerei weiterleiten. Andererseits kann diese problemlos kleine Textkorrekturen vornehmen, da ihr der gesamte Schriftfont zur Verfügung steht.

 

*/

UCR/GCR/UCA

  • Ziel: Den Farbauftrag zu verringern

 

UCR

  • Under Color Removal (Unterfarbenreduzierung)
  • Reduziert an den Stellen, wo nur schwarz erscheinen soll die Farben Magenta, Cyan
    und Yellow, um unnötigen Farbauftrag zu vermeiden

GCR

  • Grey Component Replacement (Unbuntaufbau)
  • Man nimmt den kleinsten Farbwert der CMYK-Werte und zieht diesen überall ab, jedoch
    fügt man ihn bei schwarz hin zu. Beispiel:
    C 20% M 60% Y 80% -> C 0% M 40% Y 60% K 20%

 

UCA

  • Under Color Addition (Unterfarbenaddition)
  • 100% K ist KEIN dunkles schwarz, sondern sieht gräulich aus. Daher versucht man mit
    der Zugabe von Cyan ein dunkleres schwarz zu erzielen. Beispiel:
    C 0% M 0% Y 0% K 100% -> C 50% M 0% Y 0% K 100%

 

 

 

Quelle:

http://www.gronenberg.de/veroeffentlichungen/druckratgeber/2-vorstufe/359-26-pdf-erstellung-layoutdaten.html

*/

http://www.smilerestyle.de/downloads/fachwissen/cm.pdf

 

Bewertung: 
0
Bisher keine Bewertung

Ausgabeauflösung

Die Ausgabeauflösung ist die Anzahl von Punkten pro Inch (dpi) die ein Gerät, wie z.B. ein Drucker oder Monitor, ausgeben kann.

Monitore können eine Ausgabeauflösung von 72dpi haben und Drucker haben üblicherweise 300-600dpi als Ausgabeauflösung.

Beim Druck sollte man darauf achten, dass das Quellbild eine proportionale Auflösung zum Drucker hat.
Das heißt, das Bild sollte eine Auflösung von 72-300ppi haben, um beim Druck mit 300-600dpi ein gutes Ergebnis zu erzielen.

 

Ideale Auflösung (Druck ) ...
von Farbbildern: 300 ppi
von Garustufenbildern: 300 ppi
von Strichzeichnungen: 1200 ppi

Monitorauflösung:
zwischen 72 und 96 ppi

Belichterauflösungen:
bis 2540 dpi, aber auch hörere Auflösungen möglich

FORMELN / RECHNUNGEN:

  • Halbtonbildauflösung (Druck) = Rasterweite x Qualitätsfaktor
  • Scanauflösung = Rasterweite x Qualitätsfaktor ( x Skalierungsfaktor)
    (Skalierungsfaktor (Maßstab) =  Reproduktion / Vorlage)
  • Belichterauflösung = Rasterweite x Rasterzellengröße
Bewertung: 
0
Bisher keine Bewertung

Variabler Datendruck

Was ist "Variabler Datendruck" überhaupt?

Während des laufenden Drucks bei einer Digitaldruckmaschine/Laserdrucker werden Text und/oder Bildelemente ausgetauscht wobei das Grundlayout bestehen bleibt.
Dieses Produkt/Druckerzeugnis besteht aus statischen und dynamischen Daten. (Die statischen Daten sind die Elemente, die in den Datensätzen immer gleich sind, also immer das selbe Erscheinungsbild und den selben Stand haben. Die dynamischen Daten sind die Daten, die individuell ausgetauscht werden.) Für den laufenden Druckprozess werden diese zwei Datentypen mit Hilfe der verknüpften Datenbank über das RIP generiert und zu einem Gesamtdruckwerk zusammengesetzt.

Was sind die Vorteile des variablen Datendruck?

  • Persönliche Kundenansprache
  • Stärkere Kundenanbindung
  • Verbesserte Responsequote (abhängig von der Qualität, siehe Qualitätsfaktoren)
  • Hohe Aufmerksamkeit durch Bildpersonalisierung
  • schnelles Ändern der Datensätze
  • bessere Umsetzung von Marketingstrategien

Welche Qualitätsfaktoren gibt es?

  • Fehlerfreie Datenbanken
  •  Grafische Gestaltung (Gestaltungsregeln beachten)
  •  Zielgruppengenau Datenbank
  • Textgestaltung
  • Zielgruppenansprache
  • Attraktives Angebot
  • Geeignete Bildauswahl und -aufbereitung

Welche Nachteile hat der variable Datendruck?

  • Hoher Zeitaufwand bei der Datenberechnung (RIP-Prozess)
  • nur sinnvoll bis zu einer gewissen Auflagenhöhe
  • langsame Druckgeschwindigkeit
  • evtl. gesteigerter Verwaltungsaufwand (je nach Umfang der Personalisierung)

Wie erstellt man ein personalisiertes Dokument?

  1. "Masterdokument" erstellen
    Hier sollten alle statischen Inhalte enthalten sein und Positionierungsvorgaben der variablen Inhalte.
  2. Erstellen/auswählen der Datenbank
  3. Fertigstellen des Dokuments
    Hinzufügen der "Seriendruckfelder"/Dynamische Felder
    Diese sind in den meisten Programmen als Seriendruckzeichen gekennzeichnet (<<Name>>)
    Die eingefügte Bezeichnung (hier "Name") muss identisch mit der Spaltenbezeichnung in der Datenbank sein.
  4. Vorschau des Dokuments
    Jeder Datensatz wird mit den wechselnden Dateninhalten angezeigt
  5. Zusammenführen und Ausgaben
    Direkt auf einem geeigneten Drucker oder als PDF-Datei

Medienprodukte sind an sich ohne Einschränkungen zu gestalten man sollte nur einige technische Aspekte berücksichtigen um eine sichere und schnelle Produktion zu gewährleisten.
Da die meisten Layoutprogramme mit Text- und Grafikrahmen arbeiten muss bei der Gestaltung der maximal benötigte Platz  für den Textdatenaustausch berücksichtigt werden. Und das kann passieren, wenn man diesen Aspekt nicht beachtet:

  • Der Text wird gekürzt - was nicht in den Textrahmen passt wird nicht berücksichtigt und fällt weg
  • Der Textrahmen bleibt leer
  • Schriftgrad wird dem Textrahmen angepasst (dynamischer Textrahmen)
    Hierbei sollte man besonders Vorsichtig sein, wenn man mit einem vorgegebenen Corporate Design arbeitet.

Bei variablen Bilddatenaustausch gibt es drei Übernahmeparamenter für die Bildskalierung:

  • Originalgröße beibehalten
  • Skalierung in Prozent
  • Bildposition links oben, links unten oder zentriert

Um bei der Bildpersonalisierung einen sicheren Datenaustausch gewährleisten kann müssen die Bilder:

  • die gleichen Pixelmaße aufweisen
  • die gleiche Auflösung haben
  • das gleiche Datenformat haben
  • den gleichen Farbmodus und
  • einen einheitlichen Farbraum
     

 

Bewertung: 
4.5
Durchschnitt: 4.5 (2 Stimmen)

Densitometrie

  • in der Densitometrie wird die optische Dichte D von Vorlagen, Drucken und fotografischen Materialien gemessen
  • zur Bestimmung der Dichte werden Densitometer verwendet
  • das menschl. Auge empfindet Helligkeitsunterschiede nicht linear, sondern logarithmisch
  • der Unterschied zwischen der Opazität O (Lichtundurchlässigkeit) von 1 bis 100 wirkt auf das Auge also 2fach, nicht 100fach (2 = log 100)
  • die Dichte wird deshalb durch die Logarithmierung der Opazität errechnet
  • die Opazität ist das Verhältnis der auftreffenden Lichtintensität l0 zur durchgelassenen Intensität l1
  • die Transparenz T (Lichtdurchlässigkeit) ist der Kehrwert der Opazität, d.h. das Verhältnis der durchgelassenen Lichtmenge l1 zur auftreffenden l0

Dies lässt sich durch die so genannte TOD-Formel berechnen:

T = Transparenz = (durchgelassenes Licht) / (auffallendes Licht) = 1 / O

O = Opazität = (auffallendes Licht) / (durchgelassenes Licht) = 1 / T = 10(hoch -D)

D = Dichtewert = log O = log (1 / T)

Halbtondichtemessung

  • bei der Messung von Halbtönen, z.B. Dias oder Fotos, muss zunächst das Densitometer kalibriert werden
  • dies geschieht durch eine erste Messung ohne Probe
  • l1 wird damit gleich l0 und somit zu 100% gesetzt
  • bei der folgenden Messung auf der Bildstelle wird die durch die optische Dichte reduzierte l1 gemessen
  • die anschließende Berechnung im Densitometer ergibt die Bilddichte D

Rasterdichtemessung

  • auch integrale Dichtemessung genannt
  • sie bestimmt als l1 den Mittelwert aus gedeckter und ungedeckter Fläche
  • dazu ist es notwendig wenigstens 100 Rasterpunkte zu erfassen
  • die Messblende ist deshalb mit einem Durchmesser von ca. 3 mm größer als bei der Halbton-dichtemessung
  • die Kalibrierung erfolgt auf einer nicht mit Rasterpunkten bedeckten blanken Filmstelle bzw. bei Aufsicht auf weißem Papier
  • somit repräsentiert l1 bei der Messung nur die rasterfreien Flächenanteile
  • die Differenz zwischen 100% und l1 ergibt den Rastertonwert

 

Übungsaufgaben und Hinweis von cuya:

Informationen von www.mathemedien.de

Densitometrie

Medienproduktion, alle Fachrichtungen

Hier kann es um die Berechnung von Dichte und Rastertonwert gehen.

6  Bitte jeweils die Dichte ausrechnen:
a)  Transmissionsfaktor (Transmissionsgrad) 0,50
b)  Reflexionsfaktor (Remissionsgrad) 0,01
c)  Transmissionsfaktor 0,2 %
d)  Reflexionsfaktor 5 %

7  Bitte die folgenden Dichten in Reflexionsfaktoren umrechnen:
a)  0.60
b)  1.65
c)  0.10

8  Die am Film gemessenen Dichten sollen in prozentuale Rastertonwerte umgerechnet werden:
a)  Positivfilm, Dichte 0.74
b)  Negativfilm, Dichte 0.74
c)  Positivfilm, Dichte 0.25
d)  Negativfilm, Dichte 0.18

9  Bitte jeweils den Rastertonwert im Druck berechnen (Murray-Davies-Formel)
a)  Dichte im Raster 0.76, Volltondichte 1.25
b)  Dichte im Raster 0.40, Volltondichte 1.60
c)  Dichte im Raster 0.96, Volltondichte 1.45

10  Wie hoch ist die Tonwertzunahme im Druck, wenn im 40-Prozent-Rasterkontrollfeld die Dichte 0.33 und in Volltonfeld die Dichte 1.40 gemessen wird?

 

Lösung: www.mathemedien.de

Bewertung: 
0
Bisher keine Bewertung

Densitometrie/Murray Davis

Allgemeines

  • ist die quantitive Messung der Farbdichte (Volltondichte)
  • d.h. wie viel Farbmenge sich pro Flächeneinheit befindet
  • es werden nur Tonwerte bestimmt
  • dient in der Reproduktion und beim Druck zur Qualitätssicherung
  • das Messgerät nennt sich Densitometer


Erläuterung von Begriffen

Transparenz = Lichtdurchlässigkeit
Opazität = Lichtundurchlässigkeit
Transmission, transmittieren = Durchlassen von Licht
Reflexion, reflektieren = Zurückstrahlen von Licht
Remission, remittieren = Diffuses Zurückstrahlen von Licht
Absorption, absorbieren = vollständiges Aufnehmen (Verschlucken) von Licht
lasierend = durchscheinend


Arten von Densitometern

Auflichtdensitometer
beim Druck auf Papier (Aufsichtvorlagen)

Auffallendes Licht (I0) wird auf eine lichtundurchlässige Vorlage gestrahlt.
Das remittierte Licht (I1) wird an die Messzelle gestrahlt.
Wie viel Licht wurde remittiert?

Durchlichtdensitometer
in der Reproduktion für Filme (Durchsichtvorlagen)

Auffallendes Licht (I0) wird auf eine lichtdurchlässige Vorlage gestrahlt.
Das transmittierte Licht (I1) wird an die Messzelle gestrahlt.
Wie viel Licht wurde transmittiert?

 

Formeln:

Bei der Durchsichtsmessung:

Tranzparenz T (Lichtdurchlässigkeit) = x% druchgelassene Lichtmenge : 100% aufgestrahlte Lichtmenge

Opazität O (Lichtundruchlässigkeit) = 1:T (Kehrwert) bzw. 100% aufgestrahlte Lichtmenge : x% druchgelassene Lichtmenge

Dichte D = logO bzw. log1:T

 

Bei der Aufsichtsmessung UNGERASTERT (FOTO):

Remission R = x% remittierte Lichtmenge : 100% absorbierte Lichtmenge

Absorption A = 1:R (Kehrwert) bzw. 100% absorbierte Lichtmenge : x% remittierte Lichtmenge

Dichte D = logA bzw log1:R

 

Jetzt kommt RTW-Messung im Film
= (1-T)*100% bzw. (1-1:O)*100% bzw. (1-10 hoch -D)*100%

Jetzt kommt RTW-Messung im Druck (MURRAY DAVIS):

= (1-Transmission im Rasterfeld : 1-Transmission im Vollton)*100% bzw.

= (1-1:A im Rasterfeld):(1-1:A im Vollton)*100% bzw.

= (1-10 hoch -Dichte im Rasterfeld : 1-10 hoch -Dichte im Vollton)*100%

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Tonwertkorrektur (Histogramm)

Wenn ein Bild nicht optimal eingescannt wurde oder die Vorlage mangelhaft war, kann es passieren, dass der Scan zu dunkel, zu hell oder kontrastarm und flau erscheint.
In fast jedem brauchbaren Bildbearbeitungsprogramm findet man die Einstellung Tonwertkorrektur. Die Tonwertkorrektur bietet Möglichkeiten zur Beeinflussung der Helligkeitsverteilung. Entweder hat man die Möglichkeit, die Einstellungen manuell vorzunehmen, oder eine Automatik übernimmt die Korrektur.
Bei Helligkeit/Kontrast – der Funktion die man wohl als erste wählen würde, um ein zu dunkles Bild aufzuhellen oder ein zu helles Bild abzudunkeln – wirken sich die gemachten Einstellungen auf das ganze Bild aus. Alle Pixel werden heller oder dunkler und der Kontrast zw. den Pixeln ändert sich gleichmäßig in allen Helligkeitsbereichen.

Neben dem Festlegen des Tonwertbereichs kann man im Dialogfeld „Tonwertkorrektur“ die Farbbalance eines Bildes korrigieren.

So stellt man im Feld „Tonwertkorrektur“ die Farbbalance ein:
1. Platziere einen Farbaufnehmer im Bild auf einem Bereich mit neutralem grau.
2. Öffne „Tonwertkorrektur“
3. Doppelklick im Dialogfeld „Tonwertkorrektur“ auf die graue Pipette, um den Farbwähler anzuzeigen. Gebe die Farbwerte für das neutrale Grau ein, auf OK klicken. Weise dem neutralen Grau generell gleiche Farbkomponentenwerte zu. Verwende z.B. gleiche Rot-, Grün- und Blauwerte, um in einem RGB-Bild ein neutrales Grau zu erzeugen.
4. Klicke im Bild auf den durch den Farbaufnehmer markierten, neutral grauen Bereich.
5. Klicke auf OK.

Der Tonwertkorrektur-Dialog, zeigt also den Tonwertumfang für ein aktiv geöffnetes Bild. Auf der x-Achse werden alle vorkommenden Tonwerte gezeigt. Jeder Kanal hat max. 256 Tonwerte oder Helligkeitswerte, Werte also von 0-255. Der Tonwertumfang meint alle im Bild vorkommenden Tonwerte, spiegelt also die Spanne zwischen den dunkelsten (Tiefen) und den hellsten (Lichter) Tönen wider, d.h. die Verteilung von links Schwarz und rechts Weiß. Dazwischen werden die Mitteltöne angezeigt.
Die y-Achse zeigt die Häufigkeit der Pixel einer Tonwertstufe. Je länger der Strich, desto mehr Pixel dieser Tonwertstufe sind im Bild vorhanden. Striche mit Zwischenräumen weisen darauf hin, dass hier Tonwerte, also Bildinformationen fehlen.

Der Tonwertkorrekturdialog liefert ein Histogramm zur Beurteilung der Qualität eines Bildes anhand der vorkommenden Tonwerte, quasi eine Art Statistik: alle vorkommenden Tonwerte und die Häufigkeit dieser Tonwerte im Bild werden angezeigt.
Man kann die Tonwertkorrektur mit den Schiebereglern vornehmen oder Ziffern in die Eingabefelder bei Tonwertspreizung eintragen. Man definiert damit Zielwerte für den dunkelsten oder hellsten Tonwert und den mittleren (Gammma-Wert).

Bewertung: 
3.666665
Durchschnitt: 3.7 (3 Stimmen)

6. Bild-Dateiformate und Metadaten

Metadaten (Metainformationen)

Metadaten sind Daten, die zusätzliche Informationen über eine Datei enthalten. Sie sind in dem Dateikopf gespeichert und sind unsichtbar.

Welche Bedeutung haben Bild-Metadaten für die betrieblichen Arbeitsabläufe?

  • beugt Informationsverlust vor

  • ist zur Weiterverarbeitung wichtig

  • Durch die Speicherung von Metadaten, kann zu einem späteres Zeitpunkt immer festgestellt werden, wie groß zum Beispiel die Daten sind, mit welcher Kamera oder wann sie aufgenommen wurden oder mit welcher Auflösung die Datei aufgenommen wurde.

     

IPTC-Daten: (Pressephotographen) erlauben Angaben zu Copyright, Urheber und Autor, einen Bildtitel sowie eine Kurzbeschreibung und eine Verschlagwortung.
 

EXIF-Daten (Exchange Imaging Format for Still Cameras): Diese sind zusätzliche Informationen, die von der digitalen Kamera in die Bilddatei (JPEG-, TIFF- oder RAW-Bilddaten,... ) eingebettet werden.

Beispiel Angaben: Kamerahersteller, Modell, Blendenwert, Verschlusszeit, ISO-Einstellung, Objektiv, Belichtungsprogramm, Brennweite, EXIF-Farbraum, Weißabgleich, Bildauflösung, ob ein Blitz zum Einsatz kam, Datum und Uhrzeit = Aufnahmeparameter (Exif-Standard)

Bewertung: 
0
Bisher keine Bewertung

Arbeitsablauf Farbmanagement

Ziel eines konsequent eingesetzten Farbmanagements ist, dass eine Vorlage, die mit irgendeinem
Eingabegerät erfasst wurde, an einem beliebigen Ausgabegerät möglichst ähnlich wiedergegeben wird.
Colormanagement-Systeme können Geräte wie Scanner, Digitalkameras, Monitore,
Drucker sowie Film- und Plattenbelichter aufeinander abstimmen.

Jedes der an der Prozesskette von der Eingabe bis zur Ausgabe beteiligten Geräte wird in seiner Farbcharakteristik vermessen und durch ein Farbprofil beschrieben.

Welche Bestandteile braucht ein Farbmanagement-System?

  • Benutzerschnittstelle: Anwendung, die Farbprofile darstellt und ausgibt (z.B. Photoshop, Indesgin)
  • Color Matching Modul: Software, die die Umrechnung in andere Farbräume vornimmt, das sogenannte Gamut Mapping
  • Farbprofile
  • Farbmesstechnik u. Software zur Erzeugung von Ein- und Ausgabeprofilen

ICC-Farbprofile
Das ist eine genormte Datei, die für eine Farbtransformation benötigten Daten und mathematischen Funktionen enthält, anhand derer Farbdaten umgerechnet werden sollen.
Ein Geräteprofil (von Scanner, Drucker, Monitor ect.) beschreibt immer die Zuordnung zwischen einem individuellen Gerätefarbraum (RGB,CMYK) und einen Referenzfarbraum (CIELAB).

 

Kalibrierung und Profilierung von Ein- und Ausgabesystemen

Die Profilierung von Ein- und Ausgabesystemen kann man in 3 Schritte unterteilen:

  1. Kalibration der Peripheriegeräte
  2. Erfassung und Aufbereitung des Messdaten
  3. Profilierung der Ein- und Ausgabesysteme

 

Monitor

Kalibrierung
Für die Profilerstellung und dieselbe Farbdarstellung wie im Druck, muss der Monitor kalibriert sein.
Dies erreicht man mit einer Kalibrierungs-Software oder über das Menü des Monitors. Hier werden Kontrast, Helligkeit und Farbtemperatur eingestellt.

Profilierung

Über eine Profilierungssoftware und dem dazu passendem Messgerät können die Farbwerte des Bildschirms gemessen werden. Daraus errechnet sich dann das Monitor-Farbprofil.

 

Eingabeprofilierung

Scanner

Zur ICC-Profilierung eines Scanners wird ein sogenanntes IT-8-Target benötigt.
Dieses Target zeigt eine ganze Reihe von Referenzfarben, die der Scanner einliest.
Eine spezielle Software vergleicht diese gemessenen Farbwerte mit den in eine Referenztabelle angegeben Soll-Werten und bestimmt so das Scanner-Farbprofil.

 

Ausgabeprofilierung

Drucker

Die Profilierung eines Druckers erfolgt ähnlich wie die eines Bildschirmes.
Auf einem sogenannten Test-Target werden viele Referenzfarben ausgedruckt, die dann mit einem Spektralphotometer oder Colorimeter ausgemessen und vom Rechner mit den Soll-Farbwerten verglichen werden. Die Besonderheit beim Drucker-Farbprofil ist, dass hier Angaben zu der Seperation gemacht werden müssen (z.B. UCR, GCR, UCA)

Standarddruckprofile der ECI:

  • ISOcoated_v2
    Offsetdruck auf glänzendem und matt gestrichenem Papier
  • ISOcoated_v2_300
    Offsetdruck auf glänzendem und matt gestrichenem Papier mit geringem Farbauftrag
  • ISOcoated_NPscreen
    Offsetdruck auf glänzendem und matt gestrichenem Papier, FM-Raster
  • ISOcoated_NPscreen_300
    Offsetdruck auf glänzendem und matt gestrichenem Papier mit geringem Farbauftrag, FM-Raster
  • ISOuncoated
    Offsetdruck auf ungestrichenem Papier
  • ISOwebcoated
    Rollenoffsetdruck auf LCW-Papier
  • ISOuncoatedyellowish
    Offsetdruck auf ungestrichenem Papier mit gelblichen Papierton
  • ISOnewspaper
    Rollenoffsetdruck auf Zeitungspapier
  • PSRgravureLWC
    Tiefdruck auf LWC-Papier

 

Bewertung: 
0
Bisher keine Bewertung

Colormanagement und CIELAB

  • versch. Ein- und Ausgabegeräte ordnen Farben den entsprechenden gerätespezifischen Farbräumen zu, die untereinander nicht übereinstimmen
  • ein Raum oder Bereich reproduzierbarer Farben wird als Gamut (engl. Farbraum) bezeichnet
  • bezogen auf einen idealen Farbraum, der alle Farben umfasst, sind gerätebezogene Gamuts Ausschnitte, die nicht deckungsgleich sind
  • Farbabweichungen lassen sich also somit erklären, dass die Gamuts der Ein- und Ausgabegeräte einen unterschiedlichen Grenzbereich haben
  • Farben die außerhalb dieses Bereich liegen, können gar nicht wiedergegeben werden
  • Gamut Alarm weist auf Monitorfarben hin, die nicht im CMYK-System darstellbar sind – es ist durch die Vielzahl der versch. Hardware für einen Hersteller nicht möglich, die Abstimmung des Systems sicherzustellen
  • sogar wenn man Hardwaregeräte von gleicher Art hat, wird die Farbe mit mehr oder weniger großen Abweichungen wiedergegeben
  • ebenso sind die Druckmaschinen davon betroffen
  • die Besonderheiten des Druckverfahrens, der Druckfarbe und des Papiers sind dabei zu berücksichtigen
  • ebenso sollte man nicht vergessen, dass die Farbe in versch. Farbraumsysteme umgerechnet werden muss, die selbst systemabhängig ist, wie z.B. RGB und CMYK
  • unterschiedliche Ausgabegeräte geben versch. CMYK-Farbräume wieder
  • in Amerika und Japan existieren von CMYK abweichende Farbstandards
  • viele nicht übergreifende standardisierte Parameter und Einflussgrößen beeinflussen die Reproduzierbarkeit der Vorlagenfarben und ihre Transformationen
  • selbst Nichtfachleute erkennen, dass hier das WYSIWYG-Prinzip nicht gilt! (es bedeutet, dass was auf dem Bildschirm zu sehen ist, die Mindestqualität ist, die ausgegeben wird)
  • da dieses Problem für Schriften durch die Type-Management-Software gelöst wurde, versuchte man eine gleiche Lösung für Farbreproduktion zu finden
  • dabei müssen Druck- und Papierfarben auf dem Monitor simulierbar sein
  • subtraktive Farbmischung muss im RGB-System (additive Farbmischung) nachgestellt werden und auch genauso im Ausdruck erscheinen

sehr wesentlich und wichtig für:

  • Druck von Textil- und Produktmustern
  • markenbezogenen Hausfarben
  • Kunstreproduktion
  • Wiedergabe von feinen oder heiklen Farbtonwerte
  • zur Lösung dieser Aufgabe wurde international das CMS oder Color-Management-System entwickelt – mit der CMS-Software werden unterschiedliche Farbräume einander angepasst und die Farbraumtransformationen, die notwendigen Umrechnungen von einem Farbraum zum anderen, vorgenommen

 

  • CMS ist Teil des Betriebssystems
  • die Umrechnungen erfolgen über mehrere komplizierte Gleichungen
  • ein geräteunabhängiger, international akzeptierter Farbraum dient als Bezugssystem
  • 1976 wurde von CIE das CIELAB-Farbordnungssystem entwickelt
  • es ist ein internationaler Industriestandard für die Klassifizierung und Messung von Farben
  • es orientiert sich an der menschlichen. Farbwahrnehmung und an den 3 Farbmerkmalen:
  • Helligkeit oder Luminanz
  • Sättigung oder Chroma
  • Farbton (engl.: Hue)
  • alle 3 lassen sich bei Farbtonwerten getrennt voneinander regeln
  • das CIELAB-Farbmodell umfasst alle sichtbaren Farben und weist jedem Farbtonwert in einem ellipsenförmigen Raum einen Platz zu
  • Farbtonwerte werden durch die Raumkoordinaten L*a*b bestimmt
  • diese Werte werden auch auf Farbmessgeräten angezeigt
  • L* kennzeichnet die vertikal durch die Kugel laufende, in 100 Stufen unterteilte Helligkeitsachse
  • unten befindet sich bei 0 Schwarz und oben bei 100 Weiß
  • über die a*- und b*-Achsen werden Farbton und Sättigung der Farbe zugeordnet
  • die Achsen beziehen sich auf die größte horizontale Schnittfläche der Farbkugel
  • durch die Mitte dieser Fläche verläuft vertikal die Helligkeitsachse
  • hier schneiden sich a* und b* im rechten Winkel, so dass auf der Fläche 4 gleiche Bereiche entstehen
  • die a*-Achse verläuft von rechts nach links von Rot nach Grün, die b*-Achse von oben nach unten von Gelb nach Blau
  • die a*-Werte der Achse haben im grünen Bereich ein negatives Vorzeichen, ebenso die b*-Werte im blauen Sektor
  • die Achsen sind in positive und negative Werte unterteilt
  • in diesem räumlichen Koordinatensystem können die Ist-Werte den Soll-Werten gegenübergestellt werden
  • der Farbabstand vom Ist-Farbwert zum Soll-Farbwert wird mit DeltaE- L*a*b* angegeben und am Display anzeigen (der griechische Buchstabe Delta steht für eine Abweichung oder Differenz)
  • die beiden voneinander abweichende Farbwerte werden über die Formel zur Ermittlung des Farbabstands verrechnet.
  • die Differenz der beiden Werte wird mit Delta E-Werte, Delta L* für den Helligkeitsunterschied, Delta a* für den Rot-Grün Unterschied und Delta b* für den Gelb-Blau-Unterschied. Erkennbar werden Farbabstände von etwa 3 bis 6 mit zunehmender Stärke

Weiterführende Links:
Die Print Media Akademie hat eine Broschüre zu Colormanagement veröffentlicht, die es auch als PDF zum Download gibt: http://www.print-media-academy.com/www/html/de/content/articles/news/profi_tipp_5

Bewertung: 
0
Bisher keine Bewertung

Backup-Systeme

1.    Datensicherung

Datensicherung (engl.: Backup [ˈbækʌp]) bezeichnet das teilweise oder gesamte Kopieren der in einem Computersystem vorhandenen Daten auf ein alternatives (häufig transportables) Speichermedium. Sie kann ebenfalls auf einem so genannten Internetspeicher als Online Backup erfolgen. Zur wiederherstellbaren vollständigen Datensicherung ist die Fixierung aller Werte bzw. Daten notwendig. Die auf dem Speichermedium gesicherten Daten werden als Sicherungskopie, oft englisch auch als Backup, bezeichnet. Das Ziel ist es, den Datenverlust bei Systemausfällen zu begrenzen.
Die Wiederherstellung einer Sicherungskopie bezeichnet man als Datenwiederherstellung, Datenrücksicherung oder Restore.

1.1.    Sinn der Datensicherung

Die Datensicherung dient dem Schutz vor Datenverlust durch:

  • Hardware-Schäden (z. B. durch Überspannung, Materialermüdung, Verschleiß oder Naturgewalten wie Feuer, Wasser, etc.)
  • Diebstahl oder absichtliches Löschen der Daten
  • Computerviren, -würmer und Trojanische Pferde
  • versehentliches Überschreiben oder Löschen der Daten
  • logische Fehler innerhalb der Daten

1.2.    Umsetzung

Die Aufbewahrung von Datensicherungen sollte örtlich entfernt von der EDV-Anlage und in einer sicheren Umgebung erfolgen.

  • Für Privatleute bieten sich externe Festplatten mit Firewire, eSATA oder USB-Anschluss an. Diese lassen sich unkompliziert an das zu sichernde System anschließen und wieder von diesem trennen und ermöglichen so zumindest eine entfernte Aufbewahrung. Auch netzwerkbasierende Festplatten sind einfach anzuschließen und zu entfernen und damit sinnvolle Sicherungen möglich.
  • Für kleinere Unternehmen eignen sich z. B. Bankschließfächer. Auf diese kann aber in der Regel nicht zu beliebiger Zeit zugegriffen werden. So lassen sich die Datenträger zur Wiederherstellungen nur während der Öffnungszeiten beschaffen.
  • Für größere Unternehmen können sich speziell gesicherte Safes oder Räumlichkeiten (sog. Zellen) zur feuersicheren Unterbringung der Tape Libraries lohnen. Auch können die gesicherten Daten auf mehrere Standorte oder Rechenzentren verteilt werden.

1.3.    Gesetzeslage

Die Pflicht zur Datensicherung ergibt sich unter anderem aus den gesetzlichen Vorschriften über eine ordnungsgemäße, nachvollziehbare, revisionssichere Buchführung (HGB). Von der kurzzeitigen Aufbewahrung (begrenzt auf einen Tag bis drei oder auch sechs Monate) unterscheidet sich die längerfristige Datenarchivierung, die anderen Gesetzmäßigkeiten unterliegt.

1.4.    Dokumentation

Bei der Datensicherung ist es sehr wichtig, eine gute Dokumentation zu führen, da von ihr der Erfolg und die Geschwindigkeit des Backups sowie der Wiederherstellung abhängen kann.
Die Dokumentation sollte umfassen:

  • Ablauf der Datensicherung
  • Aufbau der Archivierung
  • zu treffende (Sofort-)Maßnahmen
  • Kompetenzen (der Mitarbeiter und Dienstleister)
  • Prioritäten für besonders zeitkritische Daten und Systeme

Für eine bessere Übersichtlichkeit ist die Dokumentation für Sicherung und Wiederherstellung jeweils getrennt in einem Sicherungs- bzw. Wiederherstellungsplan festzulegen.

1.5.    Sicherungsarten

Je nach Veränderungsintensität der zu sichernden Daten können beim konkreten Sicherungsvorgang bestimmte Sicherungsarten eingesetzt werden. Einzelne Sicherungsvorgänge können in Volldatensicherung, differentieller und inkrementeller Sicherung unterschieden werden. Differentielle und inkrementelle Sicherung setzen mindestens eine erfolgte Volldatensicherung voraus.

  • Volldatensicherung: Bei einer Volldatensicherung werden die jeweils zu sichernden Daten (je nachdem: bestimmte Dateien, bestimmte Verzeichnisse, ein komplettes Laufwerk usw.) jedes Mal komplett neu auf das Sicherungsmedium übertragen.
  • Differentielle Sicherung: Bei einem differentiellen Datensicherungsvorgang werden alle Änderungen seit der letzten Volldatensicherung übertragen.
  • Inkrementelle Sicherung: Bei einer inkrementellen Sicherung werden alle Änderungen seit der letzten inkrementellen Sicherung berücksichtigt (erfolgte noch keine inkrementelle Sicherung: seit der letzten Volldatensicherung).

2.    Sonderfall Privatnutzer

Für Privatanwender hängt die Art der sinnvollsten Datensicherung stark von der zu Verfügung stehenden Hardware, dem vorhandenen Fachwissen und nicht zuletzt von der persönlichen Einstellung zu den zu sichernden Daten und deren Sicherung ab. Mit ausreichendem Engagement lassen sich schon mit einfachen Mitteln Backups erstellen und die Sicherheit auf industrielles Niveau ausbauen.
Auf dem Software-Markt stehen sowohl kommerzielle als auch Freeware-Programme zur Verfügung. Zu den bekanntesten kommerziellen Angeboten gehört das Programm TrueImage der Firma Acronis, im Freeware-Bereich können TrayBackup, Cobian oder Areca als Beispiele genannt werden.

2.1.    Beispiel

Am naheliegendsten wäre wohl eine Sicherung auf DVD- oder CD-RWs, da Brenner in Notebooks und Desktop-PCs seit langem zur üblichen Grundausstattung gehören und Leermedien günstig sind. Die einfachste Möglichkeit, ohne Software und mit nur wenig Hintergrundwissen ein recht gutes Backup zu erstellen, ist die Anlage von mindestens zwei Sicherungen im regelmäßigen Abstand auf physikalisch unabhängigen Datenträgern. So kann das Großvater-Vater-Sohn-Prinzip nachgebildet werden. Mit drei oder mehr Medien lässt sich dieses Prinzip dahingehend ausbauen, kleinschrittiger Änderungen rückgängig machen zu können oder weiter zurückliegende Versionen vorzuhalten. Mit anderen Medien lässt sich die Geschwindigkeit und Kapazität steigern.
Sind die Daten auf der ursprünglichen Festplatte entsprechend sortiert, kann die Sicherung aktueller oder besonders wichtiger Daten in kürzeren Zeitabständen erfolgen (z. B. täglich), als die der übrigen Bestände.

3.    Geschichte

In den 1990er Jahren versuchte Iomega, die Zip-Disketten mit – für damalige Verhältnisse – vergleichsweise hohen Kapazitäten von 100, später 250 Megabyte im Bereich Backup-Lösungen zu positionieren. Magnetbänder haben im privaten Bereich überaus niedrige Verbreitung und sind den Festplatten an Geschwindigkeit und vor allem bei den Kosten pro Speicherplatz mittlerweile unterlegen. Im Energieverbrauch sowie in der Haltbarkeit sind sie jedoch überlegen, was sie im Firmeneinsatz noch bestehen lässt. Festplatten bieten mittlerweile mit großen Kapazitäten und relativ stabilen Gerätepreisen eine attraktive Alternative zu Wechselmedien. Auch Flash-Speicher haben praktikable Kapazitäten erreicht und eignen sich daher als Sicherungsmedien. Exotisch sind noch Speicher, die über DSL-Verbindungen Datenserver von Dienstleistern im Internet zur Verfügung gestellt werden.

4.    Medientypen der Datensicherung

Im Jahr 2005 wurden die meisten Datensicherungen von festplattenbasierten Produktionssystemen auf Magnetband großer Kapazität (z. B. Digital Linear Tape, Linear Tape Open), Festplatte oder optischen Speicher wie CD-R, DVD, DVD-RAM und vergleichbare Formate gemacht. Mit der Zunahme günstiger Breitband-Internetverbindungen gewinnen Netzwerk- und Fern-Datensicherungen, so genannten Online Backups auf externen Servern mehr Bedeutung.
Im Privatbereich werden auch weitere Sicherungsmedien eingesetzt (siehe Sonderfall Privatnutzer)

5.    Echtzeitanwendungen

Datenbanken müssen in einem konsistenten Zustand gesichert werden (Datenkonsistenz, siehe auch Datenbankarchivierung). Dies erreicht man durch Herunterfahren der Datenbank (Cold Backup) (hierbei ist die Datenbank off-line und der Produktivbetrieb unterbrochen), Datenexport aus der Datenbank oder Hot Backup.

5.1.    Hot Backup

Ein Hot Backup ist eine Sicherung eines Systems (beispielsweise einer Datenbank), die möglichst aktuell gehalten wird – im Idealfall ist sie auf dem gleichen Stand wie das Live-System. Vorteil dieser Methode ist das Vorhalten eines aktuellen „Ersatz-Datenbestandes“, der im Fall eines Systemabsturzes sofort einsatzbereit ist.

5.2.    Cold Backup

Ein Cold Backup ist eine Sicherung eines Echtzeit-Systems, die erstellt wird, während das System nicht aktiv ist. Dadurch wird erreicht, dass die Daten in einem konsistenten Zustand gesichert sind. Der Nachteil dieser Methode liegt darin, auf ein Zeitfenster ohne Aktivität angewiesen zu sein. Für hochverfügbare Dienste ist sie also ungeeignet, um Backups von Umgebungen zu machen, die beispielsweise nur tagsüber verfügbar sein müssen bietet es sich hingegen an.
Eine bei Oracle-Datenbanken verbreitete Methode ist, die Datenbank bei Beginn der Sicherung in den Backup-Modus zu versetzen und danach wieder in den Produktionsmodus.
Verschiedene Hersteller von Datensicherungs-Programmen oder Drittanbieter bieten Online-Integrationen (Integrations-Agent) bzw. Zusatzprodukte wie den Open File Manager von St. Bernhard an.

5.3.    RAID 1

Eine weitere Realisierungsmöglichkeit ist ein Festplattenverbund im RAID 1. Das hieße die Spiegel-Festplatte wird vom System getrennt, an einem alternativen Platz eingebunden, die Daten auf Konsistenz geprüft, auf ein drittes Laufwerk gesichert und danach der Spiegel wieder im laufenden System eingesetzt und mit aktuellen Daten versehen.

6.    Datensicherungsstrategie

Eine Datensicherungsstrategie kann überall dort zum Einsatz kommen, wo es einzigartige Daten eines gewissen Wertes gibt, sei es im Privatanwenderbereich, in Projekten oder im Unternehmensbereich. Letzterenfalls kann diese als bindende Vorgabe in Form einer Richtlinie existieren.
In Unternehmen wird die Datensicherung gemäß einer Datensicherungsstrategie durchgeführt. In ihr ist festgelegt:

  • Wie die Datensicherung zu erfolgen hat.
  • Wer für die Datensicherung verantwortlich ist.
  • Wann Datensicherungen durchgeführt werden.
  • Welche Daten gesichert werden sollen.
  • Welches Speichermedium zu verwenden ist.
  • Wo die Datensicherung sicher aufbewahrt wird.
  • Wie die Datensicherung vor Daten-Diebstahl zu sichern ist (zum Beispiel durch Verschlüsselung).
  • Wie lange Datensicherungen aufzubewahren sind.
  • Wann und wie Datensicherungen auf ihre Wiederherstellbarkeit überprüft werden.
  • Welche Sicherungs-Strategie (a) vollständige Sicherung am Wochenende (b) inkrementelle oder differenzielle Sicherung werktags um Mitternacht

6.1.    Kriterien

Die optimale Datensicherungsstrategie ist von vielen Faktoren abhängig und daher in jedem Einzelfall neu zu ermitteln. Wichtige Faktoren, die berücksichtigt werden müssen sind:

6.1.1.    Die Art der Daten

Maschinell wiederherstellbare Daten:        

Dazu gehört z. B. installierte Software, die nur wieder eingespielt werden muss.

Manuell wiederherstellbare Daten:        
Dazu gehören z. B. erstellte Texte oder Erfassungen von Sachbearbeitern. Zu beachten ist, dass auch die aufwendige Konfiguration und Administration von installierter Software in diese Rubrik fällt.

Unersetzliche Daten:        
Dazu gehören z. B. digitale Fotos und Videos, aber auch eingescannte Belege wenn die Originale nicht mehr vorhanden sind.

6.1.2.    Der Wert der Daten

Hier sind zwei Aspekte zu unterscheiden: Erstens, welcher Verlust entsteht, wenn die Daten unwiederbringlich zerstört werden? Wenn z. B. in einem Unternehmen Daten tagesaktuell in der Nacht gesichert werden, müssen bei einem Datenverlust kurz vor Feierabend alle Erfassungen wiederholt werden. Aus der Gehaltssumme der betroffenen Mitarbeiter ergibt sich ein Anhaltspunkt für den Verlust. Vor allem bei den unersetzlichen Daten ist allerdings oft auch der ideelle Wert zu berücksichtigen.
Zweitens, welcher Verlust entsteht durch die Zeit, die die vollständige Wiederherstellung benötigt und in der ggf. nicht gearbeitet werden kann? Wenn z. B. die Installation eines PC einen Tag benötigt, kann der Schaden den Wert der installierten Software weit übersteigen. Hier wäre also ein Sicherungsverfahren zu wählen, was es ermöglicht den installierten Stand sehr schnell wieder vollständig zu rekonstruieren (Image Copy).

6.1.3.    Die Änderungshäufigkeit der Daten

Dieser Faktor hat entscheidenden Einfluss auf die Anwendung und Gestaltung des Generationenprinzips. Daten mit geringer Änderungshäufigkeit, wie z. B. Betriebssystem und installierte Software müssen nicht unbedingt regelmäßig gesichert werden. Es kann auch ausreichend sein, diese Bereiche nur vor oder nach Eingriffen zu sichern.
Je schneller Daten verändert werden, desto geringer wird man die Zyklendauer der Sicherung entsprechend dem Generationenprinzip wählen. Zu beachten ist hier auch die Verfallsdauer. Während es für viele Daten im Geschäftsleben gesetzlich geregelte Aufbewahrungszeiten gibt (beispielsweise Rechnungsdaten), können z. B. aktuelle Inhalte von Webseiten u. U. schon nach kurzer Zeit verworfen werden, wenn sie nicht mehr benötigt werden.

6.1.4.    Gesetzliche Anforderungen

Die Datensicherungsstrategie muss in der Lage sein, mögliche gesetzliche Auflagen zu garantieren
(z. B. Revisionssicherheit).
Zu beachten: GoBS (Grundsätze ordnungsmäßiger Buchführungssysteme) speziell: Absatz 5.1 und 5.2

6.1.5.    Speicherort

Da es also sehr unterschiedliche Arten von Daten mit unterschiedlichen Anforderungen an die Sicherungsstrategie gibt, ist es zweckmäßig diese Daten schon im Vorfeld auf verschiedene Speicherorte (Festplatten, Partitionen) zu trennen. Für jeden Speicherort kann dann die optimale Strategie gewählt werden. Zusätzlich existieren unfallgeschützte Datenspeicher. Bei einem Online Backup werden die Daten, in den meisten Fällen, in einem Rechenzentrum aufbewahrt.

6.1.6.    Zeitaufwand der Datensicherung

Bei der Wahl eines geeigneten Konzepts spielt insbesondere aus unternehmerischer Sicht der für die Datensicherung benötigte Zeitaufwand eine wichtige Rolle. Der Gesamtaufwand setzt sich aus dem wiederkehrenden Sicherungsaufwand und dem im Falle eines Datenverlusts anfallenden Wiederherstellungsaufwand zusammen. Die Relation, in der diese beiden Größen zu einander stehen, ist abhängig von der Auswahl eines konkreten Datensicherungsverfahrens. Ein geringer Sicherungsaufwand wird insbesondere dann angestrebt, wenn große Datenmengen während des Sicherungsvorganges gesperrt werden müssen, was bei modernen Systemen aber oft vermieden werden kann. Zu diesem Zweck gibt es heutzutage Software, die Daten eines Systems im laufenden Betrieb sichern können.

6.1.7.    Anforderungen

Je nach Medium und Art der Datensicherung werden die Kriterien anders ausfallen. Meistens erwähnt werden jedoch folgende Punkte:

  1. Regelmäßigkeit: Datensicherungen sollen in regelmäßigen, periodischen Abständen erfolgen. Diese Abstände variieren je nach Anwendung. Eine monatliche Sicherung der Daten auf einem privaten PC kann durchaus ausreichend sein, während in Produktionsumgebungen meistens tägliche Sicherungen der Produktivdaten erforderlich sind. Sie erhöhen die Zuverlässigkeit der Datenwiederherstellung.
  2. Aktualität: Die Aktualität der Datensicherung ist abhängig von der Anzahl der Datenänderungen. Je öfter wichtige Daten verändert werden, desto häufiger sollten diese gesichert werden

Backup-Server mit Brandschaden

  • Verwahrung: Datensicherungen von Unternehmen beinhalten unter anderem Firmengeheimnisse oder personenbezogene Daten und müssen vor unbefugtem Zugriff geschützt werden.
  • Anfertigung von zwei Datensicherungen: Die Anfertigung von zwei räumlich getrennten Datensicherungen eines Datenbestandes erhöht die Zuverlässigkeit der Datenwiederherstellung, um die Auswirkungen plötzlich auftretender Ereignisse wie Feuer oder physikalische Zufälle zu minimieren. Datensicherungen sollten räumlich getrennt von der EDV-Anlage gelagert werden. Die räumliche Entfernung der Datensicherung vom gesicherten Datenbestand sollte so groß sein, dass eine Katastrophe (Brand, Erdbeben, Flut …), welche die EDV-Anlage heimsucht, den gesicherten Datenbestand nicht gefährdet. Alternativ können unfallgeschützte Datenspeicher eingesetzt werden.
  • Ständige Prüfung auf Vollständigkeit und Integrität: Datensicherungen und Datensicherungsstrategien müssen regelmäßig überprüft und angepasst werden. Wurden die Daten wirklich vollständig gesichert? Ist die eingesetzte Strategie konsistent? Erfolgte die Sicherung ohne Fehler?
  • Regelmäßige Überprüfung auf Wiederherstellbarkeit: Ein Rückspielen der Daten muss innerhalb eines festgelegten Zeitraums durchgeführt werden können. Hierzu muss die Vorgehensweise einer Datenwiederherstellung ausreichend dokumentiert sein, und die benötigten Ressourcen (Personal, Medien, Bandlaufwerke, Speicherplatz auf den Ziellaufwerken) müssen verfügbar sein.
  • Datensicherungen sollten automatisch erfolgen: Manuelle Datensicherungen können durch menschliche Fehler beeinflusst werden.
  • Verwendung von Standards: Die Verwendung von Standards macht die Datenwiederherstellung einfacher.
  • Datenkompression: Datenkompression kann Speicherplatz sparen, hängt aber von der Komprimierfähigkeit der Daten ab. Moderne Digital Linear Tape/Linear Tape Open-Laufwerke komprimieren die Daten bei der Sicherung. Jedoch sind unkomprimierte Daten möglicherweise einfacher wiederherzustellen.
  • Zeitfenster: Sicherungsvorgänge können eine lange Zeit zur Fertigstellung benötigen, dies kann in Produktionsumgebungen unter Umständen zu Problemen führen (Beeinträchtigung des Datentransfers, Zugriffsmöglichkeit). Eine Kompression könnte ebenfalls Einfluss auf die Dauer der Datensicherung haben.
  • Löschung veralteter Datensicherungen: Nicht mehr benötigte Datensicherungen sind zu löschen, damit die Vertraulichkeit der gespeicherten Daten gewahrt bleibt.
  • Das Vorgehen im Ernstfall sollte mehreren Mitarbeitern bekannt sein. Für den Ernstfall ist eine Checkliste zu erstellen. Im Ernstfall hat niemand Zeit oder Nerven, nachzudenken, was als nächstes zu tun ist. Daher ist eine Checkliste sehr nützlich.
  • Nach Möglichkeit sollten die Daten vor der Sicherung nicht komprimiert werden. Redundanz kann bei der Wiederherstellung von Daten nützlich sein.
  • Es ist zumindest ein Laufwerk bereitzuhalten, welches die verwendeten Medien lesen kann.
  • Der wirtschaftliche Nutzen von Datensicherungen (Kosten, um die Daten ohne Datensicherung wiederherzustellen) muss sich in einem wirtschaftlich sinnvollen Verhältnis zu dem für die Datensicherung betriebenen Aufwand verhalten.
  • Der einzig sichere Beweis einer erfolgreichen Datensicherung ist der Nachweis, dass die gesicherten Daten auch vollständig und innerhalb eines angemessenen Zeitraums wiederhergestellt werden können. Aus diesem Grund sollten in regelmäßigen Abständen Rücksicherungstests erfolgen.

 

Weiterführende Links:

Bewertung: 
5
Durchschnitt: 5 (4 Stimmen)

Bilddatenbanken, Metadaten

Metadaten: 

- Zusatzinfos zu einer Datei
- z.b.: zusatzinfos zu einem Bild
- EXIF und IPTC-Daten

- EXIF -> exchange image file format
- werden direkt von kamera (o. Bildbearbeitungsprogramm) in datei geschrieben
- beziehen sich auf technische Daten des Bildes (Aufnahmeparameter) 
- wichtige Aufnahmeparameter sind: 
    - Datum/Uhrzeit
    - Format
    - Brennweite + Belichtungszeit
    - GPS-koordinaten
    - Vorschaubild (Thumbnail)
    -> einige davon sind standardisiert

(Tabelle: im Kopf = Tag und Beschreibung)
Tag        Beschreibung
Make        Kamerahersteller
Orientation    Bildausrichtung
Date Time    Aufnahmedatum
F number    Blende
Exposure Time    Belichtungszeit
ISO valve    ISO-Wert -> Lichtempfindlichkeit
Metering Mode    Belichtungsmessverfahren

IPTC-Daten: 
- International Press Telecommunications council
- beschreiben, benennen die Datei, deren inhalte sowie dem urheber/Künstler
- Angaben des Urhebers:
    - kommentar (bildbeschreibung, Titel)
    - Künstlername 
- IPTC-Daten sind weit verbreitet in Bildagenturen und Bildarchiven (z.b. iStockphoto, Shutterstock etc.)

XMP (Extensible Metadata Platform = Erweiterbare Plattform für Metainformationen)
- wurde von der Firma Adobe entwickelt
- zusätzliche Informationen können über den Inhalt abgelegt werden
- quasi eine Zusammenfassung der Exif- und IPTC-Daten
- Vorteile für XMP: Erweiterbarkeit der Daten
→ zusätzlich zu den vorgegebenen Informationen können neue hinzugefügt werden
- Nachteil: erweiterten Informationen können nur von speziellen Programmen und/oder Geräten gelesen werden
- XMP derzeit noch nicht standardisiert
- IPTC wird höchstwahrscheinlich früher oder später durch XMP abgelöst
- XMP wird bereits heute von den wichtigsten Bildverwaltungsprogrammen unterstützt und sich in Zukunft
sicher stärker durchsetzen.

 

Weiterführende Links:

http://www.drweb.de/magazin/metadaten-in-fotos

http://www.eload24.com/product/show/645-digitalfotografie-metadaten-rich...

http://www.foto-freeware.de/exif-daten-tools.php

www.optimal-foto.de/documents/Fototipp_0802.pdf

http://help.adobe.com/de_DE/Lightroom/3.0/Using/WS638E3AC9-A04C-4445-A0D3-F7D8BA5CDE37.html

http://www.heise.de/foto/artikel/IPTC-und-XMP-791443.html

Tags: 
Bewertung: 
0
Bisher keine Bewertung

Bussysteme

Ein Bussystem ist ein Leitungssystem, das Daten oder Energie zwischen Hardware-Komponenten austauscht. Es besteht aus verschiedenen Komponenten:

  • Der Datenbus überträgt Daten zwischen verschiedenen Hardware-Bestandteilen eines Computers oder auch zwischen verschiedenen Computern, er ist bidirektional.
  • Der Adressbus überträgt ausschließlich Speicheradressen und ist unidirektional. Von der Anzahl der Verbindungen hängt es dabei ab, wieviel Speicher direkt adressiert werden kann.
  • Der Steuerbus schließlich – wie der Name schon sagt – ist ein Teil, das für die Steuerung des Bussystems verantwortlich ist und ist ebenfalls unidirektional.
  • CPU-interne Busse steuern die Verbindung innerhalb der CPU, während CPU-externe Busse Prozessoren, Arbeitsspeicher und Peripherie miteinander verbinden.
Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Cloud-Computing

Mit dem Internet sind Millionen von Computern verbunden, die aber nur zu einem kleinen Prozentsatz ausgelastet sind: Wenn die Amerikaner schlafen, werden die dortigen Internet-Hosts kaum genutzt und umgekehrt. Die grundlegende Idee des Cloud Computings besteht darin, die Rechenpower vieler Computer gemeinsam zu nutzen, indem sie zu einer virtuellen „Cloud“ (dt.: Wolke) zusammengeschlossen
werden. Hierdurch wird es einerseits möglich, vorhandene Hardware (Speicherplatz, Prozessorleistung)
gemeinsam zu nutzen. Man spricht von IaaS (Infrastructure as a Servive). Beispiele hierfür sind Windows Azure oder Amazon EC2.

Andererseits ermöglicht Cloud Computing auch die Nutzung von Software über das Internet (SaaS: Software as a Service), so dass die Nutzer auf dem eigenen Computer keine Software mehr benötigen. Die gemeinsame Bearbeitung von Dokumenten wird hierdurch sehr leicht möglich. Auch hierfür gibt es bereits Anwendungsbeispiele wie iWord.com von Apple oder Google Docs.

 

Cloud Computing

= Trend- bzw. Hype-Thema

- umfasst Anwendungen, Daten, Speicherplatz und Rechenleistung aus einem virtuellen Rechenzentrum

- Cloud (= Wolke)

- verwendet weil virtuelle Rechenzentrum aus zusammengeschalteten Computern (Grid) besteht 

- Ressource von keinem spezifischen Computer bereitgestellt 

- Ressource befindet sich irgendwo in dieser Wolke aus vielen Computern

- Ressourcen dynamisch und bedarfsweise abgerufen.

 

Definition von Cloud Computing

- Cloud Computing ist eine virtuelle und skalierbare IT-Infrastruktur bereitstellt 

- Bestandteil Speicher, Rechenzeit oder komplexe Dienste -> über festgelegte Schnittstellen angefordert -  spielt keine Rolle auf welcher Hardware diese ausgeführt werden

 

Wie funktioniert Cloud Computing?

- verschiebt sich der Ort der Bereitstellung von Speicher, Rechenleistung und Anwendungen von einem einzelnen Server auf mehrere virtuelle Server -> in großen Serverfarmen organisiert

- wird IT zu einem Gebrauchsgut, wie Wasser oder Strom

- setzt Infrastruktur voraus

- Techniken, die für sich alleine ausgereift und praxiserprobt ist 

- Dazu gehört Virtualisierung, Grid Computing und Provisioning-Software

- hohe verfügbare Bandbreite, ermöglicht Zugang zur "Cloud" 

- neu -> Abrechnungsmodell (Anwender muss nur bezahlen was er tatsächlich benötigt.

 

Vorteile durch Cloud Computing

- IT-Infrastruktur leichter skalierbar und flexibel anpassbar

- zentrale Datenhaltung

- geringe Betriebskosten

- leichtes System-Management

- Nutzen durch Cloud Computing

 

Probleme durch Cloud Computing

- Sicherheit um Daten

- Verfügbarkeit von Diensten

- sensible Daten liegen auf Servern im Ausland

- juristische Probleme wegen der Datenverarbeitung im Ausland

 

Weiterführende Links

https://www.bsi.bund.de/DE/Themen/CloudComputing/Grundlagen/Grundlagen_node.html
http://de.wikipedia.org/wiki/Cloud-Computing
http://www.techfacts.de/ratgeber/was-ist-cloud-computing
http://www.bitkom.org/de/themen/36129_61111.aspx
http://www.elektronik-kompendium.de/sites/com/1404051.htm
Hier wird Cloud Computing ganz gut mit Grafiken erklärt: http://www.youtube.com/watch?v=xJCOzUk76GQ
http://www.fwlook.de/medienproduktion/alles-was-man-uber-cloud-computing-wissen-muss/
http://medien.mediengestalterprint.de/?p=2455
http://www.verdi.de/themen/arbeit/++co++fd9e2f52-82fe-11e1-5004-0019b9e321e1 (Kritische Stellungnahme)

Bewertung: 
2.333335
Durchschnitt: 2.3 (3 Stimmen)

Computer-Peripherie

Zur Peripherie gehören alle Geräte, die den eigentlichen Computer ergänzen. Man unterscheidet zwischen Ein- und Ausgabegeräten.

Eingabegeräte: Tastatur, Maus, Scanner, Kamera, Grafiktablett, Mikrophon

Ausgabegeräte: Drucker, Plotter, Monitor, externe Lautsprecher

Verschiedene Peripheriegeräte sind zugleich Ausgabe- und Eingabegeräte: USB-Stick, Externe Festplatten, externe Laufwerke für CD/DVD, Headset

Um die externen Geräte zu nutzen, benötigt man entweder die passenden Anschlüsse USB, Firewire etc. oder kabellose Verbindungen wie Bluetooth.

AnhangGröße
PDF icon Peripheriegeräte.pdf121.31 KB
Bewertung: 
3
Durchschnitt: 3 (2 Stimmen)

Hardwarekomponenten

EVA-Funktionsprinzip: Eingabe - Verarbeitung - Ausgabe

Mikrocomputer

  • für Verarbeitung der Daten zuständig
  • zentrales Bauelement Mikroprozessor (CPU) dient zur Steuerung des Computers sowie zur Berechnung von Daten
  • über Systembus (Verbindungsleitungen) mit dem Arbeitsspeicher (RAM) verbunden
  • CPU befindet sich auf einem Sockel auf dem Mainboard
  • Mainboard enthält Arbeitsspeicher sowie weitere Schnittstellen und Controller, für den Anschluss
  • weiterer Peripheriegeräte
     

Peripheriegeräte

  • alle Geräte, die nach dem EVA-Prinzip genutzt werden
  • Anschluss durch verschiedene Schnittstellen, z.B. USB, FireWire
  • Unterteilung in drei Gruppen: Eingabegeräte (Tastatur, Maus, Scanner, Digitalkamera), Externe Speicher (Festplatte, USB-Stick, DVD-Laufwerk), Ausgabegeräte (Monitor, Drucker, Plotter, Belichter)

Hardware

  • ist der Oberbegriff für die maschinentechnische Ausrüstung eines Computers. Dazu gehören alle Komponenten (Prozessor, Arbeitsspeicher usw.) und Peripheriegeräte. Vereinfacht, alles was man anfassen kann. Computer-Hardware ist ausschließlich mit entsprechender Software benutzbar.
  • Hardware ist der Überbegriff für alle Eingabe-, Verarbeitungs- und Ausgabegeräte eines Computers.

Eingabegeräte

  • sind z.B. Maus, Tastatur, Grafiktablett, Scanner und Digitalkamera.

Zur Verarbeitungshardware

  • gehören Festplatte, verschiedene Laufwerke, Grafik- und Soundkarte, Arbeitsspeicher und die Hauptplatine mit CPU.

Ausgabegeräte

  • sind z.B. Drucker, Belichter, Monitor oder Lautsprecher.

Gesteuert wird die Computer(verarbeitungs)hardware vom BIOS, dem Betriebssystem und verschiedenen Treibern.

ROM

  • (Read only Memory) ROM ist ein Datenspeicher, der nur lesbar ist, er hält seine Daten auch im stromlosen Zustand. ROM ist verantwortlich für den Selbst-Test und das der Rechner hocgefahren wird, er startet das BIOS und führt Setups durch.

RAM

  • (Random Access Memory) Speicher mit wahlfreiem Zugriff, findet besonders als Arbeitsspeicher Verwendung. "Wahlfrei" bedeutet in diesem Zusammenhang, dass jede Speicherzelle über ihre direkte Speicheradresse direkt angesprochen werden kann.

Schnittstellen

  • USB (Universal Series Bus), Verwendung: Drucker, Maus und Speichersticks
  • RJ-45 Schnittstelle (Registerd Jack), Verwendung: Netzwerkverbindungen, Internetanschluss
  • Firewire: Verwendung: Externe Schnittstellen, DVD Brenner, Digitalvideokamera
  • VGA-Anschluss (analoger Bildübertragungsstandard) Verwendung für Bildschirm
  • DVI-, HDMI-, Displayport-Anschluss (digitaler Bildübertragungsstandard) Verwendung für Bildschirm
  • Parallele Schnittstelle (25-polig), Verwendung: ganz ersten Scanner und Modems, Druckerport
  • COM 1 Schnittstelle, ursprünglich Maus und externes Modem, (9-poli) durch USB abgelöst
  • Klinkenbuchsen für In/Output, Kopfhörer, Mikrofon, Lautsprecher
  • S/PDIF optische Übertragung digitaler Audiosignale

 

Bewertung: 
2.5
Durchschnitt: 2.5 (2 Stimmen)

Monitortechnologie

Bewertung: 
0
Bisher keine Bewertung

Monitor-Mathe

Errechnen der Diagonale 

Ein Display hat das Seitenverhältnis 16:10 und ist 80 cm breit. Wie lang ist die Diagonale in inch?

Matheaufgabe

Erläuterung der Schritte: Erster Schritt ist die Berechung der Monitorhöhe (Ergebnis: 50 cm)

Im zweiten Schritt wird im Zähler die Diagonale in cm berechnet (nach Pythagoras c2 = a2 + b2

Dieses Ergebnis muss noch durch 2,54 geteilt werden, um nach inches umzurechnen.

Anderes Beispiel: Ein Display hat das Seitenverhältnis 4:3. Der Monitor ist 12 inch breit:

 

 

 Läuft alles über Verhältnisgleichung ab:

Bewertung: 
0
Bisher keine Bewertung

Monitortechnologien

 

TFT = Thin Film Transistor
Funktionsprinzip TFT (LCD = Liquid Crystal Displays):
Organische Materialien (Flüssigkristalle) verändern ihre Lage durch Anlegen eines elektrischen Feldes und werden lichtdurchlässig. Das elektrische Feld ist durch elektronische Schalter ein- und ausschaltbar. Für jeden Bildpunkt werden 3 Transistoren benötigt (R, G, B). Die Farben werden mit Hilfe von Farbfiltern aus weißem Licht gewonnen.
Bsp.: Display mit 1.920 x 1.080 Bildpunkten ergibt: 1.920 x 1.080 x 3 = 6.220.800 Transistoren

Erfolgsgründe:
- Geringer Platzbedarf
- Geringer Strombedarf
- Geringe Wärmeentwicklung
- Flimmerfreies Bild
- Sehr Scharfes Bild
- In allen Größen herstellbar
- Sehr kontrastreiches Bild
- Fast keine Strahlung

TFT – Monitore sind Kalibrierbar.
Die Monitorgröße wird in Zoll angegeben (1 Zoll = 2,54cm)
Bsp.: Bilddiagonale 20“ ergibt: 20 x 2,54 = 51cm Bildiagonale

Logische Auflösung des Bildschirms: Anzahl an Bildpunkten in horizontaler und vertikaler Richtung.
Physikalische Auflösung des Bildschirms: Anzahl an Bildpunkten pro Inch (z.B. 300ppi).

Die schwedische TCO-Normen prüfen nach folgenden Kriterien:
- Ergonomie: Bildqualität, Farbwiedergabe, Anpassungsmöglichkeit des Blickwinkels
- Geringe Emissionen durch magnetische und elektrische Felder
- Geringer Energieverbrauch, Energiesparfunktion
- Verwendung Ökologischer Materialien, Recycling-Möglichkeiten

Flimmern entsteht durch zu geringe Vertikal- oder Bildwiederholungsfrequenz. Beim TFT reichen 60Hz um ein flimmerfreies Bild darzustellen.

Ursachen Farbabweichungen:
unterschiedliche Monitorkalibrierung
unterschiedliche Lichtverhältnisse
unterschiedliche Bilderfassungsgeräte liefern unterschiedliche Farbdarstellungen

 

Weiterführende Links
www.computeruniverse.net/groups_home.asp

Bewertung: 
0
Bisher keine Bewertung

Röhrenmonitore

Funktion von Röhren-Bildschirmen: (hier mit Lochmaske)
 

  • Die Elektronenstrahl-Röhre ist eine luftleere Glasröhre
  • Ein Heizfaden beheizt Glühkathoden (negativ geladene Elektroden)
    (Glühkathode kann auch direkt beheizt werden)
  • Es gibt 3 verschiedene Glühkathoden (für R, G, B)
  • mit Zunahme der Temperatur in den Glühkathoden treten die negativ geladenen Elektronen in das Vakuum aus und beschleunigen in Richtung der positiv geladenen Anode (Fokussiersystem)
  • Durch Ablenkelektroden (Plattensystem) kann die Richtung des Elektronenstahls verändert werden. Das Plattensystem arbeitet nach Anweisungen der Grafikkarte.
  • die Elektronen treffen durch eine Maske (sorgt für eine genaue Ausrichtung und gegenseitige Abgrenzung der Elektronen)auf die Leuchtschicht (fluoreszierenden Phosphore für Rot, Grün und Blau) und bringen sie (durch Energieabgabe der Phosphore) zum Leuchten

 

 

Bewertung: 
0
Bisher keine Bewertung

TFT-LCD-Monitore

TFT-LCD-Flachbildschirme: (LCD=Liquid Crystal Display)

Ein Pixel eines TFT-LCD-Bildschirms setzt sich aus 3 Subpixeln zusammen (R,G und B).

Pro Subpixel braucht es einen Flüssigkristall, einen TFT (Dünnfilmtransistor) und einen entsprechenden Farbfilter

Ablauf:

1. Unpolarisiertes weißes Licht trifft auf einen Polarisierungsfilter (Horizontalfilter) → nur horizontal orientiertes Licht wird durchgelassen

2. Das Licht trifft nun auf einen TFT (Dünnfilmtransistor)

3. Der TFT ist einer Flüssigkristall-Zelle zugeordnet, der er Stromsignale sendet

4. Kein Stromsignal: Flüssigkristall-Zellen drehen das auftretende horizontale Licht um 90 ° in vertikal schwingendes Licht
oder mit Strom: Licht (Polarisationsebene vom Licht) wird nur teilweise oder gar nicht gedreht

5. Das Licht kommt nun an einem Farbfilter an (je nach Subpixel R, G oder B)

6. Das nun farbige Licht (ob gedreht oder nicht) trifft auf zweiten Polarisierungsfilter (Vertikalfilter), der nur vertikal
schwingendes Licht durchlässt.

 

 

Bewertung: 
0
Bisher keine Bewertung

Crop-Faktor

Gehen wir zurück zur analoge Fotografie. Hier war noch alles eine heile Welt, man musste sich nicht um Megapixel usw. kümmern, nur darum ob das Bild schwarzweiß oder farbig werden sollte. Gut und welche Lichtbedingungen vorherrschen. Man kaufte sich einen Film 36×24 mm und gut. Genau hier setzt der Crop-Faktor an. Der Crop-Faktor geht von einem KB Format von 36x24mm aus. Da die digitalen Sensoren heute kleiner gebaut werden können, brauchte man einen Faktor der angibt um wie viel kleiner der Sensor zu einem analogen KB ist.

Crop-Faktor Beispiel

 

Berechnung des Crop-Faktor

Ich nehme bei dieser Berechnung die Nikon D90. Ihr Sensor ist 23,6 x 15,8 mm groß. Daraus folgt, 24mm / 15,8mm = ca. 1,5

Also hat die Nikon D90 einen Crop-Faktor von 1,5. Es gibt aber auch Kameratypen die einen Vollformat Chip haben bei Nikon wird das durch FX(D700) gekennzeichnet, hier ist die Größe des Sensors in etwa die Größe eines KB Formats.

 

Was hab ich davon?

Jetzt werden Sie bestimmt sagen, toll und was bringt´s? Nehmen wir hier wieder die Nikon D90. Sie kaufen sich jetzt ein normales Objektiv, kein digital-gerechnetes. Nehmen wir eine Brennweite von 60mm. Bei einem Kameratyp mit Vollformat Chip würde das heißen Sie haben eine Brennweite von 60mm, jedoch bei unserer Nikon D90 haben sie eine Brennweite die 1,5 fach so lang ist also ca. 90mm. Sie haben also dann schon ein gutes Portrait Objektiv.

Das ganze können Sie sich vielleicht bildlich etwas besser vorstellen. Sie haben jedes mal den gleichgroßen runden Bildkreis, der vom Objektiv erzeugt wird. Das Einzige was sich ändert ist der Sensor. Um den gleichen Bildausschnitt auf den kleinen Sensor zu bekommen muss man, gezwungener Maßen, weiter weg gehen vom Objekt. Das ist eigentlich schon alles. Das gilt aber nicht für digital-gerechnete Objektive, diese sind schon umgerechnet auf kleinere Sensoren. Der Vorteil liegt aber auf der Hand. Sie kaufen sich ein Objektiv mit der Brennweite von 200mm haben dann aber eine Brennweite von 300mm, was manchmal von Vorteil sein kann.

Also achten Sie immer darauf welche Größe der Sensor hat und ob das Objektiv digital-gerechnet ist oder nicht, gerade bei Vollformat Sensoren.

 

Quelle: http://blog.vincent-pen.com

Weiterführende Links
http://www.andreashurni.ch/equipment/cropfaktor.htm
http://www.elmar-baumann.de/fotografie/techtutorial/objektiv-4-05.html

 

Bewertung: 
0
Bisher keine Bewertung

Database-Publishing

Database Publishing wird meist im Umfeld der datenbankgestützten automatisierten Medienproduktion als zusammenfassender Begriff genannt. Typische Anwendung ist die Erstellung von Preislisten und Katalogen.

 

 

Die Grundidee ist es, Datenbankinhalte wie Artikelnummer und Preisinformationen an ein offen gestaltetes Layoutdokument zu übergeben, so dass sich dieses bei Änderungen, z. B. von Preisen, automatisch aktualisiert.

 

Die wichtigsten Layoutprogramme, die für diese Anwendung in Frage kommen, sind Adobe FrameMaker, InDesign und QuarkXPress, unterstützt von Erweiterungen (Plug-Ins bzw. XTensions) anderer Hersteller. Weitere Varianten des Database Publishings sehen das „Rendern“ von Inhalten in einer direkt druckbaren PDF-Ausgabe vor. Eine stark zunehmende Tendenz ist es, per WebBrowser diesen Vorgang als Remote Publishing zu nutzen. So können auch komplexe Dokumente bis hin zu umfangreichen Katalogen vollautomatisch erzeugt werden.

Die meisten Systemen verwenden einen templatebasierten Ansatz, bei dem quasi Schablonen der Seiten mit den Datenbankinhalten gefüllt werden – die Seiten enthalten also Markierungen, die durch die gewünschten Daten ersetzt werden. Die Alternative ist ein regelbasierter Layout-Ansatz, wie ihn etwa XSL-FO oder DocScape bieten. Dort werden anstelle von Schablonen Layout-Regeln (ähnlich dem Corporate-Design-Handbuch) beschrieben.

Die aktuellen Layoutprogramme bieten für diese Art der Anwendung XML-Schnittstellen an, die auf besondere Bedürfnisse mittels Scriptprogrammierung angepasst werden können. Dazu gehören die Scriptsprachen AppleScript, JavaScript undVisual Basic.

Die meisten Layoutprogramme können auch durch Software anderer Anbieter in die Lage versetzt werden, mit Datenbankinhalten umzugehen. Für Adobe InDesign sind das Plugins und für Quark XPress XTensions. Die überwiegende Anzahl dieser Erweiterungen nutzen ASCII-Texte, wie z. B. Tabtexte oder auch CSV-Formate.

 

1. Zeiteinsparungen durch Database Publishing

Zeitersparnis im Vergleich:

  • manueller Satz eines Kataloges in 7 Sprachen gegen > 50 Wochen
  • vollautomatisierten Satz eines Kataloges in 7 Sprachen > 5 Wochen

 

2. Kosteneinsparungen durch Database Publishing

Durch die massiven Zeiteinsparungen lassen sich die Kosten für die Erstellung von Druckvorlagen senken.Weiterhin ist es möglich, Kosten einzusparen in den Bereichen:

  • Übersetzung
  • Manuelle Bereitstellung von Medien wie Bildern und Dokumenten

 

3. Mehrwert mit Database Publishing

Durch die Realisierung eines zentralen Datenbestandes können diese neugewonnenen Informationen für verschiedene Einsatzbereiche genutzt werden:

  • Internet-Auftritt, WebShop
  • Datenbereitstellung für Kunden
  • Hausinformationssystem
  • Vertriebssystem

___________________________________________________________________________

 

Die Herausforderung

Die händische Erstellung Ihres Kataloges ist kompliziert, kostet enorm viel Zeit und bindet eine Menge Ressourcen. Besonders die Produktion von mehreren Katalogvarianten, wie etwa Auszugs-, Detail- oder Kundenkataloge ist mit einem sehr großen Aufwand verbunden. Ganz zu schweigen von Seitenverweisen oder Inhaltsverzeichnissen. 

 Änderungen an den Produktdaten, wie zum Beispiel den Preisen oder Artikelnummern etc., müssen außerdem oft in mehrere Medien vorgenommen und abgeglichen werden. Da sind Fehler vorprogrammiert. Und wenn es dann auch noch verschiedene Sprachversionen gibt...

 

 

Die Lösung

Durch die Einführung von Database Publishing pflegen Sie Ihre Produktdaten nur noch in einem System. Aus diesen so strukturierten Datenbeständen heraus erstellen Sie Kataloge, Preislisten usw. quasi automatisch per Knopfdruck. Selbst kreative Layouts können dank Database Publishing wirtschaftlich umgesetzt werden. Bestehende Systeme und Software-Produkte, wie zum Beispiel Warenwirtschaftssysteme, können dabei in den meisten Fällen als Datenbank genutzt werden. 

 

Der Nutzen

 

  • Sie erstellen mit Database Publishing Ihre Kataloge, Werbemittel, Preislisten etc. ganz einfach auf Knopfdruck - das spart Zeit und Nerven.
  • Alle Änderungen werden automatisch in alle Medien übernommen. Dadurch werden Ihre Produkte immer und überall auf dem aktuellsten Stand dargestellt.
  • Mit Database Publishing ist die Pflege Ihrer Daten nur noch in einem System notwendig. Das spart Ihnen Aufwand und reduziert Fehler.
  • Verschiedene Sprachversionen werden automatisch erstellt.
  • Die Erstellung von Auszugs-, Detail- oder Kundenkatalogen ist mit Database Publishing problemlos möglich.
  • Von strukturiert bis kreativ - sämtliche Layouts können realisiert werden. Sie haben keinerlei Einschränkungen bei der Darstellung Ihrer Produkte.
  • Nutzen Sie Ihre bestehenden Software-Systeme für Database Publishing und Sie haben nur geringe Investitionen.

____________________________________________________________________________


Automatisierte Katalogerstellung

Database Publishing beinhaltet die automatisierte Produktion von Print-Produkten wie Katalogen, Preislisten und Flyern aus Datenbankinhalten. Erstellen Sie hoch automatisiert und effizient zielgruppenspezifische Werbe- und Kommunikationsmittel. Die Produktion wird schneller (Zeitersparnis bis zu 60%), kostengünstiger (Kosteneinsparung bis zu 40%) und flexibler über mehr Kanäle.

Bewertung: 
5
Durchschnitt: 5 (2 Stimmen)

Datenkompression

Bildformate

Viele Bilddateiformate reduzieren den von Bitmap-Bilddaten benötigten Speicherplatz durch Komprimierungsmethoden.

Komprimierungsmethoden werden danach unterschieden, ob sie Details und Farben aus dem Bild entfernen.  

Lossless-Methoden (verlustfreie) komprimieren Bilddaten, ohne Details zu entfernen.
Lossy-Methoden (verlustreiche) komprimieren Bilder durch Entfernen von Details.

Die folgenden Komprimierungsmethoden sind am gängigsten:

Run Length Encoding (RLE)

  • In einer Pixelzeile wird die Anzahl gleicher, aufeinander folgender Pixel zusammengefasst und somit eine Datenreduktion erzielt.
  • abstrahiertes Beispiel (im Original wird binär gespeichert): 00011111111100000 wird zu 309150
  • verlustfrei
  • Praxisanwendung: Besonders bei sich wiederholenden Strukturen wie Grafiken, Clipart. Weniger geeignet für "Pixelbilder", da diese keine hohen Wiederholungsraten haben. Ausnahme JPG nach der Fourier-Transformation (Bildstrukturen werden eingeebnet).
  • Formate: Tif, Bmp, RLE (altes Windows Format), oder als Teil der JPG-Komprimierung
  • Links: 
    http://www.fileformat.info/mirror/egff/ch09_03.htm 
    http://de.wikipedia.org/wiki/Lauflängenkodierung

Huffmann-Codierung

  • Häufige Tonwerte erhalten eine kleine Binärcodierung, z. B. 0, 1 - seltene Tonwerte erhalten eine größere Binärcodierung, z. B. 11111111
  • Die Huffmann-Codierung geht davon aus, das die Verteilung der Tonwerte nicht gleichförmig ist, sondern einer (ähnlich Gaußkurve) folgt.
  • Der Datei-Vorspann benötigt eine Umcodierungs-Tabelle, um die codierten Inhalte übersetzen zu können.
  • verlustfrei
  • sehr gleichförmig verteilte Bilder (z. B. Cyankeil) schwieriger 
  • Praxisanwendung: CCITT (Group4)-Komprimierung (PDF) in der JPG-Komprimierung, in der MP3-Komprimierung

Lempel-Zif-Welch“ (LZW)

  • Vergleich von Bildinhalten: Bei Wiederholung schon übertragener Information wird nicht neu codiert, sondern einer Querverweis auf eine bestehende Bildstelle gesetzt.
  • verlustfreie
  • Praxisanwendung: TIFF, PDF, GIF und PostScript unterstützte Komprimierungsmethode.
  • optimal zum Komprimieren von Bildern mit großen, einfarbigen Flächen oder Text
  • die PNG-Komprimierung basiert auf der gleichen Grundlage, wurde aber konkurrierend entwickelt und hat sich aufgrund eines Patentstreites (ausgehend von LZW) durchgesetzt.
  • Link: http://de.wikipedia.org/wiki/Lempel-Ziv-Welch-Algorithmus

Differenz-Puls-Code-Modulation (DPCM)

  • Nicht der Tonwert selbst, sondern die Differenz zum nächsten Pixel wird codiert. Kleinere Zahlenwerte, da die Differenz oft niedriger als der absolute Wert ist – dadurch Datenreduktion.
  • verlustfrei
  • Praxisanwendung: Audiokomprimierung und innerhalb der JPG-Komprimierung

Fourier Transformation

  • Dichteverläufe (z. B. innerhalb von einer Bildzeile) werden in der Fourier-Transformation als mathematischen Funktionen dargestellt. Die einzelnen Pixel-Dichte-Werte werden also in eine Kurve zueinander umgewandelt. Dies geschieht in Abschnitten von 8x8 Pixeln (Artefaktbildung in der Größe von 8x8 Pixeln).
  • Um eine höhere Kompression zu erreichen wird die Gesamtkurvenfunktion bereinigt - Ausschläge minimiert. Die Höhe der Kompression ist einstellbar (der JPG-Kompressionsregler stellt diese Komprimierung ein).
  • verlustbehaftet
  • Praxisanwendung: Innerhalb der JPG-Komprimierung

Joint Photographic Experts Group“ (JPEG)

  • ist eine von den Formaten JPEG, TIFF, PDF und PostScript unterstützte Lossy-Methode. Die JPEG-Komprimierung führt bei Halbtonbildern, z. B. Fotos, zu den besten Ergebnissen.
  • Folgende Kompressionsverfahren werden in einer JPG-Komprimierung angewendet:
    1. Umwandlung in den YUV-Farbraum (oder YCbCr) - dadurch Trennung von Helligkeits- und Farbinformation (Helligkeit wird vom Auge empfindlicher Wahrgenommen als Farbe) 
    2. Fourier Transformation von Farbe (stärker) und Helligkeit (schwächer) 
    3. DPCM-Codierung 
    4. Lauflängencodierung (Runlength-coding)
    5. Huffmann-Codierung
    ACHTUNG: 3.+4. uneins mit dem Kompendium, Wikipedia drückt es wieder anders aus. Kontrolle.
  • Praxisanwendung: Bei der JPEG-Komprimierung legen Sie die Bildqualität fest, indem Sie eine Option aus dem Menü „Qualität“ wählen, den Regler „Qualität“ verschieben oder im Testfeld „Qualität“ einen Wert zwischen 1 und 12 (10) eingeben. Wählen Sie die Komprimierung mit der höchsten Qualität um ein optimales Druckergebnis zu erhalten. Dateien mit JPEG-Kodierung können nur auf PostScript-Level-2-Druckern (oder höher) ausgegeben werden und lassen sich u. U. nicht in individuelle Platten separieren.

CCIT

  • Bei der CCITT-Kodierung handelt es sich um eine Gruppe von verlustfreien, von Dateiformaten PDF und PostScript unterstützten Komprimierungsmethoden für Schwarzweißbilder.
  • CCITT ist die Abkürzung des französischen Namens für den Internationalen Ausschuss für Telefgrafie und Telefonie, Comité Consultatif International Téléphonique et Télégraphique
  • s. oben Huffmann-Codierung

ZIP

  • Die ZIP-Kodierung ist eine Verlustfreie, von den Dateiformaten PDF und TIFF unterstützte Komprimierungsmethode. Wie LZW ist auch die ZIP-Komprimierung am besten für Bilder mit großen, einfarbigen Flächen geeignet.
  • ACHTUNG: ZIP ist eher als Kontainer-Komproessionsformat als für Bilder im Gebrauch + nicht alle Programme die …zip… im Namen haben, nutzen auch diese Komprimierung. Bitte Kontrolle.

(ImageReady) PackBits

  • ist eine verlustfreie Komprimierungsmethode, die ein Run-Length-Komprimerungsschema verwendet. PackBits wird vom TIFF-Format nur im ImageReady unterstützt.

Video

MPEG (Motion Picture Experts Group)

  • MPEG besteht aus der Intra-Frame- (Frame = einzelnes Bild) Komprimierung: 
    Jedes einzelne Bild wird JPG komprimiert.
  • und der Inter-Frame-Komprimierung: Vergleich von Bildinhalten mehrerer Frames. Nur veränderte (bewegte) Bildinhalte werden neu codiert.

  • Beispiel (Inter-…): Eine Person steht und nimmt den rechten Arm nach oben. Es wird nur der bewegte rechte Arm codiert. Danach bleibt der Arm oben und es wird der linke Arm auch nach oben genommen. Es wird nur der linke Arm (+ Hintergrund natürlich) codiert.

Sonstiges

Der Preflight in Layout-Programmen prüft, ob die Bildauflösung, die Datentiefe, der Ausgabefarbraum dem Ausgabemedium gerecht wird. Ein Bild mit 72 dpi ist zum Beispiel nicht für den Druck geeignet. Der Prefligt würde eine entsprechende Fehlermeldung ausgeben.

---

Die Abtastrate, Kanalzahl und Framerate ist bei Audio und Video relevant.

Hier ist die Abtastrate der Wert, der angibt, wie oft eine Tonspur in einer bestimmten Zeit abgetastet wird. Je höher diese Rate ist, desto klarer wird der Ton später. Sie wird in Hertz angegeben, was für "1 pro Sekunde" steht. 44000 KHz entsprächen also 44.000.000 Abtastungen pro Sekunde.

Verringert man den Wert, so werden in einer Sekunde weniger Abtastungen gespeichert. Dadurch gehen Informationen verloren.

Ein Beispiel:

Eine Treppe hat 100 Stufen, die man leicht heraufsteigen kann. Verdoppelt man die Anzahl der Stufen (die Abtastrate), so werden die Stufen nur noch halb so groß. Fügt man beliebig viele Stufen hinzu, so entsteht der Eindruck einer glatten Fläche und damit beim Ton ein sehr präziser Klang.

Die Kanalzahl gibt lediglich an, wie viele Tonspuren nebeneinander in einem Video oder Musikstück laufen. Für Mono ist das einer, für Stereo zwei, für 5.1-Surround-Sound sind es sechs und für 7.1-Surround-Sound sind es acht. Eine Kompression ist zu erreichen, wenn Kanäle entfernt werden. So können z.B. zwei Tonspuren (Stereo) zu einer (Mono) verrechnet werden. Dabei geht der Eindruck des räumlichen Klangs verloren, die Reduzierung von Audio-Kanälen ist also verlustbehaftet.

Die Framerate gibt an, wie viele Bilder pro Sekunde in einem Videosignal codiert werden.

Üblich sind hier 25 Frames per second (FPS), 29,97 FPS, 30 FPS und 60 FPS. Eine Kompression lässt sich hier erreichen, wenn man die Framerate reduziert, also weniger Bilder pro Sekunde darstellt als im Ausgangsmaterial. Dabei gehen allerdings auch Informationen verloren.

 

Übungsaufgaben: 

http://www.mathemedien.de/datenkompression.html

http://www.mathemedien.de/pruef_2012-12.html

Bewertung: 
2.666665
Durchschnitt: 2.7 (3 Stimmen)

Komprimierungsmethoden

Unter Komprimierung versteht man die rechnerische Verkleinerung des Speicherbedarfs einer Bilddatei unter Beibehaltung von Farbtiefe, Bildgröße und Auflösung. Die Bildinformation wird beim Speichern durch so genannte Komprimierungsalgorithmen zusammengefasst und neu verpackt. Zur Weiterverarbeitung oder Ausgabe muss die Datei wieder dekomprimiert werden. Die Vorteile sind bessere Nutzung von Speichermedien und höhere Geschwindigkeit beim Datenaustausch.

Grundsätzlich wird zwischen verlustfreien und verlustbehafteten Komprimierungsmethoden unterschieden.

Verlustfreie Komprimierung
Eine der bekanntesten – aus Photoshop –  Komprimierungsmethoden ist LZW.  Die Abkürzung geht auf die drei Entwickler (Lempel, Ziv, Welch) zurück. Hier wird nur ein Teil der Bildinformation dargestellt und es wird dabei verglichen welche Tonwertabstufungen bereits an anderer Stelle auftreten und anstatt die Informationen ein weiteres mal anzulegen wird eine referenzbibliothek angelegt auf die im Wiederholungsfalle verwiesen wird.

Zu den verlustfreien Verfahren gehören auch RLE (Run Length Encoding), ZIP und CCITT Group 3 bzw. Group 4, die speziell für Strichzeichnungen und Grafiken entwickelt wurden.  Auch JPEG-2000 komprimiert verlustfrei im Gegensatz zu anderen JPEG-Komprimierungen.

Verlustbehaftete Komprimierung
Hierunter werden alle Verfahren gefasst, die zwar die Datenmenge sehr stark reduzieren aber auf Kosten der Darstellungsqualität, wie man es von der JPEG-Komprimierung kennt.

 

Datenkompression bei Film (laufenden Bildern)
Bei der Komrimierung von Filmdateien werden die Ähnlichkeiten zu benachbarten  und schon gesendeten Frames berücksichtigt.
Die einzelnen Frames werden dabei in Kästchen (4x4 oder 16x16 Pixel) zerlegt und anschließend nach schon übertragenen Bildteilen nach Wiederholungen gesucht.

 

Bewertung: 
0
Bisher keine Bewertung

Datenmenge berechnen bei digitalen Audiodaten

Formel:

( ( Auflösung * Samplefrequenz * Kanäle) * Zeit ) : (8 * 1024 * 1024) = X MibiBYte

Joar, nu, wat is Auflösung?

Die Auflösung bei digital vorliegenden Audiodaten ist entweder 8 bit oder 16 bit. (CD-Qualität = 16 bit) 8bit nimmt übrigens keiner, da die Qualität zu stark leidet bei der Audiodatei!

Samplefrequenz? Nie gehört!

Die Samplefrequenz ist die Anzahl der gemessenen Signale pro Zeiteinheit. Gut, hilft jetzt auch nicht weiter. Diese Anzahl wird in Hertz (kHz = Kilohertz; 1 Hz = 1 Messung pro Sekunde) angegeben und liegt zwischen 12000 und 44100 hz (44kHz). Warum 44100 kHz? Weil zu dem doppelten Wert des oberen Endes des hörbaren Bereichs (22000 hz bzw. 22kHz * 2 = 44kHz) noch 10% hinzugerechnet werden.

Kanäle (nicht in die Venedig)

Bei Audiodaten gibt es entweder Mono-, Stereo- oder verschiedene Versionen von Surroundsound. Entsprechend gibt es eine bestimmte Anzahl an Kanälen für jede Audiodatei. Mono = 1 Kanal, Stereo = 2, Surround 5+1 = 6 Kanäle. (CD-Qualität = Stereo)

Und das ergibt nun?

Daraus errechnet sich der Datenstrom pro Zeiteinheit. Bei einer popligen CD, wie sie fast jeder wohl zuhause irgendwo rumfliegen haben wird, wäre das dann: 44.100 hz * 16 bit * 2 (Stereo) = ca. 1411kbit/s

Zeit

Das Lieder eine gewisse Länge vorweisen sollte jedem klar sein. Die Länge der Audiodatei berechnet man in Sekunden (s).

Ach so!

Genau. Und wenn man nun hingeht und den Datenstrom mit der Zeit multipliziert hat man die komplette Datenmenge einer Audiodatei errechnet. Kann man nun noch in die entsprechende Datenmengenangabe umrechnen. Im Normalfall wird die Datenmenge für Audiodaten in MB (Megabyte) angegeben, aber es soll auch schon Fälle gegeben haben (bei wav Dateien, denn die sind unkomprimiert) wo die Datenmenge so groß war, dass GB (Gigabyte) gefragt waren.

Ein Beispiel bitte!

Bedienen wir uns dem beliebten ZFA Beispiel (angeblich, mein Lehrer meinte dem wäre so) der CD-Qualität.

Aufgabe: 

Eine Audiodatei von 3 Minuten und 15 Sekunden liegt in CD-Qualität vor. Errechnen Sie die entstehende Datenmenge (in MB).

Dauer des Liedes: 3 Minuten + 15 Sekunden = 3 * 60s + 15s = 195s

Datenstrom: 44.100 * 16 * 2 = ~1411000

1411000 bit * 195s = 275145000 bit

275145000 : (8 * 1024 * 1024) =  ca. 32,8 MibiByte

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Datenmengenberechnung

Sind zwar nur die Formeln mit einem Beispiel, aber ich denke das reicht aus.

AnhangGröße
PDF icon U7: Datenmengenbrechenung500.94 KB
Bewertung: 
0
Bisher keine Bewertung

Datenübertragungsrate Tutorial

Dieser Prüfungsbereich ist meines Erachtens nach ein Geschenk für uns Digital-Jungs und -Mädels.

Zum einen besteht die Möglichkeit, dass man ein wenig mit Übertragungsraten rechnen muss (z.B.: Wie lange dauert es mit einer ISDN Leitung mit Kanalbündelung 12MB Daten hochzuladen?) oder dass man Begrifflichkeiten erklären darf à la "Was ist asymmetrische Übertragungsrate?"

Dazu muss man einfach mal grundlegende Dinge über die Datenübertragung für das Internet oder in lokalen Netzwerken verstehen, was jedem, der einmal im Internet unterwegs war oder Daten von Rechner A nach Rechner B oder auf einen USB-Stick übertragen hat, relativ bis ganz klar sein dürfte.

Was ist Datenübertragungsrate?

Die Datenübertragungsrate (auch Datentransferrate, Datenrate) bezeichnet die digitale Datenmenge, die innerhalb einer Zeiteinheit über einen Übertragungskanal übertragen wird (Quelle: http://de.wikipedia.org/Datenübertragungsrate ).

Wie wird sie angegeben?

Die Datenrate wird in bit pro Sekunde (bit/s) angegeben und wird gemessen in Dateneinheiten pro Zeiteinheit (Datendurchsatz). 1000 bit/s wären 1 kbit/s (Kilobit pro Sekunde), sprich es wird im Dezimalsystem gerechnet.

Gängige Datenübertragungsraten

Internet

Modem: maximal 56kbit/s

ISDN: 64kbit/s (128kbit/s bei Kanalbündelung)

ADSL Light: 384kbit/s Downloadrate, 64kbit/s Uploadrate

ADSL: Minimum 768kbit/s Downloadrate, 128kbit/s Uploadrate

ADSL2+: Maximum 25Mbit/s Downloadrate, 1Mbit/s Uploadrate

Netzwerkverbindungen

Ethernet: 10 Mbit/s

Fast-Ethernet: 100 Mbit/s

Gigabit-Ethernet: 1Gbit/s

WLAN: 1 bis 600 Mbit/s

Von der anderen Seite betrachtet

Was wäre wohl eine sinnige Sache, wenn man Daten im Internet bereitstellt? Genau, eine möglichst geringe Datenmenge. Ergo ist für Streaming von Audio- oder Videodaten zu beachten, dass man den Datendurchsatz möglichst gering hält, bei möglichst hoher Qualität der Daten.

Was ist asymmetrische Datenübertragung

Klingt komplizierter als es ist. Im Grunde geht hierbei nur darum, dass bei bestimmten Internetverbindungen die Downloadrate höher ist, als die Uploadrate. Sprich Daten werden verschieden schnell übertragen, je nach "Übertragungsrichtung".

Das typische Beispiel ist hier die DSL Verbindung, wo die Downloadrate 768 kbit/s beträgt, die Uploadrate um Daten im Internet bereitzustellen lediglich 128 kbit/s.

 

Sollte ich etwas vergessen oder totalen Humbug verzapft haben, so möge man dies mir mitteilen und/oder verbessern bzw. ergänzen. =)

 

Bewertung: 
0
Bisher keine Bewertung

EDV (BIOS)

Allgemein

· BIOS = (Basic Input Output System)
·...ist auf einem ROM Speicherbaustein auf dem Mainboard abgespeichert ¹ auf der Festplatte.
· Grundlegendes Systemprogramm eines PCs, welches unmittelbar nach dem Einschalten zur Verfügung steht, ist für den Start verantwortlich

· Das BIOS ist dem Betriebssystem vorangelagert, erst nach dem Durchlauf des BIOS ist das Starten des Betriebssystems (von Festplatte) möglich (BIOS-Setup)
·...bildet Schnittstelle zwischen Hard- und Software
· Schnittstelle BIOS/Software = standardisiert
· Schnittstelle BIOS/Hardware = Unterschiedlich
· BIOS greift auf Hardwarekomponenten wie Prozessor und Mainboard zu, die Software wiederum spricht das BIOS an

Wie gelange ich ins BIOS?,was kann ich dort einstellen?

· Da sich die Hardwarekonfiguration eines PCs ändern kann (z.B. neue USB-Karte, Brenner, Drucker), muss man dies dem BIOS mitteilen können
· Man kann Hardwarekomponenten aktivieren/deaktivieren
· Man kann Arbeitsweise und Leistungsfähigkeit beeinflussen
· Diese Nutzerdaten werden in der CMOS (Complementary Metaloxide Semiconductor) gespeichert (eine Art RAM (Arbeitsspeicher Random Access Memory), CMOS behält den Speicherinhalt auch nach dem Ausschalten des PCs in einer Batterie
· Beim Rechnerstart wird die Entf.-Taste gedrückt (meist bei Meldung to enter Setup)
· Da im BIOS fast immer die engl. Tastaturbelegung gilt, muss man z.B. zur Bestätigung die (Z)-Taste drücken für Y(es)

Was genau macht/kann das BIOS?

· Liefert alle Informationen zur Erkennung der vorhandenen Hardware
· Testet alle Hardwarekomponenten der Reihe nach (z.B. Tastatur, Festplatte, Arbeitsspeicher, Diskettenlaufwerk), dieser Test wird auch POSt genannt (Post-On Self Test)
· Initialisiert (wertet aus) diese
· Gibt eventuell Fehlermeldungen aus
· Im Arbeitsspeicher werden Bereiche mit Parametern über die konkrete Ausstattung des PCs zur späteren Verwendung erstellt (BIOS-Routine)
· Abschließend lädt das BIOS den ersten Sektor des Speichermediums und übergibt die Kontrolle an das dort enthaltende Programm
· Das Bios besteht aus einer umfassenden Sammlung von elementaren Programmen, welche die Zusammenarbeit zwischen Prozessor und den einzelnen Rechnerkomponenten auf niedrigster Basis abwickeln
· Nach dem Start bleibt das Bios im Hintergrund aktiv, die Bios-Routinen stehen dann sowohl dem Betriebssystem als auch den Anwendungsprogrammen zur Verfügung

Verschiedene BIOS

· AWARD BIOS
· MR BIOS
· AMI BIOS
· PHOENIX BIOS
· Allgemeines BIOS = System BIOS, verschiedene Karten wie z.B. Grafikkarte haben ihr eigenes BIOS

Bewertung: 
0
Bisher keine Bewertung

Farbmanagement-Einstellungen

Erst einmal Grundsätzliches:

Man spricht immer von einem Quell- und einem Zielfarbraum.
Beispiel: Beim Scannen werden die Farben vom Scannerfarbraum (= Quellfarbraum) in den gewünschten Zielfarbraum umgewandelt, z. B. Adobe RGB oder ECI RGB v2 für Web-Leute auch sRGB.

Es gibt nur zwei Möglichkeiten, wie das Farbmanagement Einfluss auf Farben nimmt:

a) Farben werden vom Quell- in den Zielfarbraum umgerechnet (jeder RGB- oder CMYK-Wert ändert sich).
Mögliche Umwandlungen gehen von RGB nach RGB, von CMYK nach CMYK, von RGB nach CMYK, von CMYK nach RGB.

b) Den Farben des Quellfarbraums werden die des Zielfarbraums zugewiesen (alle Farbwerte bleiben gleich, das Aussehen der Farben ändert sich).
Hierbei kann die Anzahl der Kanäle nicht verändert werden, also funktioniert das nur von einem RGB in ein anderes RGB oder von einem CMYK in ein anderes CMYK.

Im Menü unten sind die beiden Befehle zu sehen: In Profil umwandeln | Profil zuweisen

FM-Einstellungen-1
Farbräume werden mittels Profilen beschrieben (Adobe RGB, sRGB, ISO Coated v2, PSO Uncoated usw. … )
Farbmanagement-Einstellungen klären unter welchen Umständen Farben eines Quell- in einen Zielfarbraum umgewandelt werden und wie das geschehen soll.

Außerdem gibt es Schwierigkeiten beim Umwandeln der Farben, wenn der Zielfarbraum eine andere Größe hat als der Quellfarbraum (z. B. Umwandlung von RGB nach CMYK aber auch von Adobe RGB nach sRGB).
Damit Farbänderungen in diesem Falle möglichst wenig auffallen, werden Rendering Intents(Berechnungsabsichten) hier angewendet.

Definition: Rendering Intents sind Berechnungsprioritäten. Das bedeutet, dass man mit diesen Einstellungen festlegt, nach welcher Priorität Photoshop die Farben übersetzt.

 

Folgende Rendering Intents werden angeboten:

 

Absolut farbmetrisch: Photoshop übersetzt Pixel für Pixel nacheinander, ohne den farblichen Gesamteindruck des Bildes zu berücksichtigen. Die Farben innerhalb des Zielfarbraums bleiben nahezu unverändert, Farben außerhalb werden einfach beschnitten.

Diese Einstellung verwendet man z.B. wenn Logofarben in CMYK konvertiert werden sollen. Bei der Konvertierung von RGB zu CMYK sollte man es eigentlich nicht verwenden.

 

Perzeptiv: Photoshop analysiert das ganze Bild und versucht, bei der Übersetzung den farblichen Gesamteindruck des Bildes beizubehalten. Pixel im Quellfarbraum, die mit ihren Farben außerhalb des Zielfarbraums liegen, werden in den nächstmöglichen Farbwert übersetzt. Farbwerte der angrenzenden Pixel werden verschoben, sodass die farblichen Abstände der Pixel beibehalten werden.

Diese Einstellung wird bei der Umwandlung von RGB in CMYK benutzt. 

 

Relativ Farbmetrisch: Deckungsgleiche Farbbereiche werden "absolut farbmetrisch" übersetzt. Nicht deckungsgleiche Farbbereiche werden "perzeptiv" übersetzt. 

Diese Einstellung wird verwendet, wenn die zu konvertierenden Farbräume schon "relativ nah" beieinander sind, also z.B. bei CMYK zu CMYK.

 

 

Einige Beispiele für die beiden Möglichkeiten, wie sie oben unter a und b beschrieben wurden:

Scannen: Jeder Scanner hat irgendeinen Farbstich. Der wird beim Profilieren mittels einer it8 Karte ermittelt und in ein Profil geschrieben – das kann eine Kalibrierungs-, genauer Profilierungssoftware. Wird dem falschfarbigen Scan das Scanner-Profil zugewiesen, ändern sich die Farben. Die auf der Lab-Schuhsohle an nicht korrekter Stelle liegenden Farben des Scans werden an die richtige Stelle geschoben.

Der Scan liegt jetzt im Scanner-Farbraum vor. Beim Speichern des Scan wird das Profil mit in die Datei hinein geschrieben.
Damit man sich nicht mit unendlich vielen Geräte-Farbräumen herumschlagen muss, wird der Scan anschließend in einen Standard-Farbraum (z. B. sRGB) umgerechnet. Dabei wird der Farbraum geändert, aber die Farben bleiben im Lab-Farbraum an ihren Stellen liegen. Der Scan sieht also weiterhin farblich gleich aus, die RGB-Farbwerte sind dafür verändert worden, umgerechnet halt.

Öffnet man den Scan z. B. mit Photoshop, kann das Programm in einem anderen Farbraum laufen. Eine Farbmanagement-Einstellung (unter Farbmanagement-Richtlinien) klärt, wie mit dem abweichenden Verhalten umgegangen werden soll:

FM-Einstellungen-2
Soll Photoshop dem Anwender etwas mitteilen? Falls ja, dann muss das erste Häkchen gesetzt sein. Im PopUp-Menü darüber kann eingestellt werden, was bei Farbabweichung geschehen soll, wenn also das Profil des Bildes nicht mit dem von Photoshop übereinstimmt:

aus = Profil des Bildes wird nicht gelesen – das Bild wird ohne im Farbraum von Photoshop angezeigt. Ist der nicht derselbe wie der des Bildes, werden die Farben nicht richtig dargestellt.
Eingebettete Profile beibehalten = Profil des Bildes wird gelesen und verwendet, um die Farben des Bildes richtig anzuzeigen.
In RGB-Arbeitsfarbraum konvertieren = das eingebettete Profil wird gelesen, damit die Farben richtig sind und anschließend werden die Farben in den Arbeitsfarbraum von Photoshop konvertiert.

Weiterführende Links:
http://www.cleverprinting.de/pdf/Cleverprinting_2013.zip

 

Bewertung: 
0
Bisher keine Bewertung

Farbprofile verwenden

Gamut Mapping

Das Gamut Mapping ist die Transformation der Farbräume. Der Gamut (englisch:Tonleiter, Skala, Farbpalette) ist die Menge aller Farben, die ein Gerät (Monitor, Drucker, Scanner,Film) darstellen, wiedergeben und aufzeichnen kann.

Die wesentlichen Aufgaben des Colormanagement ist es, die Gamuts verschiedener Geräte so aufeinander abzubilden, dass möglichst wenige störende Farbverschiebungen und Abrisse entstehen

Profile Connection Space (PCS)
Die Kommunikation über die Farbe nuss in einem gemeinsamen Sprach- bzw Farbraum efolgen.

Dieser Farbraum sollte alle am Workflow beteiligten Farbräume umfassen und eine eindeutige Übersetzung zwischen den Frabräumen ermöglichen. Die XYZ, YXY und LAB-Farbräume erfüllen dieses Anforderung. Diese Farbräume umfassen alle für den Menschen sichtbaren und somit alle Prozessfarbräume.

Die ICC (Internationale Consortium) und ECI (European Color Iniative)haben den LAB und den XYZ Farbraum als Referenzfarbräume festgelegt.

Das Gamut Mapping findet zwischen den Profilen in diesem Farbaum statt, dieser „Raum“ wird als Profile Connection Space bezeichnet. Das ICC-Profil stellt die Beziehung des individuellen Gerätefarbraums zum geräteunabhänigen PCS her.  Das im Betriebssystem integrierte CCM, Color Matching Modul, steuert die profilgestützte Farbverarbeitung. Durch die wahl des Rendering Intens legt man den jeweiligen Algorithmus fest.

Rendering Intent

Das Rendering Intent ist der Umrechungsalgorithmus der Farbraumtransformation. Welches Rendering Intent gewählt wird, ist von der Anwendung abhänig. Es wird zwischen vier Optionen unterschieden:

Perzeptiv ( auch fotografisch,wahrnehmungsorientiert)

Perzeptiv ist die standartmässige Rendering-Methode für RGB-Bilder mit sehr gesättigten Farben, die in CMYK konvertiert werden sollen. Bei der Transformation werde Farben, die weit außerhalb des Zielfarbraums liegen, sehr stark verschoben, Farben die am Rand liegen weniger stark. Farben die im Inneren des Zielfarbraums liegen werden nur ganz leicht verschoben.

- Transformation in einen kleineren Zielfarbraum,dabei wird der ursprüngliche Farbumfang komprimiert und auf die geringste Größe des Zielfarbumfangs zusammengedrückt

 

-> alle Buntheits- und Helligkeitsunterschiede werden geringer.

- Transformation in einen größeren Zielfarbraum, dabei wird der Farbbumfang ausgedehnt

 

-> alle Buntheits-und Helligkeitsunterschiede vergrößern sich.

Absolut farbmetrisch

Hier wird der Weißpunkt des Zielfarbraum an den Weißpunkt des Quellfarbraums angepasst. Die Papierfärbung wird also im geprooften Bild simuliert, diese Option kann man wählen, wenn das Proofpapier farblich nicht dem Auflagenpapier entspricht.

- Farben mit hohen untereinander unterschiedlichen Buntheiten sind nach der transformation gleichbunt. Bei sehr hellen und sehr dunklen Farben gehen entsprechen die Helligkeitsunterschiede verloren.

 

Bei der Wandlung von Logofarben wie HKS oder Pantone in CMYK wird absolut farbmetrisch z.b auch verwendet.


Relativ Farbmetrisch

Der Weißpunkt des Quellfarbraums wird auf das weiß des Zielfarbraums verschoben (Proofpapier entspricht dem Auflagenapier) Alle anderen Farben verändern sich in gleicher Richtung und Stärke, ihre Farbabstände bleiben untereinander gleich.


Sättigung

Hier werden kräftige Fraben auf Kosten der Farbtreue erstellt. Der Quellfarbenumfang wird in den Zielfarbenumfang skaliert, die realtive Sättigung bleibt erhalten.

- eignet sich für Infografiken, bei denen das Verhältnis zwischen den Farben weniger wichtig ist als leuchtende und satte Farben.

 

- die Priorität ist die Sättigung der Farben soweit wie möglich zu erhalten.

Transformation RGB zu CMYK

- oft wird das perceptual Rendering Intent benutzt, Buntheits- und Helligkeitskontraste sind gegenüber dem RGB Bild zwar deutlich abgeschwächt, aber das Bild sieht in sich schlüssig aus, es sieht richtig aus.

-Enthalten Bilder keine sehr bunten Farben, so kommt auch das relativ farbmetrische Rendering Intent in Frage, denn beim perceptual Rendering Intent kann es bei solchen Bildern zu unerwünschten

 

Modulations- und zeichenverlusten kommen, das Bild erscheint dann zu grau.

Bilddaten können nun unter Anwendung dieser ICC-Profile zielgerecht für ein Druckverfahren von RGB in CMYK „übersetzt“ werden. bei dieser Übersetzung werden Parameter wie druckzuwachs, druckfarbe, papierweiß usw. berücksichtigt

ICC-Profile

Profile sind Dateien, die den Farbumfang und die Farbwiedergabeeigenschaften von Erfassung- oder Ausgabegeräten oder -prozessen charakterisieren. Das Profil eines Scanners beschreibt, wie die Farben der Vorlage in RGB umgesetzt werden.

 

Ein Druckprofil beschreibt die Umsetzung von CMYK-Daten in gedruckte Farbe, ein Monitoprofil die Umsetzung von RGB-Daten in Farben auf dem Monitor.

Ein Profil beschreibt den selben Farbraum sowohl prozessabhänig als auch prozessneutral und setzt beide Beschreibungen zueinander in Beziehung.  Das Profil enthält die Informationen, die zur Transformation von Bilddaten aus einem Prozessunabhänigen Farbraum (RGB, CMYK) in einem prozessneutralen (CIELAB, CIE-XYZ) Farbraum gebraucht werden.

Das Internationale Color Consortium - ICC entwickelte die programm- und plattformübergeifende Anwendbarkeit von Profilen. Diese wird durch eine einheiltliche spezifikationv on Dateiformat und Inhalt gewährleistet.

Es gibt unzählige Profile für die verschiedenstens Bedruckstoffe. Viele Druckereien bieten auf ihrer Internetseite Profile zum Herunterladen an. Sind die Druckbedingunge nicht bekannt, so kann man Standart-Druckpofile der ECI ( European Color Initiative) nutzen, diese gelten für den Offset- und den Endlosdruck.


ISOcoatedv2.icc                      - Papiertyp 1 & 2, 115g/m² glänzend und matt holzfrei gestrichen,  
                                                    Bilderdruck z.B: Digitaldruck, Bogenoffset
ISOwebcoated.icc                   - Papiertyp 3, 65g/m² LWC, Rollenoffset z.B: Zeitschriften(GEO)
ISOuncoated.icc                      - Papiertyp 44, 120g/ m², ungestrichen, weiß, Offset
ISOuncoated-yellowish.icc    - Papiertyp 5, 120g/ m², ungestrichen, gelblicher Stich, Offset
ISOnewspaper.icc                  - Zeitungsdruck

 

Weiterführende Links

http://www.cleverprinting.de/freeloads.html

Sehr viele Infos über PDF und Colormanagement: "PDF/X und Colormanagement 2011" zeigt, welche Vorteile sich bieten, wenn die Möglichkeiten moderner Technologien und Arbeitsweisen konsequent eingesetzt werden. Auf 200 Seiten beschreibt das Handbuch, wie Druckdaten medienneutral – oder auch klassisch – erstellt werden.

 

 

Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

Farbräume / Kontraste / HEX - Werte

Hi! Bin neu hier und versuche mal, mit diesem Beitrag meinen Einstand zu geben.
Hoffe, ich mache nicht direkt alles falsch :-)

 

Farbe im Screendesign ist

  • im RGB - Farbmodus (additive Farbmischung)
  • Mit RGB lassen sich mehr Farben darstellen, als in CMYK
  • sRGB (small RGB) wird für Websitegrafiken verwendet. Der Farbraum ist kleiner und spart Speicherplatz
  • wird bei Website in Hexadezimal angegeben und sieht z.B. so aus: #000099 (Siehe extra Abschnitt)

 

Kontraste

Komplementärkontraste (z.B. rote Schrift auf grünem Grund) führen auf dem Monitor zu noch stärkerem Flimmern, als bei Print.

Bei schwarzer Schrift auf weißem Grund, kommt es aufgrund der additiven Farbmischung zum Überstrahlen. So sind klein gesetzte outline Schriften oder Schriften mit feinen Haarlinien schlechter zu lesen, als im Print (natürlich auch wegen der Auflösung, aber nicht nur). Daher ist es empfehlenswert, den Hintergrund nicht komplett weiß zu gestalten, sondern ein ganz leichtes grau zu wählen, damit die umliegenden weißen pixel die wenigen schwarzen pixel der schrift nicht überstrahlen. Dies ist auch für die Augen angenehmer zu lesen und die Augen ermüden nicht so schnell.

 


Hex-Werte:

Bei Websites werden die Farben in Hex angegeben.
Dabei besteht der Wert aus 6 Zeichen (Buchstaben und Ziffern)

Die ersten beiden Ziffern stehen für R, also den Rotanteil der Farbe.
Die mittleren beiden Ziffern stehen für G, also den Grünanteil der Farbe.
Die letzten beiden Ziffern stehen für B, also den Blauanteil der Farbe.

Je niedriger die Zahl, desto weniger "leuchtet" diese Farbe.
00 bedeutet also, diese primäre Farbe ist nicht Bestandteil in der sekundären Farbe.
"ff" bedeutet, diese Farbe leuchtet mit voller Kraft und somit Bestandteil der sekundären Farbe ist.

Der Farbcode #ff0000 steht also für ein helles rot, da der R Kanal voll "aufgedreht" ist.
Der Farbcode #ffff00 steht für ein helles gelb, da der rote und der grüne Farbkanal voll "aufgedreht" sind und rot und grün die sekundärfarbe gelb ergeben.
Der Farbcode #000000 steht für schwarz, #ffffff steht für weiß

 

 

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Font Rendering

FONT RENDERING:

 

  • Web-Font-Revolution muss mehr beachtet werden für das Verstehen der Technologie hinter Webschriftarten

 

  • Unterschiedliche Browser und Betriebssysteme zeigen Schriften unterschiedlich an. Das Verstehen, warum Schriften wie dargestellt werden hilft dabei, Webseiten zu schaffen, die erfolgreich sind und in allen Varianten bequem zu lesen sind. (Statt den Versuch zu starten, die Nutzung von Browser und OS zu bestimmen, sollte das Augenmerk darauf gelegt werden, wie die Differenzen ausgeglichen werden können)

 

  • Bisher gab es nur eine handvoll brauchbarer Webschriftarten, die allgemeine Gültigkeit haben.

 

  • Heute gibt es eine riesige Auswahl an Schriften, aber nicht jedes Betriebssystem unterstützt diese. Verschiedene OS-Hersteller verfolgen unterschiedliche Strategien, um Fonts zu Rendern, also um ihre Darstellung zu berechnen.

 

  • Betrachtet man entsprechend, wie die Schriften auf dem Bildschirm aussehen, stellt man fest, dass die Zeichen stellenweise starke Unterschiede von System zu System aufweisen.

--> Auch sehr gut designte Schriftarten können nicht gut auf z.B. Windows aussehen, wenn eine entscheidende Sachen fehlt: Das Hinting.

 

  • Es ist also wichtig, zu wissen, worauf man bei der Auswahl von Schriften achten muss, um eine hohe Typo-Qualität dauerhaft zu erhalten.

 

RENDERING-ARTEN

 

Rasterung

  • Die Buchstaben werden als abstrakte Zeichnungen - meist mit sehr genauen, feinen Rändern - designt.
  • Wir der Text auf dem Bildschirm angezeigt, muss die präzise, ideale Form in einem mehr oder minder groben Raster von Pixeln dargestellt werden
  • Während der Gebrauch von der bloßen Vorschau am Monitor sich zur Druckausgabe in das eigentliche Medium, das wir lesen, wandelte, wurden immer mehr und mehr anspruchsvollere Wiedergabeverfahren (rendering methods) entwickelt, die auch das Lesen am Monitor angenehmer machen.

 

 

Schwarz-Weiß-Wiedergabe (Black-White-Rendering)

  • Die erste Methode, um Buchstabenformenauszudrücken, beruhte auf rein weißen und schwarzen Pixeln (auch "Bi-Level Rendering")
  • Im Druck gibt es durch die hohe Druckauflösung ein sehr gutes Ergebnis, auf dem Monitor macht uns die eher geringe Anzahl an verfügbaren Pixeln zu schaffen und die genaue Form kann nicht gut wiedergegeben werden. Auch wenn wir die einzelnen Pixel nicht sehen können, erfassen wir die Pixeltreppen statt einer Rundung doch.

 

 

Graustufen Wiedergabe (Grayscale-Rendering / Anti-Aliasing)

  • Idee: Verbesserung der runden Darstellung durch bessere Kontrolle der Helligkeit eines Pixels.
  • Ein Pixel, der auf dem Rand der Buchstabenform liegt, wird grau. Je mehr des Pixels noch in den Buchstaben bzw. die Form integriert ist, desto dunkler wird er.
  • Das Ergebnis ist eine weichere Kontur, durch die unschöne Pixeltreppen weniger auffallen.
  • Das Prinzip ist das gleiche wie bei der harnkomprimierung von Fotos auf eine niedriegere Auflösung: Unser Auge wandelt die Graustufen in einen Teil der Form um, sodass wir einen Buchstaben sehen, der an sein Form-Vorbild sehr nah herankommt.

 

 

Subpixel Rendering

  • Die dritte Generation der Wiedergabe-Technologie
  • Charakterisiert durch scheinbar farbige Pixel (Nimmt man einen Screenshot und vergrößert diesen, sieht man blaue, grüne und rote Pixel)
  • Die Farbigen Pixel sind Subpixel, die Farbe und Helligkeit der Pixel neben ihnen controllieren.
  • Sie sind so klein, dass wir sie als einzelne farbige Punkte gar nicht wahrnehmen.
  • Alle Subpixel werden individuell dazugeschaltet; Ist der rechte Subpixel eines Weißraums z.b. rot, erscheint er als Vollpixel technisch auch rot.
  • Die Vorteile dieser Technik werden deutlich, wenn man die Subpixel entsättigt. Verglichen mit dem einfachen Grayscale-Rendering hat sich die Auflösung horizontal verdreifacht. Position und Gewicht vertikaler Stämme können noch genauer reflektiert werden und der Text erscheint klarer.

 

 

DERZEITIGE AUSFÜHRUNGEN

 

  • Da sich fast alle Browser auf das System Beziehen, auf dem sie aufgerufen werden, muss das Augenmerk bezüglich Webfont-Rendering auf das Betriebssystem gelenkt werden.
  • Trotzdem gibt es auch Unterschiede unter den Browsern was die Unterstützung von Kerning und Ligaturen, genauso auch die Anwendung von Unterstreichungen und Fetten Schriftschnitten angeht.

--> Allein deswegen kann mannichtmal für ein Betriebssystem alle Browser auf den exakt gleichen Darstellungsstand bringen.

 

Ein Beispiel, welche Wiedergabeverfahren für Browsers unter Windows verwendet werden:

 

Browser: PS-Webfonts - TT-Webfonts

 

IE 6-8 (XP): not supported - GDI grayscale

IE 6-8: not supported - GDI grayscale

IE 9: Direct Write - Direct Write

FF 4+: GDI grayscale - GDI grayscale

FF 4+: Direct Write - Direct Write

(Direkt Writer activated by User)

 

Chrome: GDI grayscale - GDI grayscale

Opera: GDI grayscale - GDI grayscale

 

 

Windows:

  • Font-Format hat maßgeblichen Einfluss auf die Wiedergabe
  • Der entscheidende Unterschied liegt zwischen PostScript-Schriftarten und TrueTypeFonts, nicht auf welche Weise sie in den Browser integriert werden

--> Solange die grundlegende Schriftart die selbe ist, sehen wir ein identisches Rendering

 

  • Das Dateiformat der Schriftarten gibt Hinweise, welche grundlegende Technik benutzt wird (EOT & .ttf enthalten immer TrueTypes, während .otf typischer Weise PostScript-basiert ist. WOFF kann beides enthalten)
  • Unterschied im Hinting: PS enthalten nur wage Informationen über die Position verschiedener Teile eines Buchstabens und benötigen eine intelligente RenderingSoftware, um sie auszulesen. TTF dagegen beinhalten sehr spezifische, einfache Einstellungen, die den Wiedergabe Prozess direkt kontrollieren.

 

---> Neue Rendering-Software von Windows, ClearType, unterstützt nur TrueTypeFonts und rendert diese mit einem Hybrid aus SubpixelRendering und Schwarz-Weiß-Rendering

---> Das Ergebnis sind Treppen in der Kontur, die vorallem bei sehr großen Schriftgrößen sichtbar sind. Diese sind zwar unschön, aber nicht zu vermeiden, selbst mit dem besten Hinting.

 

  • ClearType ist entsprechend eher ein Schritt zurück bei großen Schriften; Der Gewinn in der horizontalen Präzision im gering gegenüber den rauen Konturen, die das Gesamtbild stören.

 

  • Aber: Windows hat eine lösung. Mit DirectWrite gab es die Ergänzung zur Weichzeichnung in der Vertikalen für ClearType.
  • DirectWrite gibt eine Verbesserung der Gleichmäßigkeit von Texten, da es die Positionierung von Subpixeln erlaubt, die den Buchstaben einen entsprechenden Abstand geben, ganz, wie sie programmiert und angelegt wurden.
  • Auch im PS-Font-Rendering gibt DirectWrite weichere Konturen und lässt Subpixel-Rendering zu. Es sorgt für mehr Graupixel, um Strichstärken besser zu reflektieren.

---> Sehr ausbalanciert und sehr ähnlich zu Mac OS rendering

 

  • in GDI-basierten Browsern werden PS-Web-Fonts mit GrayscaleRendering angezeigt

----> Anders als GDI-ClearType gibt es hier weiche Konturen

----> Anders als TrueType-Hints, ist PS-Hinting deutlich leichter zu erstellen, auch automatisch.

 

Unhinted Fonts in Windows:

  • Schriften im alten graustufen-Modus von Windows sahen erstaunlich gut aus.
  • Solange sie nicht via Hinting mit vollen Pixeln gefüllt werden und der rasterizer das wieder entkräftet, ist dieses alte System gleich dem von iOS, doch heute sind unhintet Fonts keine Option mehr.

---> GDI-ClearType ist auf ein gutes Hinting angewiesen, eine Unhintet Font mit GDI zu rastern verschlechtert die Qualität. (Horizontale Striche werden extrem dich angezeigt; "Warzen"/"Warts" werden dort sichtbar, wo Konturen nicht ordentlich an das Pixelraster ausgerichtet sind)

 

---> In DirectWrite gibt es genau die selben Probleme, wegen des fehlenden Hintings können die Striche nicht exakt angepasst werden.

 

 

Mac OS X

  • Alle Browser nutzen die QuartzRendering Software, die sehr verlässlich ist, da sie nicht versucht intelligent zu sein
  • Da das Hinting ignoriert wird, rendert die Software alle Schriftarten - ob PS oder TT - genau gleich.
  • Das angewandte Subpixel-Rendering ist sehr robust und ausgewogen; Der Rasterizer versucht nicht zu verstehen, wie dick oder dünn striche sind und was eine Schrift ausmacht, sondern betrachtet nur, was durch dunklere und hellere Pixel dargestellt wird.
  • Da die Buchstabenform nicht interpretiert wird, kann sie auch nicht falsch interpretiert werden.

---> Führt stellenweise zu Problemen, gerade weil einiges nicht intelligent controlliert wird:

  • Bei manchen Schriftgrößen kann es passieren, dass Horizontale eine Graureihe haben, weil die theoretische Höhe keinen ganzen Pixel darstellt. Eine minimale Änderung der Schriftgröße behebt das Problem jedoch.
  • Schriften neigen dazu, zu stark gerendert zu werden, was sie sehr massiv macht. Sichtbar wird das, wenn man die gleiche Schriftart in Windows anzeigt und dort vergleicht. (Oft ist das nur in gewissen Schriftgrößen extrem)

 

iOS

  • selbes Prinzip wie Mac OS, nur kein Gebrauch von Subpixel-Rendering (die macher wollten den CPU-Gebrauch einschränken. Beim Subpixel-Renderiung muss das System das Renderiung über"denken", da Subpixel physisch auf eine spezielle Weise angebracht werden)

 

===> Mac: Keine Kontrolle über das Rendering, was akzeptabel ist, da das System generell verlässlich ist. Der einzige Schwachpunkt ist, dass Schriften generell zu massiv dargestellt werden.

 

===> Windows: Hinting-Angelegenheit, speziell bei TT-basierten WebFonts. Als Kontrolle gibt es die Wahl zwischen PS- und TT-basierten Schriften. Wichtig ist vorallem, dass sie vernünftigt gehintet werden.

 

 

Quelle: http://www.smashingmagazine.com/2012/04/24/a-closer-look-at-font-rendering/

(auf der Seite gibt es auch Bilder zu den einzelnen Rendering-Arten und Ansichten)

Bewertung: 
0
Bisher keine Bewertung

Grafikkarten

Die Grafikkarte ist für die Monitordarstellung verantwortlich. Sie wird als Erweiterungskarte mit dem Motherboard verbunden oder ist direkt in den Chipsatz des Motherboardes integriert und verfügt über einen Prozessor (GPU), einen Grafik-/Videospeicher (Video-RAM), einen Chip zur Umwandlung von digitalen in analoge Signale (RAMDAC) sowie über Schnittstellen für externe Geräte wie Monitor oder Fernseher.
Die erste Grafikkarte, die 1981 in einem PC verwendet wurde, konnte Text einfarbig darstellen, doch Verbesserungen folgten schnell. Am bekanntesten wurde die VGA-Karte, die IBM 1989 auf den Markt brachte.
Mit der Entwicklung und Verbreitung der PCs wurden auch die Grafikkarten weiter verbessert und konnten, indem sie über eine eigene CPU sowie über einen eigenen Grafikspeicher verfügten, nicht nur Text, sondern auch komplexere grafische Funktionen darstellen. Auch die Verbreitung von 3D-Computerspielen und leistungsfähigere Grafikkarten bedingten sich gegenseitig. Aktuell besitzen Grafikkarten bis zu 512 MB Grafikspeicher, jedoch auch weitaus größere Speicher (bis 1.536 MB) sind erhältlich.
Derzeitiger Mindeststandard bei der Darstellung ist der VESA-Modus (Video Electronics Standards Association) mit einer Auflösung von maximal 1280 x 1024 Punkten bei 16 Bit Farbtiefe.
Neben Grafikkarten für den Einsatz im Office-Bereich und bei Spielen gibt es auch Karten für den professionellen Einsatz z.B. bei aufwendigen Bildbearbeitungen oder CAD-Anwendungen.
 

Grafikkarten und deren Mainboardanbindung

Hardwareschnittstellen zum System

   • bekannteste Hardwareschnittstellen für Grafikkarten: PCI, AGP und PCI-Express
      (früher waren auch ISA und VESA Local Bus gängig)
   • diese Schnittstellen sind entweder Bussysteme oder Direktverbindungen (AGP, PCI-Express),
      die den Buscontroller mit der Grafikkarte verbinden
   • Spezifikation der Schnittstellen wird meist durch Interessenverbände vorgenommen
     (in denen sowohl Controller-/Grafikkarten-/Grafikchiphersteller Mitglied sind)
      --> deswegen funktionieren im Idealfall alle konformen Grafikkarten mit allen konformen Controllern!

Grafikspeicher

   • Grafikspeicher dient zur Ablage der im Grafikprozessor (GPU) verarbeiteten Daten und als Bildspeicher
     („Framebuffer“) à das sind digitale Bilder, die später auf dem Computer-Bildschrim ausgegeben werden
   • Größe des Grafikspeichers bestimmt die maximale Farbtiefe und Bildauflösung
   • Grafikspeicher leicht zu errechnen:
      - z.B. gewünscht ist eine Auflösung von 1600 x 1200 und eine Farbtiefe von 24 bit
      - Anzahl der Bildpunkte berechnen  (1600 x 1200 = 1.920.000 Pixel insgesamt)
      - für jedes Pixel 24 Farbinformationen: Pixelanzahl x Farbtiefe (1.920.000 x 24 = 46.080.000 Bit = 5.760.000 Byte)
      - Umrechnung in Byte bei 1 MB = 1.048.576 Byte (5.760.000 Byte : 1.048.576 = 5,49 MB
         Grafikspeicher erforderlich)
   • heute werden nur noch Grafikkarten mit viel mehr Speicher gebaut,
      als zur reinen Bildspeicherung notwendig wäre
   • beim Rendern dreidimensionaler Grafiken werden hier zusätzlich zum Framebuffer die Daten
      der Objekte (z.B. Größe, Form, Position, Textur) gespeichert
   • besonders die immer höher auflösenden Texturen haben für einen starken Anstieg
     der Speichergröße gesorgt
   • Speichergröße aktueller Grafikkarten liegt im hohen Megabytebereich
     (bei 256 MB, 512 MB, 1024 M, 2048 MB)
   • Spielegrafikkarten haben Speichergrößen von 2 GB bis 4 GB
   • bei Onboard-Lösungen wird meist der Gauptspeicher des Systems als Grafikspeicher genutzt
     („Shared Memory“)
   • Zugriff erfolgt über das jeweilige Bussystem und ist deshalb langsamer als direkt
     angebundener Speicher

Grafikprozessor (GPU)

   • dient zur Berechnung der Bildschirmausgabe
   • Mitte der 1990er Jahre kamen die ersten 3D-Beschleuniger auf den Markt
     - waren in der Lage, einige Effekte und dreiecksbasierte Algorithmen (wie Z-Puffer/Texture Mapping)
        und Antialiasing selbstständig durchzuführen
     - besonders den Computerspielen halfen solche zusätzlich zu installierenden Steckkarten
       zu einem Entwicklungsschub
   • heute sind GPUs wegen ihrer Spezialisierung auf Grafikberechnungen den CPUs
     in ihrer Rechenleistung überlegen

Kühllösungen

   • notwendig aufgrund der hohen thermischen Verlustleistung durch zunehmende Komplexität
     von Grafikprozessoren/Grafikspeicher
   • z.B. Prozessorkühler
   • Grafikkarten verbrauchen mit einem Grafikprozessor (GeForce 8800 Ultra) bis zu 175 W Leistung,
     die vollständig als Wärmeenergie abgeführt werden muss
   • zur Abführung der Wärmeenergie existieren mehrere Ansätze:

passive Luftkühlung

• durch Kühlkörper wird die thermische Energie durch Konvektion an die
   Umgebungsluft abgegeben
• nur bei geringen Leistungen oder mit sehr großen Kühlkörpern möglich
• oft werden auf beiden Seiten der Grafikkarte großflächige Kühlkörper angebracht,
   die mit einer Heatpipe verbunden sind
• Problem: Kühlkörper haben hohes Gewicht, dies führt zu einer hohen mechanischen
   Belastung des Steckplatzes

aktive Luftkühlung

• die thermische Energie wird über einen Kühlkörper an die Umgebungsluft abgegeben,
   die durch Lüfter umgewälzt wird
• einfachste und preiwerteste Variante, verursacht allerdings Störgeräusche

Wasser-kühlung

• wenn für die CPU eine Wasserkühlung eingesetzt wird, kann auch Grafikkarte
   eingebunden werden
• die thermische Energie wird dann an das Wasser im Kreislauf
   und von dort über einen Radiator an die Umgebungsluft abgegeben
• ermöglicht einen Transport von großen Wärmemengen, ist aber auch aufwendig/teuer

RAMDAC („Random Access Memory Digital/Analog Converter“)

   • = Chip, der für die Umwandlung von digitalen (Videospeicher) in analoge Bildsignale (Monitor)
      verantwortlich ist
   • von ihm werden die Signalausgänge angesteuert
   • kann auch im Grafikprozessor integriert sein

Externe Signalausgänge

VGA-Out

• an einer 15-poligen D-Sub-Buchse wird eine analoges RGB-Signal hergestellt
• über ein VG-Kabel mit entsprechendem Stecker werden CRT-Monitor
   (Röhrenmonitor), Projektor oder Flachbildschrim angeschlossen

DVI-Out

• liefert ein digitales Signal und dmait die bester erreichbare Bildqualität
   an Bildschirmen mit DVI-Eingang
• die meisten heutige Grafikkarten sind mit einem DVI-I-Anschluss („i“ für „integrated“)
   ausgestattet und liefern damit zusätzlich ein analoges RGB-Bildsignal
• somit können mit einem (meits beiliegenden) passiven Adapter auch Bildschirm mit
   analogem D-Sub-Eingang angeschlossen werden
  (die Bildqualität entspricht dann jedoch mehr der des S-Sub-Ausgangs)

• es existieren weiterhin die Varianten DVI-D mit ausschließlich digitalen
  Signalleistungen
• bei DVI-D sind die Varianten Single-Link-DVI und Dual-Link-DVI zu unterscheiden
   - letzterer beinhaltet doppelt so viele Datenleistungen,
      kann somit größere Bandbreite liefern,    
   - ist notwendig für Auflösungen größer als WUXGA (1920x1200), um trotz größerer
     Datenmengen pro Bild eine Bildwiederholfrequenz von mind. 60 Hertz zu
     gewährleisten

HDMI-Out

• HDMI = „High Definition Multimedia Interface“
• seit 2007
• hier wird das Videosignal auch digital und gegebenenfalls mit HDCP verschlüsselt
   ausgegeben
• es könen auch DVI-D-Signale übertragen werden, d.h. DVI-Geräte sind kompatibel
   zu HDMI
• Unterstützung von HDCP ist bei DVI jedoch optional, sodass nicht alle Geräte derartig
   geschützte Signale wiedergeben können
• Übertragung von Tonsignalen ist jedoch nur über HDMI-Verbindungen möglich

Display Port

• relativ neuer Verbindungsstandard für Bild-/Tonsignale
• er ist kompatibel zu VGA, DVI und HDMI 1.3
• unterstützt Kopierschutzverfahren HDCP und DPCP
   („Display Port Content Protection“)
• Verbreitung beschränkt sich Anfang 2010 auf professionelle Grafikkarten, sowie einige
   Modelle der AMD Radeon HD 5000-Serie und eine proprietäre Version am MacBook

TV-Out

(= Video-Out)

• der als Cinch- oder S-Video-Buchse ausgeführte TV-Ausgang kann mit einem
   Fernseher/Projektor verbunden werden
• man kann so mit mehreren Bildschirmen (PC-Bildschrim +  Fernseher) arbeiten
• allerdings ist die Signalqualität des Anschlusses meist nicht sehr hoch, da es sich um
   ein analoges FBAS- oder S-Video-Signal handelt und die meisten Karten nicht den
   nötigen Schaltungsaufwand treiben, um aus diesen Signaltypen das
    Bestmögliche herauszuholen

 

Software-Grafikschnittstellen

   • notwendig, um Grafikkarten benutzen zu können, ohne Hardware und Software für jede
      einzeln zu entwickeln
   • Gerätetreiber stellen Verbindung zwischen Hardware & Software her
     - ohne diese müssten Programme die Hardware direkt ansprechen
     - würde aufgrund der Unterschiede zwischen Grafikarten zu einer hohen Spezialisierung
        und damit zu einem hohen Programmieraufwand für die Unterstützung vieler Grafikkarten führen
    - Grafikkartentreiber können ebenfalls sehr unterschiedliche Funktionen anbieten
    - deswegen wurden verschiedene Grafik-APIs entwickelt, die den Zugang zu diesen Funktionen
       erleichtern sollen (z.B. OpenGL oder DirectX)
     - d.h. ermöglichen dem Programmierer, einfach und unabhängig von der Grafikkarte
       2D- & 3D-Grafik anzuzeigen

 

Bewertung: 
5
Durchschnitt: 5 (3 Stimmen)

HARDWARE

Bewertung: 
0
Bisher keine Bewertung

Plotter

Plotter sind Computer gesteuerte elektronische Ausgabegeräte

  • Sie sind besonders für die Ausgabe von Zeichnungen aus CAD-Programmen (Computer unterstütztes Konstruieren) geeignet.
  • Man unterscheidet Flachbettplotter (kleine Formate) und Trommelplotter (große Formate)
  • Bei den Flachbettplottern liegt das Papier flach und fest auf dem Zeichentisch. Ein Stift wird mit einem horizontal und vertikal steuerbaren Schlitten über das Papier geführt.
  • Beim Trommelplotter bewegt sich der Zeichenstift nur in einer Richtung während die Bewegung in die 2. Richtung durch das Hin- und Herfahren des Papiert mittels einer Trommel durchgeführt wird. Das Papier wird dabei durch ein Vakuum in Kontakt mit der Trommel gehalten (durch automatisches Wechseln sind auch mehrfarbige Zeichungen möglich).
  • Eine Sonderform der Plotter sind schneid Plotter die Schablonen z.B. für den Siebdruck schneiden

Im Unterschied zu Drucker „setzen“ Plotter nicht einzelne Punkte, sondern zeichen oder schneiden „echte“ Linien. Vergleichbar mit: Messwertschreibern (EKG) die mit analog bewegten Tintenstiften Linien auf kontinuierlich vorgeschobenes Papier schreiben.

Generell sind 2 Verfahren zu unterscheiden:

  • Entweder wird das Plottmedium (Papier/Folie) unter dem Schreib- oder Schneidekopf von und zurück bewegt während dieser quer zur Papierrichtung läuft.
  • oder der Kopf wird auf x- und y-Schiene über das unbewegte Medium geführt.
  • Eine Kombination der Verfahren ist möglich.

 

  • Der Schreibkopf kann programmgesteuert mit verschiedenen Stiften für Strichstärken und Farben bestückt werden, bei schneide Plottern mit Messern (dem entsprechenden Material angepasst).
  • Ausgabegerät für Strichzeichnungen z.B. Bau- und Konstruktionszeichnungen.
  • Für Bilder und Verläufe sind sie nicht geeignet da sie keine Halbstöne darstellen können.
  • Bei Vektrografiken ist höchste Präzision erreichbar.
Tags: 
Bewertung: 
0
Bisher keine Bewertung

Beamereinsatz und -technologie

 Hier könnt ihr eure Zusammenfassung veröffentlichen.

Stichwort: ANSI Lumen

Bewertung: 
0
Bisher keine Bewertung

Bildschirmarbeitsplatz

Eine ausführliche Darstellung dieses und anderer Themen zur Arbeitsplatzgestaltung mit guter Illustrierung gibt es von der Deutschen Gesetzlichen Unfallversicherung unter http://publikationen.dguv.de/dguv/pdf/10002/215-410.pdf.

Beschwerden durch unsachgemäßes Arbeiten am Arbeitsplatz:

  • • Muskuläre Verspannungen im Schulter-und Nackenbereich
  • • Übermäßige Belastung der Wirbelsäule und Gelenke
  • • Überanstrengung der Augen und Augenmuskulatur
  •  

Richtige Position des Bildschirms

  • • Blick des Menschen geht leicht nach unten. Bildschirm entsprechend positionieren. Verhindert ständige Anspannung von Nacken- und Schultermuskulatur
  • • Parallel zum Fenster stellen. Wenn das nicht möglich ist, dann Jalousien, Rollos oder mobile Wände einsetzen.
  • • Augen sollten nicht gleichzeitig auf sehr helle und dunkle Flächen schauen, sonst muss sich die Augenmuskulatur permanent anstrengen.
  • • Bildschirm sollte gerade vor dem Nutzer stehen
  • • Spiegelungen von z.B. hellen Fenstern & Lampen vermeiden, da dies zur Belastung der Augenmuskulatur führt
  •  

Entfernung von Bildschirm & Tastatur

  • • Der Bildschirm sollte 50-70cm von den Augen entfernt sein
  • • Tastatur muss so weit von der Tischkante entfernt sein, dass die Handballen aufzulegen sind.
  • • Nur so ist eine bequeme & entlastende Sitzhaltung möglich
  •  

Bürostuhl

  • • Sitzfläche auf Kniegelenkhöhe einstellen
  • • Die Füße müssen bequem aufstehen können
  •  

Dynamisches Sitzen:

  • • Bedeutet, die Sitzposition möglichst häufig zwischen der vorderen, mittleren (aufrechten) und hinteren Sitzhaltung zu wechseln.
  • • Natürliche Be- und Entlastung der Muskulatur & Bandscheiben
  • • Sorgt für ausreichende Durchblutung der Muskulatur
  • • Beugt Fehlbelastung der Muskulatur und Verspannungen vor.
  •  

Anforderung dafür an den Bürostuhl

  • • Rückenlehne muss verstellbar und in verschiedenen Stellungen verriegelbar sein.
  • • Lehne sollte entriegelbar sein und den Rücken durch einen Federmechanismus abstützen
  • • Die Neigung der Sitzfläche sollte sich der Neigung der Rückenlehne anpassen.
  •  

Fußstütze
Perfekt für kleinere Personen, muss jedoch auch die Bewegung der Füße zulassen.

 

Augen

Bei Problemen mit dem Sehen (Augenbrennen, Verschwommen sehen) sollte ein Augenarzt aufgesucht werden. Die richtige Brille kann hier Abhilfe schaffen. Spezielle Bildschirmbrillen benötigen nur wenige Arbeiter und meist erst ab über 50 Jahren

 

Umgebungsbeleuchtung

Die richtige Umgebungsbeleuchtung ist nicht nur für unsere Augen, sondern auch für die Wahrnehmung und richtige Darstellung der Farben am Monitor wichtig. Voraussetzungen dafür:

  • • Keine kräftigen Farben tragen (am besten grau)
  • • Monitor sollte Matt & sauber sein
  • • Tageslicht durch Vorhänge, Rollos oder mobile Wände „ausschalten“
  • • Einen dunklen Raum mit neutralem Licht wählen. 5000k Kelvin, bzw. Normlicht (D50) verwenden.
  • • Graue Wände

Hochwertige Monitore sind wichtig, da diese den größten Farbraum haben. Das ist wichtig, da der Druck generell einen höheren Farbraum als der Monitor hat. Heute werden vor allem TFT-Monitore (Flachbildschirme) eingesetzt. Diese sind besonders leuchtstark, flimmerfrei, haben hohe Auflösungen und benötigen wenig Strom & Platz. Die Farbdarstellung hängt jedoch vom Betrachtungswinkel und der Helligkeit ab.

Kalibrierung 

Ein Monitor verändert im Laufe der Zeit seine Farbdarstellung, deshalb muss er ab und zu neu Kalibriert werden.

Dafür müssen die Voraussetzungen des Bildschirmarbeitsplatzes erfüllt sein und der Monitor sollte bereits eine Stunde laufen. Bei der Kalibrierung werden die Farbeinstellungen auf die Standardwerte eingestellt, sowie der Weißpunkt und der Gammawert bestimmt.

 

Werte zur Kalibrierung:

  • • Farbtemperatur: 5000 – 6000k Kelvin
  • • Monitorgamma: 1.8 – 2.2 (L-Star)
  • • Leuchtdichte des Monitorweißpunkts: 160 für weiß; 0,8 für schwarz (Kandela 160)
  • • Kontrastverhältnis: 200:1 (weiß 200x heller als schwarz)

Die richtige Kalibrierung ist beispielsweise wichtig für den Softproof, bei dem man die Farbechtheit und Farberscheinung der (Druck-)Daten am Monitor überprüft.

Bewertung: 
0
Bisher keine Bewertung

Computerschnittstellen

Computerschnittstellen

Schnittstellen (I/O- Schnittstellen) sind Anschlussmöglichkeiten externer Geräte auf der Hauptplatine.

Die Aufgaben sind eine Datenübertragung zwischen einzelnen peripheren Geräten und der Zentraleinheit zu ermöglichen, auf formale Richtigkeit der Daten wird ebenfalls geprüft.

Eine Schnittstelle wird durch folgende Charakteristiken definiert:

  • Busbreite (Anzahl der Leitungen über die Binärzahlen übertragen werden)

  • Busgeschwindigkeit (Geschwindigkeit des Datenflusses je Sekunde)

  • Busprotokoll (Codierung der Binärdaten)

Unterschieden wird zwischen seriellen und parallelen Schnittstellen.

Parallele Schnittstelle
8 Datenbit werden gleichzeitig mithilfe von acht prallelen Leitungen übertragen (Bsp.: Drucker).

Serielle Schnittstelle
Datenbit werden zeitlich nacheinander über eine einzige Leitung übertragen (Bsp.: Modem u. Maus).

heute spielen nur noch serielle Schnittstellen eine Rolle.

Auflistung der gängigsten Schnittstellen

RS 232 C o. V.24 (Maus und Modem)

Ist der Schnittstellenstandard mit 25- oder 9-poligen Verbindungen zur seriellen Übertragung und
bietet eine Anschlussmöglichkeit für Maus, Nullmodem-Kabel und Modem.

Centronics (Drucker, Scanner, Brenner u.a)
Prallele Schnittstelle (für 1 Gerät bis 2MBit/s) welche größtenteils für den Anschluss von Druckern benötigt wird.

PS2

Bevor sich USB als Allzweckschnittstelle durchsetzte, wurden Mäuse oder Tastaturen auch über PS2-Anschlüsse mit dem PC verbunden.
 

USB 1.x (“Universal Serial Bus” - Plug&Play-Anschluss)
Preiswerter, langsamer und serieller BUS mit bis zu 12 MitB/s und Anschlussmöglichkeiten für bis zu 127 Geräten.

USB 2.x
Bietet eine Schnittstelle für zahlreiche Geräte wie z.B. Tastatur, Lautsprecher, Drucker, ext. Laufwerke, etc.Gegenüber des langsamen USB1 verfügt man über 480 MBit/s und eine max. Anzahl von 127 Geräten, Abwärtskompatibilität ist gegeben.

USB 3.x
Die Datenrate wurde von 0,48 GBit/s (USB2) auf 4,8 GBit/s erhöht, wobei die Anzahl der anzuschließenden Geräte bei 127 geblieben ist.
Eine Master-/Slave-Architektur kommt zum Einsatz, d.h. dass der sogenannte Master-Controller steuert die Slaves (Endgeräte).
Die bisherige, regelmäßige Abfrage ob neue Geräte angeschlossen wurden, wurde mit einer Methode ausgetauscht, in der die Schnittstelle erst bei Signalen des Endgerätes anspringt (Reduzierung des Stromverbrauchs).

SCSI-1 (“Small Computer System Interface” - parallel, 5MB/s, 8 Geräte) 1986
Eine leistungsfähige Schnittstelle zwischen Gerät und  Bussystem mit relativ schneller Übertragungsrate, welche besonders für die Arbeit mit mehreren Peripheriegeräten geeignet ist(plattformunabhängig).

Chronologische Weiterentwicklung:

SCSI-2 (parallel, 10MBit/s, 8 Geräte) 1989
Ultra-SCSI (parallel, 20MBit/s - 40MB/s, 8 Geräte) 1992
SCSI-3 (Alternative Transfertechnik Apples FireWire-Standard und Fibre Channel hinzugrfügt) 1993
Ultra-2 SCSI (40MB/s - 80MBit/s) 1997
SCSI-160 (160 MBit/s) 1999
SCSI-320 (320 MBit/s - letzte Schnittstelle dieser Art, da hierfür keine weiteren Geräte gebaut wurden) 2002
SCA(16 Geräte, hat SCSI abgelöst) 1999

Firewire (Plug&Play-Anschluss)
Serieller Bus mit digitaler Schnittstelle mit bis zu 400MB/s für max. 63 Geräte.
Die patentierte Schnittstelle von Apple wird hauptsächlich in der Ton-/ und Videotechnik und bei beispielsweise DVD-Brennern und Festplatten eingesetzt.

Thunderbolt (bis zu 10 Gbit/s)
Schnittstelle zwischen Computern, Monitoren, Peripheriegeräten und Unterhaltungselektronik, die von Apple und Intel entwickelt wurden. Wegen der extrem hohen Datenübertragungsrate eine Schnittstelle mit Zukunft die USB3 die Stirn bieten soll..

Ethernet

Ethernet ist ein Datenübertragungsstandard für lokale Netzwerke und Internetzugang zwischen Netzwerkrouter und PC.  Anfänglich gab es Übertragungsraten von 10 Mbit/s, die von Fast Ethernet mit 100 Mbit/s abgelöst wurden(Gigabit Ethernet mit 10 000 MBit/s möglich).

 

DVI (“Digital Visual Interface”)

Ist eine elektronische Schnittstelle zur Übertragung von Videodaten. Im Computer-Bereich entwickelte sich DVI zu einem Standard für den Anschluss vonTFT-Monitoren an die Grafikkarte eines Computers.

HDMI (“High Definition Multimedia Interface“)
Eine ab Mitte 2003 entwickelte Schnittstelle für die volldigitale Übertragung von Audio- und Video-Daten in der Unterhaltungselektronik (+ moderne Grafikkarten) welche DVI abgelöst hat.
Datenübertragungsrate liegt versionsabhängig bei 3,96 GBit/s - 8,16 GBit/s und ab HDMI 2.0 bei 14,4 GBit/s.

IrDA (“Infrared Data Association”)
Die Infrarotschnittstelle spezifiziert Standards für die optische drahtlose Punkt-zu-Punkt Datenübertragung mittels infrarotem Licht (850 – 900 nm) auf max. 1m Entfernung.

Bluetooth
Ein Kurzstrecken-Funkstandard der kabellos eine Kommunikation mit verschiedenen Geräten ermöglicht (Bsp.: Tastatur und Maus).

Serial-ATA
Ermöglicht den Anschluss der Festplatte im PC

PCI (“Peripheral Component Interconnect”)
Ermöglicht den Anschluss für Steckkarten im PC

PCI-E
Nachfolger von PCI, ermöglicht den Anschluss von modernen Grafikkarten mit 3D-Beschleunigung und ist aktueller Standard.

Audioverbindung (Klinke)
Für die analoge Datenübertragung im Audiobereich wird bis heute diese Schnittstelle an der Soundkarte genutzt (Bsp.: Lautsprecher, Mikrofon).

 

QUELLE: ABC der Mediengestaltung, Wikipedia und https://www.lmz-bw.de/medienbildung/medienpraxis/computer-handy-tablet/computerschnittstellen.html

Weiterführende Links:
http://webmagazin.de/mobile/gaengigsten-schnittstellen-mobile-geraete-177636

 

Bewertung: 
2
Durchschnitt: 2 (1 Stimme)

Externe Schnittstellen

Verschiedene Schnittstellen

USB verschiedenster Versionen ob nu 2.0 oder 3.0 oder sonst was

PS/2 alter Anschlüsse für Mäuse und Tastaturen

COM1 Serielle Schnittstelle (für Hardware)

VGA Grafikkarten Schnittstelle (Bildschirmanschluss)

LPT1 Parallele Schnittstelle (Druckeranschluss)

Game- /Midiport

- Kopfhörer (Speaker) und Mikrofon (Mic) Anschluss

Bei vor allem Mobilen Geräten gibt es noch Mini- oder Micro-USB anschlüsse. (Kann man nicht wirklich unter Version zusmamenfassen deshalb erwähne ich das nochmal.)

Eine sehr alte Schnittstelle ist noch Firewire, was den Vorteil hat, dass es insgesamt schneller ist als USB. Hat sich aber nie durchgesetzt.

Dann gibt es noch Schnittstellen für Externe Datenträger wie SD-Karten, Micro SD-Karten usw.

Video

VGA - Video Graphics Array (analog)
     - Übertragung von aus dem digitalen umgewandelte analoge Bilddaten
    - Qualitätsverluste durch initiale AD-Wandlung
DVI - Digital Visual Interface (digital, analog möglich)
     - Vorstufe von HDMI
     - gleichzeitige analoge und digitale Übertragung
HDMI - High Definition Multimedia Interface (digital, analog möglich)
    - abwärtskompatible, volldigitale Datenübertragung
    - integriertes Kopierschutzkonzept (DRM)
DisplayPort (digital)
    - geringer Platzbedarf
    - ursprünglich nur einseitiger Datenfluss

Geschwindigkeiten von externen Schnittstellen

USB 1.0 : 12 Mbit/s (1,5 MByte/s)  -  seit 1996
USB 2.0 : 480 Mbit/s (60 MByte/s)  -  seit 2000
USB 3.0 : 4000 Mbit/s (500 MByte/s)  -  seit 2008

Firewire S400 : 400 Mbit/s (50 MByte/s)  -  seit 1995
Firewire S800 : 800 Mbit/s (100 MByte/s)  -   seit 2003
Firewire S3200 : 3200 Mbit/s (400 MByte/s)  -  seit 2008

Thunderbolt : 10 Gbit/s (1,25 GByte/s)  -  seit 2011
Thunderbolt 2 : 20 Gbit/s (2,5 GByte/s)  -  seit 2013

Dies sind Brutto Angaben. Die Netto Geschwindigkeit der Schnittstellen ist von den verwendeten Protokollen und Modi abhängig, die den Datenpaketen einen gewissen Overhead hinzufügen, sowie von Parametern wie Dämpfung u.ä..

Vor der Entwicklung von USB 3.0/3.1 war FireWire die bevorzugte Methode zur Datenübertragung von Audio- und Videomaterial. Im privaten Gebrauch hat sich FireWire nicht durchgesetzt. Auf professioneller Ebene war es jedoch die bevorzugte Schnittstelle. Thunderbolt wird seit 2011 in Apple Rechner integriert und ist seit 2012 auch für Windows Systeme verfügbar. In Zukunft wird sich zeigen, ob Thunderbolt oder USB FireWire den Rang als bevorzugte Shnittstelle ablaufen werden. Im privaten Gebrauch wird es vermutlich wieder auf USB hinauslaufen.

Netzwerkarten und Geschwindigkeiten

Bluetooth : 700 Kbit/s

Ethernet : 10 Mbit/s
Fast-Ethernet : 100 Mbit/s
Gigabit-Ethernet : 1000 Mbit/s
(Anschluss über RJ45-Stecker)

WLAN - IEEE 802.11 : 2 Mbit/s
WLAN - IEEE 802.11h : 54 Mbit/s
WLAN - IEEE 802.11n: 600 Mbit/s

Die schnellste Verbindung ist zwar bisher LWL (Lichtwellenleiter), wird hier aber denke ich nicht von belangen sein, da es weniger in der Medienproduktion zum Einsatz kommt, als in der Netzwerktechnik. Es gibt dort etliche Übertragungsarten und Anschlüsse und sprengt denke ich deutlich den Rahmen der Prüfung. Grob zu wissen, welche Übertragungsarten es auf LAN- und WLAN-Basis gibt und wie schnell diese sind, ist denke ich nicht verkehrt.

Weiterführende Links:

http://www.elektronik-kompendium.de/sites/com/0310281.htm

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Hardwareschnittstellen

Die Hardwareschnittstellen dienen zur Übertragung zwischen dem Mikrocomputer und den externen Geräten. Heute haben sie einen geringen Stromverbrauch, längere Verbindungsleitungen und höhere Datenraten.

 

USB (eine universelle Schnittstelle)
Für USB wurden verschiedene Geräteklassen definiert. Das hat den Vorteil, dass das Betriebssystem die Geräte die über diese Schnittstelle laufen, erkennt, ohne dass ein Treiber installiert werden muss.

Hier werden generische Treiber verwendet (herstellerunabhängige).

USB hat die Möglichkeit Endgeräte mit Strom zu versorgen und sie sind "Hot-Plug-&-Play"-fähig (sie können bei laufendem PC angeschlossen oder entfernt werden.

Weitere Schnittstellen sind:

FireWire (überwiegend in der BIld-und Videobearbeitung zum Einsatz)

(e)SATA - External SATA (Festplatten oder Brenner können hier angeschlossen werden)

Steckplätze -Slots (Um einen Desktop-PC flexibel und erweiterbar zu machen, werden PCIe-Steckplätze zur Verfügung gestellt)

RAM (Speicherbänke die über die Steckplätze eingesteckt werden können)

Sockel - Socket (Steckplatz für den Mikroprozessor)

Chipsatz (ist für die Steuerung des Datenflusses auf der Hauptplatine zuständig. Er besteht aus der North- und Southbridge. Die Southbridge steuert den Datenfluss zu den verschiedenen Controllern der Schnitstellen und ermöglicht somit die Kommunikation mit der "Außenwelt" (Tastatur, Maus, Festplatte usw.).

 

Für weitere Info´s könnt ihr auch hier gucken: http://www.elektronik-kompendium.de/sites/com/0310281.htm

 

Zum PDF-Anhang: Quellen sind das Kompendium und Internet.

Bewertung: 
0
Bisher keine Bewertung

Video-Schnittstellen

VGA (D-Sub)

VGA (Video Graphic Array) ist der analoge
Standardanschluss, der sich auch heute noch an vielen Rechnern und Beamern befindet.

unterstützt keine Audioübertragung
Maximale Auflösung: 2.048 x 1.536 bei 60Hz

DVI

Der digitale Nachfolger von VGA heißt DVI (Digital Visual Interface). DVI überträgt die Daten ohne Qualitätsverlust an den Monitor oder Beamer und liefert eine bessere Bildqualität als VGA. Um eine Kompatibilität zu VGA-Monitoren zu erzielen, gibt es DVI auch in einer Variante, die sowohl ein digitales als auch ein analoge Videosignal zur Verfügung stellt (DVD-I). Um ein VGA Kabel anschließen zu können, benötigen Sie einen Adapter.

Im Normalfall wird über DVI kein Audio übertragen
Einige Hersteller von DVB-Receivern (z. B. Dream Multimedia) und Grafikkarten (AMD Radeon HD) übertragen neben hochaufgelösten digitalen Videodaten auch digitale Audiodaten über die DVI-Buchse.

Arten von DVI Schnittstellen:

DVI-I (Integrated)

DVI-I-Kabel können digitale und analoge Signale übertragen

DVI-I Single Link (18+5 Kontakte)
Maximale Auflösung: 1920 x 1200 bei 60 Hz

DVI-I Dual Link (24+5 Kontakte)
Maximale Auflösung: 2560 × 1600 bei 60 Hz

DVI-D (Digital)

DVI-D-Kabel können nur digitale Signale
übertragen

DVI-D Single Link (18+1 Kontakte)
Maximale Auflösung: 1920 × 1200 bei 60 Hz

DVI-D Dual Link (24+1 Kontakte)
Maximale Auflösung: 2560 × 1600 bei 60 Hz
oder 1920 × 1080 bei 144 Hz

Bei DVI-D-Kabeln mit nur 12 + 1 Pins werden keine DDC-Daten übertragen, so dass das Betriebssystem den Bildschirm nicht mehr automatisch erkennen kann.

DVI-A (Analog)

DVI-A Kabel (12+5 Kontakte) können nur analoge Signale übertragen, sie werden in der Praxis nur bei DVI zu VGA Adaptern eingesetzt.

HDMI

HDMI (High Definition Multimedia Interface) ist eine digitale Schnittstelle für Video- und Audiosignale und kommt deshalb vorwiegend im Bereich der Unterhaltungselektronik zum Einsatz. Ein Unterschied zu DVI ist neben der zusätzlichen Übertragung des Tons, dass mit HDMI ein Kopierschutz (HDCP) möglich ist.

Audioübertragung möglich
Maximale Auflösung (ab HDMI 2.1):
10.328 x 7.760 (10K)

Displayport

DisplayPort, kurz DP, ist eine Schnittstelle zur Übertragung von Audio- und Videosignalen zwischen Computer und Bildschirm. DisplayPort soll die Anschlüsse VGA und DVI ablösen. Im Gegensatz zum HDMI Stecker ist hier eine mechanische Verriegelung vorgesehen. Ursprünglich wurde die Displayport entworfen, um den Umstieg auf digitale Schnittstellen für eine bessere Bildqualität zu beschleunigen.

Audioübertragung möglich
Maximale Auflösung: 5.120 x 2.880 (5K)

AnhangGröße
PDF icon Videoschnittstellen.pdf447.37 KB
Bewertung: 
0
Bisher keine Bewertung

Computersicherheit

Hier ein Handout, dass auch schon von unseren Lehrern korrigiert worden ist und somit alles wichtige beinhaltet.

AnhangGröße
PDF icon <p>Computersicherheit.pdf</p> 1.52 MB
Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Energieoptionen

Einstellbare Energieoptionen sind:

(Ergänzung bitte)

1. Energiesparplan

2. Festplatte ausschalten nach...

3. Desktophintergrundeinstllungen (z.B. Diashow)

4. Drahtlosadaptereinstellungen

5. Energiesparen (z.B. Deaktivieren nach...., Hybriden Standbymodus)

6. USB-Einstellungen

7. Netzschalter und Zuklappen

8. Prozessorenenergieverwaltung

9. Bildschrim verdunkeln, abschalten; Helligkeit, ....)

10. Multimediaeinstellungen

11. Internet Explorer

12. Akku

 

Diese Einstellungen können jeweils in Netz- oder Akkubetrieb verändert werden (optimiert werden)

Weiterführende Links:

http://www.greencomputingportal.de/artikel/referenz-windows-7-energieoptionen-erklart/
http://www.edv-lehrgang.de/energieoptionen-strom-sparen-mit-energiesparmodus/
http://www.oeko-fair.de/clever-konsumieren/wohnen-arbeiten/oeko-fair-im-buero/computer-fax-und-co/energieeffiziente-geraete-erkennen/energieeffiziente...

Bewertung: 
0
Bisher keine Bewertung

Glasfaserkabel (LWL)

• teuerste Kabel, umfangreiche Verlegung
• große Datenübertragungsraten
• nicht anfällig gegen elektromagn. Störungen
• Abhörsicherheit
• Blitzschutz

Anwendungsgebiete:

• Verbindung von Leistungskomponenten in einer strukturierten Verkabelung

Aufbau:
• Innenleiter aus Quarz oder Glas, der mit verschiedenen Schichten ummantelt ist
• äußere Schichten dienen der mechanischen Stabilität
• Auf beiden Seiten befindet sich eine Sende- und Empfangseinheit, die die elektrischen
Signale in Lichtimpulse umsetzt und umgekehrt (mittels Leucht- oder Laserdiode und Photodioden)

Dispersion: Strahlenüberlagerung durch unterschiedliche Strahlenlaufzeiten (je nach
Einfallswinkel entstehen unterschiedliche Laufzeiten)

Tags: 
Bewertung: 
0
Bisher keine Bewertung

Kameraeinstellungen – Spiegelreflexkamera

I. Spiegelreflexkamera

Das Bild wird durch einen Umlenkspiegel auf die Mattscheibe der Kamera reflektiert. Das Bild sieht man entweder direkt durch den Lichtschacht oder durch ein Sucher-Okular über ein Pentaprisma. Größter Marktanteil sind die einäugigen Kameras. Zweiäugige haben ein extra Objektiv zum betrachten.

Das Motiv wird über den Sucher anvisiert, nach dem Auslösen schließt sich die Blende, Spiegel klappt hoch. Der Verschluss öffnet sich und der Film wird belichtet, danach schließt sich der Verschluss und der Spiegel klappt nach unten, Blick durch den Sucher wieder frei.

I.1. Funktionsweise einer Digitalen Spiegelreflexkamera

Sind alle Kameraeinstellungen (Schärfe, Belichtungszeit und Blende) vom Benutzer eingestellt und der Auslöser gedrückt geht es in der Kamera wie folgt weiter

Optische Projektion durch das Objektiv auf den Bildsensor

 

  •     Optische Filterung durch Tiefpass-, Infrarot- und Farbfilter (meist im Bildsensor integriert)
  •     Wandlung der Lichtintensitäten in analoge elektrische Signale in diskreten Stufen (Diskretisierung)
  •     Digitalisierung der Signale durch Analog-Digital-Wandlung (Quantisierung)
  •     Bildverarbeitung der Bilddatei:
            Umrechnung von Signalen in Helligkeiten
            Farbrekonstruktion
            Rauschunterdrückung
            Entfernen bekannter korrigierbarer Fehler des Bildaufnahmesystems (defekte Pixel,
            Übersprechen, Nachschärfen, Randlichtabfall, Verzeichnung, chromatische Aberration)
  •     Komprimierung der Bilddatei
  •     Speicherung der Bilddatei.

(Quelle: Wikipedia)

II. Kameraeinstellungen

II.1. Blende
Vorrichtung zum abhalten von Licht. Sitz im Objektiv zwischen den Linsen. Besteht aus mehreren Lamellen die eine mehr oder weniger kreisrunden Öffnung bilden ->Irisblende.
Je kleiner die Blendenöffnung, desto größer die Blendenzahl. Blendenzahl gibt an wie oft der Blendenöffnungsdurchmesser in die Brennweite des Objektivs passt. -> Internat.

Blendenreihe:
1; 1,4; 2; 2,8; 4; 5,6; 8: 11; 16; 22; 32; 45 .... Immer mal Wurzel 2.
Abstand zwischen zwei entspricht einer Blendenstufe. -> Blende 4 lässt doppelt soviel Licht rein wie Blende 5,6. 

Aufgabe der Blende:
reguliert die Beleuchtungsstärke in der Film/Sensorebene
Beeinflusst die Schärfentiefe
Beeinflusst je nach Objektiv die Abbildungsqualität (Bewegungsunschärfe bzw. Unschärfe durch Abbildungsfehler

II.2. Belichtung
Die Lichtmenge wird von Blende zu Blende verdoppelt, wenn immer gleich viel Licht einwirken soll.
Die Belichtungszeit ist die Intensität mal Zeit.
Große Blende = kleine Blendenzahl= kurze Belichtungszeit
Bei einer Änderung der Blende muss die Belichtungszeit angepasst werden.
Für die exakte Dauer der auf dem Film/Sensor einwirkende Lichtmenge sorgt der Verschluss.

II.2.1 Kameraverschlüsse
Hat die Aufgebe/Funktion die Dauer des Lichteinfalls auf den Film/Sensor zu begrenzen. Je länger der Verschluss offen ist, desto mehr Licht gelangt auf den Film/Sensor.

Internat. genormte Verschlusszeitreihe: 30, 15,8 ,4 2 ,1, 1/2, 174, 1/8, 1/15, 1/30, 1/60, 1/125, 1/250, 1/500, 1/1000, 1/4000, 1/8000.

Von einer zur nächsten Verschlusszeit ist es eine Zeitstufe. Bei 16 sek fällt doppelt so lange licht wie bei 8sek. Eine kurze Verschlusszeit mindert die Verwacklungsgefahr bei Aufnahme aus der Hand, mit einer langen Verschluss-/Belichtungszeit lassen sich bewusst Bewegungen durch Bewegungsunschärfen festhalten.

Einstellung „B“ :
Beliebig lange Belichtungszeit. Belichtungszeit aus der Hand ohne verwackeln liegt bei 1/30s bis zu 1/1000s.

1/ Brennweite in mm = Belichtungszeit in s ohne verwackeln

Sehr schnell bewegende Objekte muss eine kurze Belichtungszeit gewählt werden und ggf. die Kamera mit gezogen werden (Hintergrund wird verwischt, Objekt scharf).

Einstellung „S“:
Shutter Speed Priority (Verschlusszeiten Vorwahl Priorität) Man wählt die verschlusszeit vor, zb wegen freihandaufnahmen oder Darstellen von Bewegungen und die Kamera bestimmt den passenden Blenden wert.

Einstellung „A“:
( = Aperture Priority / Av- Einstellung / Aperture Value )Bei der Verwendung des A- Modus wird an der Kamera eine feste Blendeneinstellung gewählt ( Aperture Priority = Blendenpriorität ) und die Automatik wählt die zur korrekten Belichtung notwendige Belichtungszeit. Diese Einstellung wird auch Zeitautomatik genannt. Der Vorteil besteht darin, dass man die Schärfentiefe besser beeinflussen kann.

III. Blitz
III.1. Blitz auf den zweiten Verschlussvorhang:
Bei langsamer Verschlusszeit, Blitz wird unmittelbar vor dem Schließen des Verschlusses ausgelöst.
-> Bewegungsspur hinter dem Motiv

III.2. Stroboskopblitz:
Rasche Folge von Blitze. Der Verschluss bleibt während der Blitze geöffnet.
-> mehrere Bilder eines Ablaufes in einer Fotografie.

III.3.Verschiedene Aufnahmetechniken
Verwischung/Wischer: Objekt aufgrund zu langer Verschlusszeit verwischt dargestellt.
Mitziehen der Kamera (1/30 oder 1/60): Objekt scharf, Hintergrund verwischt.
Zeitreihe(Bildserie): Bildfolge von Bewegungsabläufen
Stroboskopblitz: Bewegung wird durch pulsierenden Blitz in einzelne Phasen zerlegt
Zoom-Aufnahme: Verwischung vom Objekt weg durch Ein-/Auszoomen
Blitzsynchronisation: Auf den zweiten Verschluss, leichtes Verwischen des Objekts

IV. Objektive
Normalobjektiv: 45-55° -> entspricht etwa Blickwinkel des Menschlichen Auges. Brennweite etwa Formatdiagonale

Großer Blickwinkel und großer Betrachtungsabstand = Weitwinkeleffekt, kleinere objekte. kleiner abstand, größere objekte als normal.

Normalbrennweite= Negativdiagonale.

Jedes Objektiv, dass bei gleichen Filmformat eine kürzere Brennweite hat, wird es zum Weitwinkelobjektiv und mit längerer Brennweite zum Teleobjektiv. Maßgebend für den Bildeindruck ist das Verhältnis zwischen Brennweite und Aufnahmeformat. Schärfentiefebereich ist umso kleiner, je länger die Objetktivbrennweite ist.

V. Schärfentiefe
Bereich der Schärfenausdehnung einer Aufnahme. Objektiv kann nur eine Ebene einwandfrei scharf wiedergeben, davor und dahinter wird unscharf abgebildet (Zerstreuungskreis). Der Objektpunkt auf dem das Objektiv wird entsprechend dem Auflösungsvermögen des Objektiv und Film/Sensor scharf abgebildet, der Objektivpunkt liegt dann auf der Schärfeebene. Punkte vor oder dahinter werden mehr und mehr als Scheibchen abgebildet.  Mit Verringerung des Blendendurchmessers verkleinert sich gleichmäßig der Zerstreuungs-Durchmesser. Punkte ausserhalb der Schärfeebene werden zunehmend als kleine Zerstreungsscheibchen abgebildet, sie erreichen irgendwann das Stadium bei dem sie als Punkt gelten können und werden „scharf“ abgebildet. Die Schärfentiefe nimmt beim Abblenden zu. Die Schärfentiefe ist von Brennweite und Entfernung abhängig.

V. Blooming:
Belichtungsproblem in der digitalen Fotografie. Überstrahlen sehr hellen Bildstellen, Scharfzeichnungsverlust in hellen Bereichen und unscharfe Lichthöfe an der Grenze von hell zu dunkel. Trotz richtiger Belichtung werden einzelne Sensorelemente überbelichtet, z.B. stark reflektierende oder aktive Lichtquellen. In den überbelichteten Sensorteile werden zu viele Elektronen freigesetzt die in benachbarte Elemente „überlaufen“. Tritt vor allem bei CCD Flächensensor auf.

VI. Weißabgleich
Lichtquellen haben verschieden starke farbige Strahlungsanteile. Der Kamerasensor analysiert das Licht objektiv auf seine Rot- Blau- und Grünanteile. I  Glühlampen licht variieren  die RGB Werte stark und das Bild bekommt einen gelb-rot stich.

Automatischer Weißabgleich in Kameras, funktioniert bei hellen unbunten FFlächen gut
Manuell durch Farbtemperatur Schätzung oder Messung
Kalibrierung durch fotografieren eines weißen Gegenstandes
    

Weiterführende Links

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Netzwerke

Peer to Peer

  • keinen festen Server
  • zur Vernetzung kleinerer Anlagen

Client-Server-Netz

  • hat einen oder mehrere feste Server
  • zur Vernetzung komplexer Rechnernetze mit mehreren 100 PCs

Topologien

  • Bus Netz
  • nutzt Koaxialkabel
  • linear Netzwerk mit Terminatoren am Ende
  • Leitungslänge ist begrenzt
  • Anschluss weiterer Stationen nur durch Unterbrechung des Netzes
  • billig

Ring-Netz

  • Server nicht unbedingt notwendig (Peer to Peer)
  • keine Längenbeschränkung
  • Erweiterung nur durch Unterbrechung des Rings
  • Ausfall eines Rechners legt Netz lahm, wenn keine Überbrückungskabel vorhanden sind

Stern-Netz

  • keine Datenkollision (Jamming)
  • Erweiterung ohne Unterbrechung
  • am teuersten
  • Twisted Pair Kabel braucht es
  • läuft mit HUB
  • kann peer to peer aber auch mit Server sein

Kabelverbindungen

Koaxialkabel

  • Kupferkabel
  • bis zu 10 mbit/s
  • für Ethernet-Netze

Twisted Pair

  • Am meisten genutzt
  • 2 verdrillte Kupferleitungen, deshalb weniger Störfelder
  • Im Sternen-Netz vorzufinden
  • UTP=Unshild = ohne Abschirmung ca 64 kbit/s
  • STP=Shild = mit Abschirmung 10-100 mbit/s

Glasfaserkabel

  • 1 dünne Glasfaser umhüllt vom Glasmantel
  • Abhösicher
  • ca 100 mbit/s bis 1 Gbit/s
  • zu teuer deshalb meist für Backbone-Netze genutzt

Ethernet

  • häufigste Netzwerkarchitektur
  • 1-10 mbit/s
  • Fast Ethernet 100mbit/s
  • arbeitet mit CSMA/CD Zugriffsverfahren (Carrier Multiple Access Collison Detect)
  • Carrier Sense = Abhören des Netzes zum Senden und Empfangen
  • Multiple Access = Rechner sendet Daten, wenn Netz frei ist, sonst nach Wartezeit
  • Senden zwei Rechner gleichzeitig kommt es zur Datenkollison (Jamming) und dann setzt die Collision Detection ein. Das merkt die Störung und meldet es an alle Rechner. Dann wird erneut gesendet, wenn freie
  • Leitung.

Token Passing

  • Token Ring Netze haben eine Übertragugsrate von 4 bis 16 mbit/s
  • Token Passing sendet im Netz Signale. Einmal Frei Toen und belegt-Token
  • wenn der rechner dann was senden will, wandelt er das Frei-Token in belegt-Token um und hängt daran seine Daten, die er dann sendet. Nach dem Erhalt wird eine Bestätigung wieder zum Sender geschickt und das Token passing weiß das es die Daten aus dem Netz nehmen kann. Das belegt-Token wird wieder in ein Frei-Token gewandelt und kreist wieder im Netz.

Hub

  • Aktive Hubs enthalten Repeater und verstärken zusätzlich das Datensignal
  • zum Verbinden mehrerer Rechner, ohne das Netz unterbrochen wird

Router

  • verbindet auch unterschiedliche Netzwerke
  • somit auch Anbindung ans Internet möglich

Repeater

  • ist ein Zwischenverstärker

Bridge

  • ist im Repeater eingebaut
  • Netzwerkstruktur muss gleich sein, aber Betriebssystem kann unterschiedlich sein!

Gateway

  • Mischung aus Hub, Bridge, Router, Repeater
  • Kann alle Topologien und Systeme miteinander verbinden
Bewertung: 
0
Bisher keine Bewertung

Koaxialkabel

Anwendungsgebiete:

  • Netzwerkverkabelung (meistens Busnetz und ARCnet)
  • Funk- und Fernsehtechnik

Aufbau:

  • besteht zumeist aus Kupfer (=> Kupferkoaxialkabel)
  • besteht aus 3 Schichten
  1. Kabelkern: mittels elektrischer Impulse werden Daten gesendet oder empfangen
  2. Mantel: besteht aus nichtleitendem Material (Dielektrium)
  3. Drahtgeflecht: zur Abschirmung
  • außen ist eine Kunststoffschicht zum isolieren

Koaxialkabel lassen sich in Breitband- und Basisbandkabel unterteilen

Breitbandkabel: (Funk- und Fernsehtechnik)

  • erlauben gleichzeitige Übertragung mehrerer Datenkanäle (z.B. ARD, ZDF)
  • Den Kanälen werden bestimmte exklusive Bandbreiten zugeordnet
  • Sie teilen sich die Bandbreite und können daher gleichzeitig übertragen werden.

Basisbandkabel: (Ethernet)

  • es gibt nur einen Datenkanal
  • digitale Daten werden bidirektional über eine analoge Frequenz übertragen
  • Dazu ist die gesamte Bandbreite erforderlich.

Dämpfung:

  • Abschwächung der Signalstärke beim Durchlaufen des Kabels
  • Dicke Kabelkern-Querschnitte bewirken eine geringere Dämpfung und ermöglichen daher weitere Übertragungswege.
  • Thicknet: dickes Koaxkabel
  • Thinnet: dünnes Koaxkabel

 

Bewertung: 
0
Bisher keine Bewertung

Netzwerk-Begriffe

File-Server:

  • Mittelpunkt eines Netzwerkes
  • Verwaltet den gesamten Datenbestand und stellt alle Daten und Programme bereit

Host:

  • Hostrechner erfüllen Kommunikationsaufgaben
  • zentrale Dienstleistungsrechner

Gateway:(Einfahrt)

  • ermöglicht die Kommunikation zwischen Rechnern, die in unterschiedlichen Datennetzen oder Datei-Diensten integriert sind (z.B. zwischen Compuserver bzw. BTX/T-Online und dem INTERNET)
  • Übersetzt unterschiedliche Netzwerkprotokolle
  • Verbindet LANs mit externen Netzwerkkonfigurationen oder WANs mit GANs

Repeater:

  • Gerät zur Signalverstärkung
  • wenn mit zunehmender Kabellänge die im Netzwerk gesendeten Daten zu schwach oder fehlerhaft den Empfänger erreichen.
  • Hauptsächlich bei Netzwerken der Bus-Topologie
  • Durch Repeater wird das Netzwerk in Segmente unterteilt

Bridge:

  • ermöglicht Netzwerkerweiterung (bezogen auf Kabellänge und Stationen-Anzahl)
  • Verbindung von LANs mit gleicher Netzwerktopologie möglich
  • Bridges erhöhen die Ausfall-Sicherheit des Netzwerkes

Router:

  • Entscheidet, welchen Weg die Daten nehmen
  • können Netzwerke auch unterschiedlicher Topologien miteinander verbinden
  • Unterstützt mehrere Protokolle (Multiprotokoll-Router)

Brouter:

  • Bridge-/Router-Kombination

Hub:

  • Knotenpunkt von Leitungen in einem sternförmig angelegten Netzwerk

SCSI:

  • Small Computer System Interface 10 base 2
  • Durchlaufstärke (10 Mbit/s) – Entfernung von den Geräten (200 m)
Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Netzwerkkabel

Übertragungsmedien

Koaxialkabel
Max. Übertragungsrate: 10 Mbps
Es gibt Thicknet Durchmesser: 1cm, Kabellänge: bis 500m
oder Thinnet Durchmesser. 0,5cm, max. Länge: 185m, leicht zu verlegen, billig

Twisted-Pair-Kabel
Besteht in der einfachsten Form aus zwei isolierten Adern, die verdrillt sind.
Übertragungsrate. Bis 100Mbps
Es gibt das Kabel geschirmt oder ungeschirmt.

Glasfaserkabel
Besteht aus dünnen Glaszylindern, dem Kern oder Core, der von einer Glasschicht umgeben ist. Die Signale werden nur in eine Richtung geschickt.
Hohe Übertragungsrate, gute Sicherheit, Kabelkosten sind ok.
Nachteile: teuere Gerätetechnik

Bewertung: 
0
Bisher keine Bewertung

Netzwerkprotokolle

MAC-Adresse

  • festgelegte Adresse, an die Hardware gebunden

  • kann nicht verändert werden

  • ermöglicht die grundlegenste Kommunikation zwischen Geräten innerhalb des LAN ohne Router

IP - Internet Protokoll

IP-Adressen werden lokal vom Router vergeben (über DHCP oder manuell vom Admin).

Im Internet wird dem Internetanschluss vom Internet-Service-Provider (ISP) eine IP-Adresse vergeben. Der Router ist dabei die “Brücke” zwischen der vom ISP vergebenen IP-Adresse und den lokalen Adressen des Netzwerks.

 

Jedes Gerät (Client) erhält eine Adresse, damit es innerhalb eines Netzwerks identifiziert und angesprochen werden kann.

Aufbau

Max. 32 Bit (4 Blöcke á 8 Bit)

172.16.x.x → Netz-ID, sozusagen die “Vorwahl” des Netzes

x.x.36.125 → Host-ID, Adresse der Clients

 

Die mögliche Anzahl der Clients ist begrenzt, je nachdem wie viele Blöcke der IP-Adresse Netz-ID sind und wie viele veränderbare Host-ID. Dies erkennt man über die Subnetzmaske.

Subnetzmaske

255.255.0.0 → Eine 255 zeigt an, dass es sich um die Netz-ID handelt

255.255.0.0 → 0 signalisiert den Bereich der Host-ID

Begrenzung / mögliche Anzahl der Clients

Ein Block der IP-Adresse kann maximal 8 Bit (0-255) haben. Die möglichen Clients sind also begrenzt. Zusätzlich verboten für Clients sind die Adressen .0 (IP-Adresse des Netzes) und .255 (sog. Broadcast-ID, über diese können alle Clients gleichzeitig angesprochen werden). Es bleiben also 254 mögliche Adressen pro Block. In unserem Beispiel 2 Blöcke der Host-ID

→ 16 Bit = 2^16 = 65.536 mögliche Adressen.

Weitere Protokolle und deren Nutzen

http / https

Hypertext transfer protocol, dient der Übertragung von HTML (Hypertext Markup Language). Der Zusatz “s” (https) steht für “secure” und bedeutet, dass die Verbindung zwischen Client und Server verschlüsselt ist.

ftp

File transfer protocol, dient der Übertragung von Dateien auf Server (bspw. um eine Website hochzuladen oder große Daten zu übertragen). Kann sowohl über den Browser als auch über spezielle FTP-Programme verwendet werden.

Bewertung: 
0
Bisher keine Bewertung

Twisted-Pair-Kabel

Twisted Pair

Anwendungsgebiete:

  • Telefon- und Computernetze

Aufbau:

  • verdrillte isolierte Kupferleitungen
  • meist mit Kunststoffhülle ummantelt
  • Mehrere verdrillte Kabelpaare erhöhen die Datenübertragung und Flexibilität der Netzwerkarchitektur
  • Verdrillung verbessert die elektrische Leitereigenschaft
  • Um den Übersprech-Effekt (z.B. im Telefon) zu verringern gibt es Kabel mit zusätzlichen Abschirmungsfolien.

UTP (Unshielded Twisted Pair):

  • Kabel ohne jegliche Abschirmung
  • maximale Kabellänge: 100 m
  • Einsatzgebiet: Ethernet mit Twisted-Pair

STP (Shielded Twisted Pair)

  • besitzen Abschirmung für jede Ader, jedes Adernpaar und zusätzlich einen Gesamtschirm
  • Anwendung: strukturierte Verkabelung, Token-Ring
Tags: 
Bewertung: 
0
Bisher keine Bewertung

Server

Zentraler Rechner in einem Netzwerk, der den Arbeitsstationen/clients Daten, Speicher und Ressourcen zur Verfügung stellt. Auf dem Server ist das Netzwerk-Betriebssystem installiert, und vom Server wird das Netzwerk verwaltet. Im www sind Server Knotenpunkte des Netzes.

Ein Server kann aus einem Rechner mit zugehörigem Betriebssystem und einem Dienstprogramm bestehen.
Es gibt verschiedene Server-Klassen:

  1. File-Server: Stellt seinen clients Dateien und Platz auf dem Dateisystem bereit. Zusätzlich übernimmt er die Sicherung der Benutzerdateien.
  2. Applications-Server: ermöglicht dem Anwender den Zugriff auf ein oder mehrere Anwendungsprogramme.
  3. Datenbank-Server: Auf ihm läuft eine große Datenbank. Die Aufgabe des Servers ist die Verwaltung und Organisation der Daten, die schnelle Suche, das Einfügen und das Sortieren von Datensätzen.
  4. Internet-Server: stellt Internet- und Intranet-Dienste bereit. Typische Dienste umfassen das WorldWideWeb, den DomainName-Service, sowie e-mail...
  5. Media-Server: stellen Multimedia-Daten (Audio-, Videoclips) in Echtzeit und höchster Dienstqualität zur Verfügung.
Bewertung: 
0
Bisher keine Bewertung

Geräte kalibrieren

Digitalkamera

Zur Profilierung einer Digitalkamera braucht man neben der Color-Managementsoftware ein spezielles Testchart. Auf dem Testchart befinden sich verschiedene Farben mit unterschiedlichen Helligkeitswerten bzw. Sättigungswerten. Die Oberfläche sollte halbmatt sein, damit Refelxionen vermieden werden können.
Da die Beleuchtung naturgemäss in der fotografischen Aufnahem eine große Rolle spielt, werden verschiedene Berleuchtungsitutaion eingestellt, dementsprehend also Profile für verschiedene Licharten und Einsatzzwecke.
Der korrekte Weißabgleich ist die Grundvorraussetzung für die Erstellung eines guten Kameraprofils.

Scanner
Um ein Scannerprofil zu erzeugen, wird eine Testvorlage (Testchart IT8-Vorlage) gescannt.  Alle Korrekturfunktionen des Scanners müssen ausgestellt sein, damit die „rohen“ Daten erfasst werden können.
Testvorlagen nach ISO 12641 haben 228 einheitliche genormte und 36 vom Hersteller definierte Farbfelder.
Das Profilerzeugungsprogramm setzt die CIELAB oder CIEXYZ Farbwerte der Testvorlage in Beziehung zu den vom Scanner ermittelten RGB-Farbwerten und errechnet das ICC-Profil.

ICC-Profil speichern:
meistens bietet die Profilisierungsoftware das speichern des Profils direkt an, sollte es zu einem späteren Zeitpunkt gespeichert werden oder ein anderes Profil soll gespeichert werden:

Mac OS X: Festplatte>Users>Username>Library>ColorSync>Profiles
Windows 2000 und XP: Festplatte/WINNT/system32/spool/drivers/color

Bei Eingabergeräten wie dem Scanner oder der Digitalkamera kann man korrigierende Eingabe-Profile auf zwei Arten einsetzen:

Scannt oder fotografiert man ein Bild, so können die im Eingabe Profil stehenden
Korrekturwerte gleich ins Bild eingerechnet werden. (z.B: Tiff-Datei mit eingebetten Profil)
Die andere Möglichkeit besteht darin die erfassten Bilddaten zunächst unkorrigiert zu lassen und den Bilddaten das Profil nur „anzuhängen“. Das ermöglicht es später unterschiedliche Profile auf die Bilddaten anzuwenden.z.B. um flexibler auf auf Farbabweichungen zu reagieren.

Monitor
Der Monitor ist im Workflow die visuelle Schnittstelle zwischen dem Gestalter und den Farben des Bild, der Grafik. Deshalb ist es unabdingbar, dass nicht nur die Eingabegeräte und Ausgabegeräte profiliert
werden, sondern auch die Ausgabe auf dem Monitor.

Leider entstehen die ersten Fehler beim Monitor schon bei der Produktion des Geräts, denn die
Qualität der verwendeten Bauteile beeinflusst ebenso die Farbwiedergabe, wie das Betriebssystem, das
Zusammenspiel von Monitor und Grafikkarte, die Einstellungen des Benutzers, und das Alter des Geräts.

Es gibt zwei Arten der Profilierung:

Visuelle Profilierung: Der Benutzer erstellt z.B unter Mac OSX mit dem Monitorkalibrierungs-Assistenten ein Monitorprofil, die Einstellungen erfolgen durch die numerische Eingabe der Farbtemperatur und des
Monitorgammas sowie nach der visuellen Beurteilung.
Das Profil entspricht dann natürlich NICHT ganz der Objektivität eines Messgerätes.

Messtechnische Profilierung:
Es wird eine Reihe von Farbfelder auf dem Monitor angezeigt, die dann mit einem Colorimeter oder
Spektralfotometer eingemessen werden. Über die Profilierungsoftware werden die gemessenen Daten mit den Soll-Werten der Farbfelder verglichen.
Der Soll-Ist-Vergleich gibt Auskunft darüber, wie viel Farbe der Monitor anzeigen kann und wie genau.
Die Information aus dem Soll-Ist-Vergleich werden nun in einem ICC-Monitor-Profil zusammengefasst.
Dieses ICC-Profil wird dann im Betriebssystem als Standart-Profil für den Monitor eingetragen. Jedes mal wenn eine Anwendung ein Bild an den Monitor überträgt, wird die Anzeige dieses Bildes unter Verwendung der im ICC-Profil gespeichterten Infos korrigiert.

Grundregeln der Monitorkalibrierung/profilierung

- Der Monitor soll wenigstenseine halbe Stunde in Betrieb sein.
- Kontrast und Helligkeit müssen auf die Basiswerte eingestellt sein.
- Die Monitorwerte dürfen nach der Messung und anschließender Profilierung nicht mehr verändert
  werden.
- Bildschirmschoner und Energiesparmodus müssen deaktiviert sein.

Bei Tintenstrahldrucker und Laserdruckern wird ein Testchart ausgedruckt und anschließend vermessen. Das aus den Messdaten generierte Ausgabe-Profil korrigiert die Farbabweichungen. Jedes Ausgabegerät hat untrschiedliche Abweichungen und benötigt immer sein individuelles Korrrektur-Profil. Die Bilddatei wird allerdings nicht verändert.

Quellen: Kompedium der Mediengestaltung, Informationen verbreiten (Schulbuch)
und besonders zu empfehlen wegen der guten Erklärungen : http://www.cleverprinting.de/ratgeber2009.html

Bewertung: 
0
Bisher keine Bewertung

Farbe messen

Weiterführende Links:

http://www.fwlook.de/konzeption-und-gestaltung/farbbeurteilung-fur-die-abschlussprufung/

http://www.idd.tu-darmstadt.de/media/fachgebiet_idd/studium_und_lehre/vorlesungen_4/praktische_farbmessung/ss2011_2/prfm_08_farbmessgerte_070611_v2.pdf

 

Aufbau eines Spektralfotometer zur Farbmessung

Grundsätzlich ist der Aufbau von Farbmessgeräten dem Sehen und Empfinden des menschlichen Auges nachempfunden.

Vorgang beim Menschen:

  1. Farbe wird von einer Lichtquelle (Strahlung) beleuchtet
  2. Ein Teil der Strahlung wird absorbiert, der Rest reflektiert
  3. Reflektiertes Licht reizt Zapfen im Auge (rote, grüne und blaue Farbrezeptoren) 
  4. Diese Erregung löst über den Sehnerv im Gehirn die Farbempfindung aus

Vorgang beim Messgerät:

  1. Farbe wird von einer Lichtquelle (Strahlung) beleuchtet
  2. Ein Teil der Strahlung wird absorbiert, der Rest reflektiert
  3. Reflektiertes Licht gelangt durch die Optik auf den Sensor
  4. Der Sensor misst für jede Farbe das empfangene Licht und leitet die Werte an einen Rechner weiter
  5. Im Rechner werden sie nach Funktionen (ähnliche Bewertungskriterien wie Zapfen im Auge) gewichtet
  6. Als Ergebnis erhält man die Normfarbwerte X,Y,Z welche in Koordinaten der Farbräume umgerechnet werden

Berechnung des CIE LAB - Farbabstands (^ soll in der Formel Delta heißen)

Farbabstand = ^E*² = ^L*² + ^a*² +  ^b*²

Dabei gilt:

  • ^L*² = ^L (des Ist-Wert) - ^L (des Soll-Wert) --> L=Helligkeit --> 0=absolut Schwarz; 100=absolut Weiß
  • ^a*² = ^a (des Ist-Wert) - ^a (des Soll-Wert) --> -a = grün ; +a = rot
  • ^b*² = ^b (des Ist-Wert) - ^b (des Soll-Wert) --> -b = blau ; +b = gelb

Quelle: http://www.heidelberg.com/www/binaries/bin/files/dotcom/de/prinect/expert_guide_color.pdf

Bewertung: 
0
Bisher keine Bewertung

ICC-Profile (kurz & knapp)

Der ICC-Standard (International Color Consortium) ist der Standard für ein geräteunabhängiges, aber auch programm- und plattformunabhängiges Farbmanagement. Geräte und ihre Farbräume werden über ICC-Farbprofile beschrieben und mit einem Color Management Modul (CMM) ineinander umgerechnet. Referenzfarbraum ist der geräteunabhängige Lab-Farbraum. Das ICC-Farbmanagement ist mit ColorSync (Mac OS) bzw. ICM (Windows) fester Bestandteil der Betriebssysteme.

Bewertung: 
0
Bisher keine Bewertung

Farbprofiltypen (ICC)

Allgemein

  • ICC = International Color Consortium
  • Lösen das Problem der Farbabstimmung zwischen Ein- und Ausgabegeräten
  • Farbprofile sind genormte Datentabellen in denen die Farbcharakteristik beschrieben ist
  • z.B. Kamera, Monitor, Drucker, Scanner
  • der geräteneutrale CIELAB-Farbraum dient als Referenz-Farbraum und macht Farbmanagement möglich
  • der zugewiesene Farbraum eines Bildes sollte beim Öffen verwendet werden, kann aber in den eigenen Arbeitsfarbraum konvertiert werden
  • es ändert sich der RGB-Wert aber der Farbeindruck bleibt erhalten
  • die erzeugten ICC-Profile werden den Bilddaten beigefügt bzw. mit diesen verrechnet
  • Ziel: Farbgetreue Wiedergabe unabhängig vom Ausgabegerät

Vorteile

  • beibehalten des optimalen Arbeitsfarbraums
  • bilden Grundlage für farbverbindliche Reproduktion

Nachteil

  • bei der Konvertierung können verluste entstehen

Farbräume

LAB-Farbraum

  • geräteunabhängig, gleichabständig
  • er schließt alle Farben ein, die das menschliche Auge wahrnehmen kann
  • enthalten sind die Farben des RGB- und des CMYK-Farbraumes
  • Farbe ist durch Farbort mit den Koordinaten {L*, a*, b*} definiert
  • die Werte a* und b* geben Buntton und Buntheit zugleich an (rechtwinklige Anordnung)
  • Komplementärfarben stehen sich gegenüber
  • in der Mitte ist der Anteil der  Mischung gleich groß -> grau

CIE-Lab-Farbraum

  • Optimierung des Lab-Farbraums (auch geräteunabhängig)
  • orientiert sich an den physiologischen Eigenschaften der menschlichen Wahrnehmung und nicht an physikalischen Messgrößen ( Farbmetrik )
  • enthält alle potentiellen geräteabhängigen Farbspektren
  • ermöglicht verlustfreie Konvertierung

sRGB-Farbraum

  • kleiner als der Farbraum moderner Drucker o. Monitore
  • nur bedingt für Print-Workflow geeignet

Adobe RGB

  • guter großer Farbraum

eciRGB v2

  • empfohlener Arbeitsfarbraum

Gamut-Mapping

  • Farbraumtransformation

 

Weiterführende Links
http://farbe.wisotop.de/ICC-Profile-Profiltypen.shtml
http://www.colormanagement.org/de/isoprofile.html
http://farbe.wisotop.de/ICC-Profile-Aufbau.shtml

AnhangGröße
Image icon <p>LAB_Farbraum.jpg</p> 120.33 KB
Tags: 
Bewertung: 
0
Bisher keine Bewertung

Interne Speicher

VORSICHT! Alle Festplatten (auch die eingebauten) zu den externen Speichern.

Dies kommt daher, dass es bei der Erfindung des Computers (von-Neumann-Architektur) noch keine Festplatten gab sondern nur einen (eben internen) Speicher.

Quelle: Wikipedia

Daher hat man später alle Speicher, die nicht zum Arbeitsspeicher zählen als externe Speicher definiert. Alle Daten/Programme, die auf einem Rechner genutzt werden sollen, müssen aus externen Speicher erst in den internen Speicher geladen werden, um durch die CPU verarbeitet zu werden.

siehe http://de.wikipedia.org/wiki/Von-Neumann-Architektur

(sehr ausführliche Zusammenfassung von 2003)

Bewertung: 
0
Bisher keine Bewertung

Internetanschluss

Ein Internetzugang (auch Internetanschluss, Internetverbindung) bezeichnet im Allgemeinen die Nachrichtenverbindung eines Computers oder eines Netzwerkes mit dem Internet. (Quelle: Wikipedia)

Um Zugang zum Internet zu erhalten, benötigt man zunächst einen Host. Der Host ist permanent mit dem Internet verbunden und befindet sich meist im Rechenzentrum eines Providers wie z.B. 1&1, T-Online, Alice etc. Die Verbindung zum Host erfolgt über den nächstgelegenen Einwahlknoten und ist eine telefonische Verbindung. Hierbei unterscheidet man zwischen dem analogen und dem digitalen Zugang.

Analoger Zugang (mittels Telefonmodem)
Grafische Darstellung

  • nur noch selten genutzt
  • Übertragungsrate von max. 56,6 kbit/s, sofern Kopplung mit digitaler Vermittlungsstelle (ansonsten max. 40 kbit/s)
  • oft als Dial-Up-Verbindung bezeichnet, da wie beim Telefon ein Wählvorgang nötig ist
  • funktioniert nach dem Modulations-/Demodulationsprinzip, daher auch der Name

    MO(Modulation)DEM(Demodulation)
     

Digitaler Zugang mittels ISDN

  • ISDN steht für "Integrated Services Digital Network"
  • Eine Leitung kann für mehrere digitale Dienste gleichzeitig genutzt werden
  • Anschluss an das ISDN-Endgerät NTBA (=Netz-Terminator-Basisanschluss) erfolgt über einen ISDN-Adapter bzw. ISDN-Karte
  • höhere Kosten als beim analogen Anschluss
  • Übertragungsrate von max. 64 kbit/s pro Kanal (Kanalbündelung möglich, dann 128 kbit/s)

Digitaler Zugang mittels DSL
Grafische Darstellung

  • DSL steht für "Digital Subscriber Line"
  • Übertragungsrate von derzeit max. 100 MBit/s
  • Man unterscheidet symmetrische DSL (SDSL) und asymmetrische DSL (ADSL)
  • SDSL: Datenraten für Up- und Downstream sind gleich – teuer!
  • ADSL: Niedrigere Datenrate für Upstream – übliche, weil kostengünstige Variante

Wichtige Begriffe
TAE = Telekommunkations-Anschluss-Einheit (Bild)
NTBA = Netz-Terminator-Basisanschluss (Bild)

 

Bewertung: 
0
Bisher keine Bewertung

JDF

JDF steht als Abkürzung für Job Definition Format und basiert auf XML. JDF ist ein umfassendes, hersteller-, programm- und plattformunabhängiges Job-Ticket-Format für den gesamten Workflow von der Druckvorstufe über Druck und Druckweiterverarbeitung bis zur Auslieferung.

Die Aufgabe eines JDF-Format als Teil der vernetzten Druckerei ist es alle Arbeitsschritte eines Druckauftrages in einem Format zusammeln und zu editieren (es ist wie eine Art Auftragstasche).

Dadurch wird der gesamte Workflow flexibel und die Arbeitsschritte transparent und nachvollzieh- und kontrollierbar. Sie beschreibt zugleich das Konzept zur Vernetzung von Systemkomponenten und zur Automatisierung von Produktionsprozessen, sowie ihrer Steuerung und Überwachung. Aber auch betriebswirtschaftliche und kaufmännische aufgaben, wie Kostenrechnung, Kalkulation oder Angebotserstellung können in ihr integriert werden.

Die JDF-Spezifikation wird von der internationalen Organisation CIP4 (International Cooperaraion for the Integration of Processes in Prepress, Press and Postpress) veröffentlicht und weiterentwickelt.

Weiterführende Links
CIP4 Konsortium
Kapitel JDF aus Kompendium der Mediengestaltung, 4. Ausgabe
http://jdf4you.org

 Die JDF-Job-Beschreibung besteht aus baumartig (hierarchisch) angeordneten Knoten.

- Produktknoten beschreiben End- und Teilprodukte wie z.B. Buch, Buchdecke oder Schutzumschlag.

- Prozessgruppenknoten fassen Einzelprozesse zu Gruppen zusammen.

- Prozessknoten beschreiben die Einzelprozesse wie z.B. Ausschießen, Druckplattenbebilderung, Druck oder Falzen. 

Die Verbindungen von aufeinanderfolgenden Prozessen werden durch Ressourcen repräsentiert. Ressource ist der Oberbegriff für alle Outputs von Prozessen, die als Inputs in andere Prozesse einfließen, d.h jeder Prozess verbraucht/benötigt und erzeugt Ressourcen. Das können sowohl materielle Produkte wie Druckplatten, als auch Daten wie Überfüllung oder Prozessparameter wie Ausschießschema oder Farbzoneneinstellung sein.

Die Software zur Steuerung und Überwachung bezeichnet man als MIS (Management-Information-System), also nichts anderes als – Workflow-Management-Programme.

Zum JDF-Workflow gehören vier logische Komponenten:

- Agenten erzeugen und modifizieren JDF

- Controller empfangen JDF wählen die Geräte für bestimmte Aufgaben aus und reichen JDF an sie weiter, aber auch JDF erzeugen und modifizieren

- Geräte empfangen JJDF, interpretieren es und führen die Anweisungen entweder selbst aus oder bedienen die Maschinen. Auch Geräte können Agenten sein.

- Maschinen sind nicht JDF-fähige Hard- und Software, die von JDF Geräten gesteuert werden.

 

Controller und Geräte kommunizieren untereinander über das Job Messaging Format (JMF), es basiert ebenfalls auf XML. Mittels JMF meldet das Gerät z.B. seine Bereitschaft oder Beschäftigung an den Controller. Bei der Einrichtung eines neuen Gerätes fragt der Controller ab, welche Prozesse das gerät ausführen kann.

 

Zukunft JDF:
JDF sollte nicht mehr als Dokument gesehen werden sondern eher viel mehr als Schnittstellentechnologie. Die Annahme dass alle Informationen in ein XML Dokument geschrieben und verwaltet werden ist einfach nicht mehr zeitgemäß.
Nur ein Beispiel: Wenn man XML-Dateien zentral auf einem Server ablegt, wie sieht es mit DataMining, LiveBackup, Transaktionen, konkurrierende Zugriffe, Clustering, High Availability usw... aus?
All diese Funktionen werden sogar schon von Open Source Datenbanken (MySQL)unterstützt.

Deshalb sollten alle Daten in einer Datenbank gehalten werden und erst zur Laufzeit das JDF geschrieben werden das lediglich die Informationen enthält, welche für den Produktionsschritt notwendig sind.

Ein weiteres Problem von JDF ist, dass es sämtliche Workflow-Logik beinhaltet, welche die Komplexität nur unnötig aufbläht. Auf folgender Website findet man ganz interessante Infos dazu: http://jdf4you.org
 

 

Bewertung: 
0
Bisher keine Bewertung

Kabellose Netzwerke

Kabellose Netzwerke

 

Was versteht man unter Netzwerk?

- Zusammenschaltung mehrerer Rechner

- ermöglichen z.B. dass in Unternehmen alle Filialen mit der Zentrale verbunden sind und Daten direkt ausstauschbar sind

- wenn mehrere Computer miteinander verbunden sind, handelt es sich um ein Multiuser-System

 

Folgende Netzwerkarten gibt es:

 

LAN (Lokal Area Netzwerk)

- ist ein Rechnernetz, das sich über räumlich begrenzte Gebiete erstreckt z.B. ein Gebäude oder Werksgelände

- Netz-User können Mitteilungen austauschen und Programme, Datenbestände, sowie Funktionen der anderen 

  angeschlossenen Rechner oder auch die Geräte im Netz (z.B. Drucker) nutzen

 

PAN (Personal Area Netzwerk)

- Netze im Heimbereich

 

WAN (Wide Area Network)

- firmenübergreifendes Netzwerk, das von Betreibern wie der Telekom gebührenpflichtig angeboten wird

- neben einzelnen Filialen können innerhalb der gleichen Stadt auch internationale Niederlassungen von Groß-

  konzernen miteinander verbunden werden

 

GAN (Global Area Network)

- weltumspannendes Netzwerk z.B. das Internet

 

MAN (Metropolitain Area Network)

- auf Region/Stadt beschränkt, zwischen LAN und WAN

 

VPN (Virtuelles Privates Netzwerk)

- Verbindung virtueller einzelner Netze im Internet

- Leistungsstarke Zugriffsbeschränkungen stellen sicher, dass nur befugte Firmenangehörige darauf zugreifen 

 

Intranet (unternehmensinterne Datenkommunikation)

- Technik: verwendete Protokolle, Benutzeroberfläche, Downloadmöglichkeiten, E-Mailversand und -empfang

  (genau wie im Internet)

 

Quelle: ABC der Mediengestaltung

Bewertung: 
0
Bisher keine Bewertung

Kameraeinstellungen (Fotografie)

Blendeneinstellungen

Für den Nichtfotografierer ist es erst einmal verwirrend, was es mit Blende u.s.w auf sich hat und vor allem wann man wie an welcher Einstellung dreht.
Blende, Belichtungszeit und Empfindlichkeit von Film oder Sensor sind die drei Stellschrauben an einer Kamera, um eine ausgewogene Belichtung einzustellen. Ideal ist eine Belichtung, wenn es in hellen und dunklen Partien des Bildes genug Zeichnung (Details) gibt. 

Die Blende regelt die Lichtmenge, die auf den Film oder Sensor wirkt, die Belichtungszeit die Zeit, die das Licht auf Film oder Sensor einwirken kann und die Empfindlichkeit steht für die Fähigkeit von Film oder Sensor, mehr oder weniger gut auf Licht regieren zu können. In der Analogfotografie ist die Empfindlichkeit fest durch den verwendeten Film vorgegeben, während man die Empfindlichkeit bei Digitalkameras in Stufen einstellen kann (ISO-Werte). Hier wird dann einfach die Spannung, die im Sensor bei Lichteinfall auf die Zellen erzeugt wird, elektronisch verstärkt oder eben abgeschwächt.

Der meist in der Kamera eingebaute Belichtungsmesser vergleicht die gemessene Lichtmenge, die durch das Objektiv fällt, mit einem neutralen Grauwert (das ist ein mittlerer Helligkeitswert) und zeigt die Abweichung hierzu an. 
Würde nach der Belichtungsmessung  das Bild zu dunkel werden, kann man entweder die Blendenöffnung vergrößern (es fällt mehr Licht auf den Sensor), die Belichtungszeit verlängern oder aber die Empfindlichkeit heraufsetzen. Würde die Belichtungsmessung ein zu helles Bild signalisieren, kann man entweder die Blende schließen, die Belichtungszeit verkürzen oder aber die Empfindlichkeit herabsetzen.

Nur welche(n) Parameter verändert man denn nun?
Dazu muss man wissen, dass jeder der drei Parameter neben der Regelung der Belichtung eben auch weitere Wirkungen auf das Bild haben kann:

  • Die Blende hat Einfluss auf die Tiefenschärfe. Das ist der Schärfenbereich, der bei einem scharf eingestellten Motiv vor und hinter dem Motiv zusätzlich noch scharf abgebildet wird.
    Je größer die Blendenöffnung ist (also je mehr Licht si durchlässt), desto mehr nimmt die Schärfentiefe ab. Das kann man z.B. bei einer Porträtaufnahme nutzen, wenn nur das Gesicht schafr abgebildet, der Vor- und Hintergrund aber unscharf werden sollen.
  • Die Belichtungszeit darf bei Aufnahmen ohne Stativ nicht über 1/30 Sekunde gehen. bei zu langer Belichtungszeit nimmt bei analogen Aufnahmen as sog. "Korn", bei digitalen Aufnahmen das Bildrauschen extrem zu. Letzteres ist ein photoelektrischer Effekt des Sensors.
  • Bei hoher Empfindlichkeit steigt bei analogem Filf die Kornbildung und bei digitalen Kameras das Bildrauschen.

Man kann also die drei Parameter nicht so einfach willkürlich verdrehen, damit die Belichtungs stimmt, sondern man muss technische Randerscheinungen wie das Bildrauschen, aber auch die gewünschte Bildwirkung mit einbeziehen. Die Empfindlichkeit sollte dabei immer als letzte Einstellung verändert werden, da hier das Bildrauschen einfach schnell störend wird.

Beispiel1: Es soll ein fahrendes Auto fotografiert werden. Hierzu muss man eine kurze Belichtungszeit einstellen (damit das Auto scharf abgebildet wird)  und kann dann noch Blende und Empfindlichkeit nachregeln, falls der Belichtungsmesser eine Unterbelichtung anzeigen würde.

Beispiel2: Bei einer Porträtaufnahme sollte die Schärfentiefe möglichst klein bleiben, damit das Gesicht besser betont wird. Das bedeutet, dass die Blendenöffnung weit sein sollte. Somit fällt viel Licht auf Film oder Sensor, bei einer angezeigten Überbelichtung kann man dann die Belichtungszeit verkürzen, bis die Belichtung stimmt. Die Empfindlichkeit sollte man hier möglichst nicht erhöhen, um Rauschen zu vermeiden. 

Damit man Blende, Zeit und Empfindlichkeit einfach einstellen und die Parameter kombinieren kann, werden alle Einstellungen in Stufen geändert. Dabei gilt stets:
Eine Änderung eines Parameters um eine Stufe kann durch die Änderung eines anderen Parameters ebenfalls um genau eine Stufe kompensiert werden.

Beispiele: Eine Änderung der Blendeneinstellung um eine Stufe nach oben (hier würde dann weniger Licht durchgelassen), kann durch die Verlängerung der eingestellten Belichtungszeit um ebenfalls eine Stufe kompensiert werden. Eine Erhöhung der Empfindlichkeit um eine Stufe kann durch Verkürzung der Zeit oder durch Schließung der Blende um genau eine Stufe ausgeglichen werden.

Eine Änderung um eine Stufe bedeutet übrigens stets eine Verdopplung oder Halbierung der aktuellen Belichtungsseinstellung. Eine Blendenstufe nach unten bedeutet, dass doppelt so viel Licht durchgelassen wird wie auf der vorherigen Stufe. Bei der Belichtungszeit bedeutet eine Erhöhung um eine Stufe, dass das Licht doppelt so viel Zeit zur Verfügung hat, um auf Film oder Sensor einzuwirkungen. 
Auch die Änderung der Empfindlichkeit um eine Stufe macht Film oder Sensor doppelt, bzw. halb so empfindlich.

Die Stufen, um die man die Blende verstellen kann, sehen folgendermaßen aus:

Blendenwerte

Dabei lässt Blende 1 alles Licht hindurch, es muss also ein Objektiv mit einer riesigen Linse sein. (Deshalb sind diese Objektive sehr schwer und vor allem unglaublich teuer, weshalb es sie kaum gibt.) 
Hinter den Blendenstufen (siehe oben) steckt als Faktor die Wurzel von 2 = ungefähr 1,4. (genau: 1,414213562373095)
 Das ist der Faktor, mit dem sich eine Fläche verdoppeln lässt, Beispiel: 1 x 1 Meter = 1 qm1,4 x 1,4 Meter = 2 qm2 x 2 Meter = 4 qm2,8 x 2,8 = 8 qm4 x 4 Meter = 16 qmund so weiter  Bei Fragen zu dem Thema sollte man in den vergangenen Prüfungen häufig Blenden- und Zeitwerte ändern, damit eine größere oder geringere Schärfentiefe (früher sagte man Tiefenschärfe) erreicht wird. Kann man sich diese Blendenstufen nicht merken, kann man sie sich einfach ableiten aus 1 und 1,4 (siehe Pfeile in der Grafik oben). Die übernächste Blendenstufe ist immer ein doppelt so großer Wert. Nur von 5,6 auf Blende 11 wird einmal gerundet. Wie unterschiedliche Schärfentiefe aussehen kann, ist unter diesem Link gut sehen:Unten auf der Seite ist ein Foto mit Millimetereinteilungen zu sehen. Darüber sind verschiedene Blendenwerte eingetragen. Fahrt ihr darüber, sieht man deutlich, wie sich die Schärfentiefe ändert. Sollte man einmal eine Blendenzahl wie 3,5 lesen, dann ist das einfach nur die Blende zwischen 2,8 und 4.http://www.photozone.de/nikon_ff/499-nikkorafs200f2vrff?start=1 Die Belichtungszeiten haben in ganzen Werten folgende Größe:
Belichtungszeit 1 Sek. 1/2 | 1/4 | 1/8 | 1/15 | 1/30 | 1/60 | 1/125 | 1/250 | 1/500 | 1/1000 | 1/2000 …Auch Langzeitbelichtungen von mehreren Sekunden oder Minuten sind möglich, um z.B. bei Vollmond taghelle Aufnahmen zu erhalten.  Empfindlichkeit (in ISO) 100 | 200 | 400 | 800 | 1600 | 3200 | 6400 …
wobei 100 ISO wenig Empfindlichkeit entspricht, 200 mehr und so weiter …

 

Weiterführende Links:

http://blog.dawanda.com/2012/06/26/das-perfekte-foto-die-passenden-kameraeinstellungen-wahlen/

http://www.youtube.com/watch?v=T-s_OE06DpA

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Zusammenfassendes Handout

Heyhey, 
Unter dem folgendem Link und im Anhang findet ihr mein Handout zu dem Thema. Zum besseren Verständnis habe ich mir ein paar quietscheentchen im Studio zusammengesucht und fotografiert. Nicht wundern :o) Hoffe es ist informativ und trifft das Thema !?!

Würde mich über Rückmeldungen freuen =)

Der Link: 

https://dl-web.dropbox.com/get/SCHULE-FOTOGRAFIE.pdf?w=AAAHt-iQTS46QqT_Ng80tgDtw7JRgW69qT6Na9njMF06sw

Lg der Kai

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Kamerasensorgrößen

Bei der Prüfungsfrage wird es wohl nicht darum gehen, auswendig aufzulisten, welche Größen Sensoren verschiedener Kameras haben. 

Ich tippe eher darauf, dass es um die Bedeutung der Sensorgrößen fürs Fotografieren oder/und Filmen geht. 

 

Sensorgrößen allgemein: 

Es gibt zwei Arten, die Größe zu beschreiben: in Millimetern (z. B. 36 x 24 mm) oder in Anteilen von Inch (z. B. 1/1.8"). Letztere ist sehr umständlich und bezieht sich noch auf Fernsehkameras der 50er Jahre, die ursprünglich mit Elektronenröhren arbeiteten. 

 

Erstere Beschreibung

Das Maß aller Dinge in der Fotografie ist heute das Vollformat, früher Kleinbild genannt. Grundlage dafür ist der Film, den man in "normalen" Kameras verwendet hat: er ist 35 mm breit (deshalb 35mm-Film oder auch 35mm-Kamera). 

Da zu beiden Seiten des Films Platz für die Löcher der Perforation benötigt werden, bleiben dazwischen 24 mm für das eigentliche Bild. Der Film läuft quer durch die Kamera, somit entsprechen die 24 mm der Höhe des Bildes. Als Breite hat man 50% mehr festgelegt, wodurch ein Seiten-Längen-Verhältnis von 2 zu 3 entsteht: 36 mm. 

Vollformat (engl. full frame) oder Kleinbild also 24 x 36 mm. 

 

Da Sensoren in der Herstellung sehr teuer sind, werden zumeist kleinere Sensoren verwendet. Darüber hinaus lässt sich mit kleinen Sensoren natürlich auch eine kleinere Kamera bauen, in Handys sogar winzige. Das reduziert nicht nur die Kosten für den Sensor sondern auch für Objektive, da auch sie kleiner sind – siehe Cropfaktor weiter unten. 

 

http://commons.wikimedia.org/wiki/File:Sensorformate.svg

 

Zweite Beschreibung

Die kleinen Sensoren werden anders in ihrer Größe beschrieben – Beispiel: 1/1.8"

Dabei handelt es sich nicht um die tatsächliche Größe sondern die der ursprünglichen Röhren in Fernsehkameras. 

 

http://www.dpreview.com/glossary/camera-system/sensor-sizes

 

Diese Röhren waren rund, die Größenangabe beschreibt den Durchmesser. Davon konnten aber nur ungefähr 2/3 genutzt werden. Eine 1-Zoll Röhre hatte also tatsächlich eine Bilddiagonale von etwa 2/3 Zoll. 

Bei Sensoren wird die Länge der Diagonale damit beschrieben. 

Ein Sensor mit 1/1.8 Inch hat also nur ungefähr zwei Drittel von den angegebenen 1/1.8 Inch. 1/1.8 Inch sind ungefähr 0,56 Inch. Zwei Drittel davon sind 0,37 Inch. 0,37 * 25,4mm = 9,4 mm

Tatsächlich hat ein solcher Sensor eine Diagonale von 9mm. 

 

Da diese zweite Beschreibung ungenau ist, wird man in der Prüfung wahrscheinlich nicht danach gefragt?! 

 

Cropfaktor

Das Maß aller Dinge ist hier das Kleinbildformat, heute zumeist als Vollformat (engl. full frame) bezeichnet: 36 x 24mm. 

Alle kleineren Formate werden als Ausschnitte vom Vollformat betrachtet. To crop heißt im Englischen beschneiden (wie Schnittmarken = crop marks). Mit dem Cropfaktor wird beschrieben, um welchen Faktor der Sensor kleiner ist als ein Vollformatsensor. 

Dabei wird die Diagonale als Grundlage genommen. Die Diagonale lässt sich mit dem Satz des Pythagoras errechnen. 

Beispiel Vollformat: 36mm hoch 2 + 24mm hoch 2 = 1296 + 576 = 1872, davon die Wurzel = 43,27mm. So lang ist die Diagonale. 

Beispiel Crop-Format Nikon (23,7 x 15,6mm): 23,7 hoch 2 + 15,6 hoch 2 = 561,69 + 243,36 = 805,05, davon die Wurzel = 28,37mm So lang ist die Diagonale. 

 

Das Verhältnis zwischen Vollformat und dem Nikon-Crop Format entspricht also 43,27 / 28,37 = 1,53. Man rundet hier ab auf 1,5. 

 

Cropfaktor = Vergrößerungsfaktor bei Objektivbrennweiten

Je kleiner ein Sensor, desto kleiner braucht natürlich auch nur das passende Objektiv zu sein. 

Die Größe eines Objektivs wird über seine Brennweite beschrieben. Wer als Kind mit einer Lupe bei starkem Sonnenlicht schwarze Spuren in Holz gebrannt hat, weiß was unter Brennweite verstanden wird: Die Weite von der Linse bis dort, wo sich die Sonnenstrahlen treffen – und es kokelt beziehungsweise brennt. 

Je kleiner die Brennweite, desto kürzer der Abstand von Linse zu Brennpunkt, je länger desto weiter dieser Abstand. Abhängig ist das von der Dicke und Wölbung der Linse. 

 

Je kleiner die Brennweite eines Objektivs, desto größer ist der Winkel, den es darstellt – und desto kürzer ist auch seine Bauform. (Weitwinkel-Objektiv)

– Weitwinkelobjektive zeigen die Objekte klein, man bekommt viel auf das Foto. 

Je größer die Brennweite, desto kleiner ist der Winkel, den es darstellt – und desto länger ist es. (Tele-Objektiv; wird z. B. von Sportfotografen benutzt)

– Teleobjektive holen entfernte Dinge nah heran, man sieht nur einen kleinen Ausschnitt. 

 

Ein Standard-Objektiv bei Vollformat-Kameras ist das 50 mm Objektiv. Es liegt zwischen Weitwinkel und Teleobjektiv und bildet Dinge etwa so ab, wie wir sie sehen – weder verkleinert (Weitwinkel) noch vergrößert (Tele). 

 

Schraubt man ein 50mm-Objektiv auf eine Kamera mit einem kleineren Sensor, wird nur ein Ausschnitt aus dem Bild, den das Objektiv darstellen kann, von dem kleineren Sensor erfasst. Es ergibt sich eine scheinbare "Brennweitenverlängerung" um den Faktor um den der Sensor kleiner ist – also um den Cropfaktor. 

Beispiel Nikon: Cropfaktor = 1,5  Das 50mm-Objektiv wirkt wie ein 50x1,5 = 75mm-Objektiv an der größeren, an der Vollformat-Kamera. 

 

KB-Äquivalent (Kleinbild-Äquivalent) 

Im zuvor dargestellte Beispiel wirkt ein 50mm-Objektiv wie ein 75mm-Objektiv. So wird für die Crop-Kamera das Objektiv auch folgendermaßen beschrieben: Brennweite 50mm (KB-Äquivalent 75mm). Manchmal wird auch nur KB geschrieben: entspricht 75mm KB. 

 

Schärfentiefe

Je größer die Blende eines Objektivs offen ist, desto geringer ist die Schärfentiefe (der Bereich, der scharf abgebildet wird). Vor und hinter dem scharfen Bereich wird das Bild zunehmend unschärfer. Das ist z. B. in der Portraitfotografie gewünscht, damit ein möglichst unscharfer Hintergrund nicht vom eigentlichen Portrait ablenkt. 

Da kleine Objektive natürlich auch kleinere Blenden haben, erzeugen sie bei gleicher Blendeneinstellung (z. B. Blende 4) unterschiedlich große Schärfentiefe. Die Blende 4 eines Objektivs für eine Kamera mit kleinem Sensor (nehmen wir einen Cropfaktor von 1,5) entspricht etwa Blende 5,6 (eine Stufe weiter zu) bei einem Vollformat-Objektiv. Zusätzlich hat das kleine Objektiv bei gleichem Abbildungswinkel eine um den Cropfaktor kürzere Brennweite. 

 

Je kürzer die Brennweite, desto größer die Schärfentiefe! 

 

So ergibt sich, dass die Schärfentiefe bei Blende 4 = 4 x 1,5 x 1,5 im Vergleich zum Vollformat ist = Blende 9 (um gut 2 Stufen kleiner als Blende 4)

 

http://www.prophoto-online.de/digitalfotografie/Sensorgroesse-Schaerfentiefe-10001071

 

 

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Logoproduktion

Logoproduktion beschreibt die technische Aspekte bei der Logoherstellung:

I. Farben
Ein Logo sollte vom Designer in allen üblichen »Farbräumen« erstellt werden, da Logos auch auf allen Medien verwendet werden. Die Logodatei sollte in folgenden »Farben« angelegt sein: CMYK, Sonderfarben (Pantone, HKS, etc.), RGB und RAL (Farbsystem für Lackierungen, Folien, etc.) Neben den farbigen Versionen werden auch Schwarz/weiß-Varianten angelegt.

I.1. Sonderfarben vs. CMYK:

  • Die Farbpaletten der Hersteller wie Pantone oder HKS bieten auch Farben an, die im CMYK-Zusammendruck nicht so satt und leuchtend dargestellt werden können.
  • Pastell-, Neon- oder Metallicfarben sind im CMYK gar nicht darstellbar
  • Wenn ein Sonderfarben-Logo als CMYK gedruckt wird gibt es meist Farbabweichungen, auch bei der Verwendung in RGB und RAL kann es zu Abweichungen kommen
  • Nachteil von Sonderfarben sind die entstehenden Mehrkostenwerk

II. Pixel- / Vektorformat
Ein Logo sollte eigentlich immer auf Vektoren basieren und nicht auf Pixeln. Allein schon aus gestalterischer Sicht hat ein Pixelbild in einem Logo nichts zu suchen, denn Logos sind abstrakte und reduzierte Zeichen, keine Bilder. Der Vorteil der Vektoren liegt vor allem in der verlustfreien Skalierung, was bei Pixelbildern nicht möglich ist.

III. Schriften
Schriften sollten in Pfade/Kurven gewandelt werden, um eine möglichst hohe Produktionssicherheit zu schaffen. Das Mitschicken der Schriftdateien an die Druckerei wäre zwar zunächst eine Alternative, aber dies ist meistens aus lizenzrechtlichen Gründen nicht erlaubt. Zudem macht es nur bei verwendeten OpenType-Schriften Sinn, die auf allen Plattformen genutzt werden können.
 

IV. Verschiedene Größenvarianten
Da feine Elemente bei der Vergrößerung irgendwann proportional zu dick wirken können bzw. bei einer Verkleinerung des Logos diese drucktechnisch nur schwer reproduziert werden können, ist es sinnvoll für verscheidene Größenanwendungen auch verschiedene Varianten des Logos anzulegen. Für die verschiedenen Varianten werden dann z.B. die Linienstärken an die jeweilige Größe der späteren Verwendung angepasst.

Auch kann es sinnvoll sein spezielle Logo-Varianten zum Beispiel für das Besticken von Arbeitskleidung oder Siebdruck anzulegen. In diesen Varianten sind dann z.B. die Linienstärken, Rundungen, Farben oder ähnliches an die technischen Anforderungen (feiner Details können nicht gut reproduziert werden) angepasst.
 

V. Hinweise für die Druckproduktion
Schwarz sollte generell auf Überdruck gestellt werden.
 

Weiterführende Links
http://www.designguide.at/logodesign_druckprobleme.html

Bewertung: 
0
Bisher keine Bewertung

Logos und CD umsetzen (Medienproduktion)

Technische Umsetzbarkeit für alle Medien:

• keine zu dünnen Linien beim Logo, oder für verschiedene Größen unterschiedliche Logovarianten anbieten, so dass Strichstärken nicht nur einfach skaliert werden, sondern der Darstellungsgröße und Wirkung angepasst werden.

• Farbwelt nicht nur in CMYK, sondern auch in RGB; Sonderfarben (HKS, Pantone) oder RAL festlegen
 

Weiterführende Links

http://www.designguide.at/logodesign_technischer_hintergru.html

Bewertung: 
0
Bisher keine Bewertung

Medienneutrale Daten

Allgemein

Definition

Als medienneutral bezeichnet man Daten, die nicht für eine spezielle Ausgabebedingung vorbereitet sind, sondern als Grundlage für viele verschiedene Ausgabesituationen dienen können. Vorgehensweise wird auch als „Cross Media“ bezeichnet.

Ziel

Daten können im Internet sowie auch im verschiedenen Druckverfahren mit unterschiedlichen Bedruckstoffen ausgegeben werden.

• Mehrfachnutzung der Daten (Internet/Druck)

• Flexibilität bei der Wahl des Druckverfahrens

Lösung

• Fotos werden auch nach dem bearbeiten in RGB abgespeichert

Flexibilität bei der Wahl des Druckverfahrens

Anwendungsbereiche

• Bei den Farbbildern ist eine gute Konvertierung am wichtigsten

• CMYK-Bilder sind nur dann angesagt, wenn der Schwarzaufbau sehr wichtig ist

• Texte, Grafiken und Graustufenbilder sind nicht so kritisch und sollten wie bisher in Geräte-CMYK oder Graustufen angelegt und später nicht mehr konvertiert werden

Alte Arbeitsweise

Fotos wurden schon in Photoshop in CMYK umgewandelt

-> Nachteil: Druckverfahren, Bedruckstoff musste zu diesem

Zeitpunkt bekannt sein und eine Mehrfachnutzung (z.B. Anzeige in Zeitung, Katalog auf gestrichenem Papier, Siebdruck) der Daten war nur möglich wenn die Datei im RGB-Modus und dann jeweils in den verschiedenen CMYK ICC-Profilen abgespeichert wurde.

Vorgehensweise

• RGB-Bilder sollten in möglichst großem Farbraum erstellt sein. (ECI-RGB optimal, am besten kein sRGB.). Trotzdem sehen wie es gedruckt aussehen wird: Im Softproof in Photoshop/Indesign kann man dies simulieren. Außerdem kann man in Photoshop die Farbumfangswarnung anklicken, um zu sehen welche Farben in CMYK nicht umsetzbar sind.

• RGB-Bilder werden dann erst kurz vor dem Druck in den Ausgabefarbraum konvertiert

Die 3 Konzepte (Wann wird konvertiert?)

• Early Binding (am Anfang wir gleich in CMYK konvertiert): keine medienneutralen Daten! -> alte Arbeitsweise

• Intermediate Binding (bei der PDF-Erstellung wird in CMYK konvertiert)

• Late Binding (PDF ist noch in RGB, konvertiert wird erst von Druckerei im Ausgabeworkflow oder sogar erst im RIP des Belichters oder der Digitaldruckmaschine)

 

Vorteile

• große Flexibilität in Bezug auf die Wahl des Druckverfahrens und des Papiers

• Verschiebung der Verantwortung: Dadurch verschiebt sich natürlich die Verantwortung für die richtige Farbe vom Erzeuger der Druckvorlage zur Druckerei.

• Druckerei kann entscheiden welches Profil für den Auftrag am besten ist

• Eine unnötige Zerstörung von Daten (Farbumfang) wird vermieden

• alle Bilder eines Druckjobs werden mit den gleichen Einstellungen (z.B. Schwarzaufbau, Gesamtfarbauftrag) separiert, was dem Drucker die Arbeit wesentlich erleichtert.

• Speicherplatz wird eingespart (es müssen nicht die RGB und die CMYK Bilder gespeichert werden)

Nachteile

• Farbeinfluss des Erstellers geht weitestgehend verloren -> zur High-End-Bildbearbeitung eher weniger geeignet

• Nur zu empfehlen wenn bekannt ist, dass die Druckerei genau weiß was sie tut (Fachmänner sind dazu nötig)

• Für viele Anwender noch ungewohnt

• Es ist eine Umstellung/Umdenken beim Erzeuger wie auch in der Druckerei notwendig

 

Stichwort —  „Cross Media Publishing“

Seine Daten fehlerfrei  in einen strukturierten Datenbestand überführen, der Medienunabhängig, also sowohl für Print als auch Digital, ist.

Das Ziel bei der Verwendung Medienneutraler Daten ist:

Mit möglichst geringem Aufwand in einer einzigen Quelle vorliegende Inhalte mehrfach nutzen und in unterschiedlicher Zusammenstellung über verschiedenste Kanäle zum Kunden bringen.

 

Allgemeine technischen Anforderungen an medienneutrale Daten

-       Grundvoraussetzung: Fehlerfreier Datenbestand (dient als Quelldatenformat).

-       Plattformneutralität: die Daten müssen auf allen Computersystemen verwendbar sein.

-       Herstellerunabhängigkeit: Nicht an Hard- und Software eines bestimmten Herstellers gekoppelt

-       Sprachunabhängig: Ein Format, auf das man prinzipiell mit beliebigen Programmiersprachen zugreifen kann

-       Die Möglichkeit, Daten gemäß ihren spezifischen Inhalten und Strukturen automatisch auswerten zu können: Eine Überschrift ist als eine solche gekennzeichnet, ein Paragraph ist als Paragraph gekennzeichnet etc.

 

 

Strukturen statt Formatierungen

 

Die Struktur wohnt dem Dokument aus seinem Inhalt inne, während die Formatierung nichts Absolutes ist. Anders gesagt: Ein Dokument kann auf unterschiedlichster Weise formatiert werden, ohne das es seine Struktur verliert.

 

Schon immer war es die Aufgabe eines Schriftsetzers, die Struktur des Textes mit Hilfe von Typographie sichtbar zu machen — Dafür muss er sich mit der Struktur und dem Inhalt der Texte auseinandersetzen. Die Methode, die Struktur eines Textes in einer objektivierten und für den Rechner lesbaren Form im Dokument abzuspeichern, löst eine ganze Reihe von Problemen:

-       Der Test wird automatisiert weiterverarbeitet, unabhängig von der Typographie

-       Es entfällt die Notwendigkeit, das die Struktur immer wieder durch die  unterschiedlichsten Stellen (Lektorat, Redaktion, Gerstellung, technischer Betrieb) erschlossen werden muss

-       Daten sind nun durch intelligente Suchanfragen recherchierbar

-       Der Weg zu kostengünstiger Mehrfachnutzung ist frei

In einem Text lassen sich sehr viel mehr Informationen abspeichern als zur rein typographischen Umsetzung benötigt werden, z.B. Verwaltungsinformationen, die überhaupt nicht gedruckt werden sollen, aber für einen Verlag von großem Nutzen sein können. Bei einem Lexikon kann dies zum Beispiel der Autor sein, um die Autorenabrechnung nach Zeilen/Anschlägen vollautomatisch berechnen zu können.

 

 

XML als Format für medienneutrale Daten

Auf Basis der oben genannten Anforderungen und auf der Suche nach einem „Standard“ fand sich 1986 die SGML (Standard Generalized Markup Language). Sie ist eine Auszeichnungssprache, die alle auf der Welt befindlichen Texte beliebiger Sprache strukturieren kann. Da sich SGML für viele Anwender als zu komplex erwies, gilt seit 1998 XML als Standard für inhaltliche und strukturelle Kodierung medienneutraler Daten.

 

Verlagsprojekte und XML

Bei allen Vorteilen ist XML nicht für jedes Verlagsprojekt geeignet. Folgende vier Hauptgesichtspunkte sprechen für die Arbeit in medienneutralen Strukturen:

-       Die Mehrfachverwertung des Datenbestandes ist sehr wahrscheinlich: Das allein ist ein Grund, die mehrfache Datenpflege zu vermeiden und alle Korrekturen in einen zentralen, automatisch weiterverwertbaren Datenbestand einzutragen.

-       Es ist eine recherchierbare, elektronische Ausgabe des Datenbestandes geplant

-       Durch den Einsatz von CML lassen sich Zeit und Kosten in Redaktion und Herstellung sparen: Durch klare, immer wiederkehrende Abläufe lässt sich ein schlanker, überprüfbarer Workflow etablieren. Sinnvoll ist dies bei allen regelmäßig aktualisierten Werken wie bei Werken mit vielen Autoren und umfangreichen Redaktionen

-       Die inhaltliche und/oder administrative Arbeit wird durch den Einsatz von XML signifikant erleichtert:

Jeder Verlag, der XML verwendet, wird einen neuen Titel auf die oben genannten vier Punkte prüfen und anhand dessen entscheiden, ob der Titel konventionell (also z.B. mit einem DTP-Programm) oder auf Grundlage eines medienneutrale ausgezeichneten Datenbestandes produziert wird.

Der Weg zu XML

Mittlerweile gibt es diverse XML-Standards für die medienneutrale Kodierung von technischen Dokumentationen oder literarischen Texten. Dort, wo die Texte nicht in einen solchen Standard passe, kann man sich eine eigene XML-Struktur definieren und festlegen, wie die Daten zu verarbeiten sind.

Zuerst gilt es also zu bestimmen, ob die Inhalte die man hat, in einen schon bestehenden XML-Standard passen oder ob eine eigene Struktur geschaffen werden muss. Hierzu bedient man sich häufig externen Dienstleistern und Experten.

Der Übertrag der Daten kann auf drei Wegen geschehen: Erfassung in XML, Satz in XML, Konvertierung vorhandener Satzdaten in XML

Erfassung in XML

Für externe Autoren wird dies wohl die Ausnahme sein, da diese selten von ihrer gewohnten Arbeitsumgebung (Textverarbeitungsprogramm) abgebracht werden können. Man kann mit dem Einsatz geeigneter Software (XML-Editor, evtl. in Verbindung mit einem Redaktionssystem) die Arbeitsabläufe von vornherein optimierten. I.d.R. sollte ein solcher XML-Editor an die Erfordernisse des Bearbeiters angepasst werden. Diese Editoren haben ein ähnliches –Look and Feel- wie normale Textverarbeitungsprogramme.

Medienneutrale Farbräume

 

AnhangGröße
PDF icon Medienneutrale Farbräume.pdf107 KB
Bewertung: 
4
Durchschnitt: 4 (2 Stimmen)

Netzwerkgeschwindigkeit berechnen

Die Netzwerkgeschwindigkeit gibt auskunft darüber wie viele Daten pro Sekunde übertragen werden können. Sie wird in der Regel in MBit/s angegeben.

 

Beispielaufgabe:

Bitte jeweils die für die Datenübertragung erforderliche Zeit berechnen. Lösungen bitte ggf. in Minuten, Bruchteile in Sekunden angeben. Achtung: Achten Sie auf die Einheiten!

- Datenmenge 200 Mebibyte, durchschnittliche Übertragungsgeschwindigkeit 12 Megabit/s

Wir rechnen -->

200 MiB x 1024 KiB/MiB x 1024 Byte/KiB x 8 bit/Byte = 1.677.721.600 bit

1.677.721.600 bit : 1000 bit/Kbit = 16.777,216 Kbit

16.777,216 Kbit : 1000 Kbit/Mbit = 1.677,72 Mbit

1.677,72 Mbit : 12 Mbit/s = 139,81s : 60 = 2,33....     | 60 x 2 = 120 --> 139,81s - 120 = 19,81 s

                                             = 2 min 20 s

 

Umrechnung für die Einheiten:

: 8bit/Byte = Byte                                                   8bit = 1 Byte

: 1024Byte/KiB = KiB                                1024 Byte = 1KiB

: 1024KiB/MiB = MiB                                1024 KiB = 1 MiB

: 1024MiB/GiB = GiB                                1024 MiB = 1GiB

                                                                                                          

 

 

Bewertung: 
0
Bisher keine Bewertung

Netzwerkkonfiguration

Grundlagen der Netzwerktechnik

Ein Netzwerk ist die physikalische und logische Verbindung von Computersystemen.

Ein einfaches Netzwerk besteht aus zwei Computersystemen. Sie sind über ein Kabel miteinander verbunden und somit in der Lage ihre Ressourcen gemeinsam zu nutzen. Wie Daten, Speicher, Drucker, Faxgeräte, Scanner, Programme und Modems. Ein netzwerkfähiges Betriebssystem stellt den Benutzern auf der Anwendungsebene die Ressourcen zur Verfügung.

Die Datenübertragung kann grundsätzlich auf zwei Arten erfolgen. Entweder verbindungsorientiert oder verbindungslos.  Hierzu ein paar Erläuterungen zu Netzwerkarten:

 

  1. LAN (Local Area Network)

Die Ausdehnung dieser Gruppe an Datennetze ist einzig und allein auf ein Gebäude oder Firmengelände beschränkt - in der Regel beträgt damit das Netz etwa einen Kilometer an Reichweite.

 

  1. VPN (Virtual Private Network)

Ein VPN nutzt öffentliche Netzwerke (z.B. Internet) zum Übertragen privater (nicht öffentlicher) Daten. Bei der verschlüsselten Übertragung privater Daten in öffentlichen Netzen spricht man von Tunnel.

 

  1. WLAN (Wireless Local Area Network)

Kabelloses Netzwerk.

 

  1. MAN (Metropolitan Area Network)

MAN´s sind Datennetze die innerhalb von Städten liegen z.B. ein Verkehrsleitsystem.

 

  1. GAN (Global Area Network)

Weltumspannendes Netz

 

  1. Intranet/Internet

Heute unterscheidet man nicht mehr groß in WAN, GAN und LAN. Zur Bezeichnung von Netzen zu internen Kommunikation wird der Begriff Intranet vergeben. Sie kommunizieren über VPN-Tunnel - nicht autorisierte Nutzer haben keinen Zugang zu den Daten und Informationen.

Das Wort Internet wird heute als Überbegriff eines weltweiten Rechnerverbunden benutzt.

 

Vernetzungskonzepte

Zentralrechnerkonzept:

Zur Einwahl eines an einem Großcomputer genügt der Einsatz eines Terminals, bestehend aus Tastatur und Bildschirm, von denen aus eine interaktive Dialog mit dem Großrechner möglich ist. Die Bedeutung diesen Konzept hat abgenommen.

 

Peer-to-Peer-Konzept (P2P):

  • Kam mit der Entwicklung der PC´s (Peronal Computers)
  • Das Verbinden gleichwertiger Computer wird als Peer-to-Peer-Netz bezeichnet.
  • Kommen häufig im Privatbereich zum Einsatz
  • Für alle Betriebssysteme geeignet

 

Von "Peer-to-Peer" wird auch gesprochen, wenn Rechner über das Internet miteinander verbunden sind und einen gemeinsamen Dienst zur Verfügung zu stellen.

Das Prinzip besteht darin, dass jeder Rechner seine Dateien zum Download zur Verfügung stellt.

In einem Peer-to-Peer-Netzwerk ist jeder angeschlossene Computer zu den anderen gleichberechtigt. Jeder Computer stellt den anderen Computern seine Ressourcen zur Verfügung. Ein Peer-to-Peer-Netzwerk eignet sich für bis zu 10 Stationen. Bei mehr Stationen wird es schnell unübersichtlich. Diese Art von Netzwerk ist relativ schnell und kostengünstig aufgebaut. Die Teilnehmer sollten möglichst dicht beieinander stehen."

 

Client-Server-Konzept:

In diesem Rechnerverbund sind viele verschiedene Client-Rechner mit einem Server-Rechner verbunden. Das System dient der Aufgabenverteilung und ist in vielen Anwendungsbereichen zu finden. Es beruht auf mindestens zwei getrennten Softwareprogrammen mit unterschiedlicher Aufgabenverteilung.

Aufgabe dieses Konzepts ist zum einen die Datenverwaltung und zum Anderen die Benutzerverwaltung des Netzes. So können die Zugriffsmöglichkeiten auf Daten oder Programme für jeden Benutzer individuell gestaltet werden.

*Clients (Kunde/Auftraggeber)

Typische Funktionen eines Servers sind hierbei:

  • File-Server oder Datei-Server

Ein File- oder Datei-Server ist ein Computer, dessen typische Anwendung die zentrale Datenspeicherung ist. Server mit gemeinsam zu nutzbaren Daten, ggf. auch Programmen.

  • Print-Server

Server zum Ansteuern gemeinsamer Drucker, oft mit RIP (für Post-Script-Dateien)

  • Mail-Server

Selbsterklärend (zum verwalten von E-Mails)

  • Webserver

Server zum Bereitstellen von Inhalten für das World Wide Web

 

Netzwerktopologien:

*Topologie ist die Lehre der Lage und Anordnung geometrischer Gebilde im Raum

 

Bus-Topologie:

Diese Technologie spielt heute kaum noch eine Rolle. Bei einer Bus-Technologie werden alle Rechner, einschließlich des Servers, an eine zentrale Leitung - dem Bus - geschlossen.

 

Damit die Datensignale an den Enden nicht reflektieren, befinden sich dort Abschlusswiderstände (s.Abb.)

 

Pro

Contra

  • Einfache Installation
  • Begrenzte Leitungslänge
  • Geringer Verkabelungsaufwand
  • Schwierige Fehlersuche
  • Geringe Kosten
  • Häufige Datenkollision

-

  • Kompletter Netzausfall bei Unterbrechung des Busses

 Das ist mehr oder weniger eine Zusammenfassung aus dem Kompendium - da gibt es auch noch einige Grafiken -  lest doch da einfach noch ein bisschen weiter. Vermutlich sollte man auch wissen was ein Hub, Switch oder Bridge ist. Da die Aufgabenstellung tatsächlich sein könnte, dass man eine bestimmte Voraussetzung hat unter der man ein Netzwerk konfigurieren soll/muss. Allgemein kann man sagen das Bus-Topologien eher untypisch ist.Heute konfiguriert man mit einem Mix aus Stern und Baumstruktur, das wäre die Typologie der Neuzeit, Hubs und Bridges sind außerdem veraltet - also neigt man immer zu einem Switche - dieser hat den Vorteil mehrere Anfragen aufeinmal ab zu arbeiten. Hubs sind ergo "dumm". Beispiel:Ein Hub: Im Supermarkt ist nur eine Kasse offen, diese kann nur einen nach dem Anderen abarbeiten. Es bildet sich bei hohen Anfragen eine Schlange. Ein Switch: Im Supermarkt gehen mehrere Kassen auf - die Schlange verteilt sich auf die Offenen Kassen. Ein Router: Die Getränkemarktkasse macht auf - und schickt Leute die keine Getränke kaufen weg.  Ein Router adressiert und ist somit in der Lage zu sagen "Du darfst hier durch - du nicht" - Hubs und Switches sind nicht in der Lage dies zu entscheiden. Wer Anregungen hat - gerne anfügen    

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Netzwerktopologien

Netzwerktopologien:

BUS-TOPOLOGIE (Ethernet) / Reihennetzwerk
Gemeinsamer Bus, an den alle Netzknoten/Geräte verbunden sind (ein zentrales Kabel). Die Ausdehnung eines Bussystems kann durch den Einsatz von Routern der Bridges vergrößert werden. Nachteil eines Bussystem: bei einem Fehler (Kabelbruch) kann das ganze Netz neg. beeinflusst werden oder ausfallen. Fehlerquellensuche ist dann sehr aufwendig. Alle Daten werden über ein Kabel getragen.
Max. Länge: 900-2500m,

Vorteile:

  • einfache Installation
  • geringer Verkabelungsaufwand
  • geringe Kosten

Nachteile:

  • begrenzte Leistungsfähigkeit
  • schwierige Fehlersuche
  • häufige Datenkollision (nur 1 Kabel)
  • kompletter Netzausfall bei Unterbrechung

RING-TOPOLOGIE (Tokenring)
Die einzelnen Netzknoten werden durch einen Ring miteinander verbunden. Verkehr findet immer in einer Richtung statt. Zugriffsverfahren: TokenPassing (Token=Sendezeichen)
Max. Länge: Entfernung zum Rechner, 150m

Vorteile:

  • hohe Ausfallsicherheit (bei Doppelring)
  • keine Datenkollision
  • keine Beschränkung der Gesamtlänge

Nachteile:

  • hoher Verkabelungsaufwand
  • teure Komponenten
  • keine Kopplung von Telefon- und Rechnerdaten

STERN-TOPOLOGIE
Netzknoten/jede einzelne Station über ein eigenes Kabel mit einem zentralen Vermittler/Verteiler verbunden. Vorteil: einfache Planung, einfache Erweiterung des Netzes. Nachteil: mehr Installationsmaterial
Hardware = teuer. Max Segmentlänge: 100m

Vorteile:

  • keine Datenkollision (durch Switches)
  • Netzwerkerweiterung problemlos möglich
  • Kombination mit WLAN möglich
  • kostengünstige Komponenten

Nachteile:

  • Netzausfall bei Ausfall des Switches
  • aufwendige Verkabelung (wenn ohne WLAN)
  • begrenzte Leitungslänge

 

BAUM-TOPOLOGIE
In großen Netzen wäre es unsinnig, alle Computer an einen einzigen Sternpunkt anzuschließen. Fiele dieser aus, wäre das gesamte Netz lahmgelegt. Außerdem ist die Leitungslänge zwischen Computer und Switch begrenzt.
In großen Netzen bietet sich deshalb die Realisierung einer Baumstruktur an:
Die „Wurzel“ wird durch ein oder mehrere Haupt-Switches gebildet, an die, z. B. für jedes Stockwerk, Sub-Switches angeschlossen werden. Selbst wenn ein Haupt-Switch ausfällt, bleiben die Teilnetze weiterhin nutzbar.
Neben der Ausfallsicherheit ergibt sich der Vorteil, dass Sie die Netzwerkkomponenten an die zu erwartendeDatenmenge anpassen können. So kann die schnelle, aber teure Glasfaserverkabelung auf die Hauptäste beschränkt bleiben, während für die Teilnetze die günstige Kupfertechnologie zum Einsatz kommt.

 

Physikalische und logische Topologien

physikalische Topologien:

  • die vorher beschriebenen (hardwaremäßigen) Verbindungen von Rechnern

logische Topologien:

  • Administration des Netzes durch das Betriebssystem
  • über Zugriffsverfahren wird festgelegt, ob das Netz logisch als Bus betrieben wird und alle Rechner glerichzeitig senden dürfen, oder es kann auch ein Senderecht vergeben werden, so dass ein logischer Ring entsteht

Die pysikalische und die logische Topologie müssen nicht übereinstimmen z.B. ein pysikalisch sternförmiges Netz kann logisch als Ring genutzt werden, indem die Rechner nacheinander vom Betriebssystem ein Senderecht erhalten als ob sie tatsächlich im Ring verbunden wären.

IP-Adressen

Die Identifizierung der Rechner im Intranet oder Internet erfolgt über die IP-Adresse, die Netzwerkkartennummer oder den PC-Namen.

IPv4-Klassen

Besteht aus einer 32-Bit-Zahl, die sich in 4 x 8 Bit, also vier Byte, gliedert.

Klasse A:
10.0.0.0 - 10.255.255.255
Subnetzmaske: 255.0.0.0
Anzahl der Hosts: 16.777.214

Klasse B:
172.16.0.0 - 172.31.255.255
Subnetzmaske: 255.255.0.0
Anzahl der Hosts: 65.534

Klasse C:
192.168.0.0 - 192.168.0.255
Subnetzmaske: 255.255.0.0
Anzahl der Hosts: 254

IPv6

IPv4-Adressen werden langsam knapp. Deswegen arbeitet man an einem neuen Standard: IPv6. IPv6 besteht aus acht Blöcken mit je zwei Byte. Es werden hexadezimale Zahlen verwendet.
Beispiel: 0000:0000:0000:2135:A201:00FD:DCEF:125A
 

Bewertung: 
1.333335
Durchschnitt: 1.3 (3 Stimmen)

OCR-Programme

OCR-Software

OCR:
– Optical Character Recognition => optische Texterkennung
– Programme: Textbridge, OmniPage, Recognita
– OCR ist das automatische Erfassen und Einlesen eines Textes mit Hilfe eines Scanners

– mittlerweile kann man Texte mit geeigneter Hardeware- und Softwareausstattung erfassen, ohne
sie mühsam von Hand einzutippen
– mit Texterkennungssoftware und Scannern können sie problemlos in Zeichen umgewandelt werden
und sind somit schneller weiterverarbeitbar
– ein eingelesener Text, kann nach dem Erkennungs- und Übersetzungsvorgang durch das OCR-Programm
als Doku oder Textblock vorliegen und beliebig nachbearbeitet (editiert) werden
– heute werden hauptsächlich 2 Erkennungsmethoden unterschieden und eingesetzt:

– Rasterpunktverfahren (template matching = Mustererkennung)
– im Computerspeicher muss ein Musterzeichensatz vorliegen
– dort ist jedes Zeichen innerhalb einer Matrix als definierte „Punktwolke“ abgebildet
– diese Muster werden während des Erkennungsvorgangs wie Schablonen über jedes gescannte Zeichen gelegt und bei großer Übereinstimmung in das entsprechende Zeichen übersetzt
– Nachteil: – für jede Schriftart muß eine eigener Musterzeichensatz geladen sein, damit eine
exakte Zuordnung erfolgen kann.
– Probleme bereiten diese OCR-Systeme im Erkennen unsauberer oder leicht schräg gescannter Vorlagen; trifft auch auf Dokus mit versch. Schriftgrößen und Zeichen-attribute (fett, kursiv usw.) zu

– Vorteil: – Auflösung und Zeichenmuster sehr fein
– relativ gute Erkennungsergebnisse
– schneller
– Umrissverfahren (pattern recognition = Merkmalanalyse)
– überwiegend benutzte Methode (Omnifont-Methode)
– die zu erkennenden Zeichen werden nach charakteristischen Merkmalen, wie z.B. Kurven,
Kreisen, vertikalen und horizontalen Linien untersucht
– dadurch ist es möglich, alle Schriftarten, -größen und -attributen anhand einer geladenen
Tabelle zu erkennen bzw. zu berechnen
– Hardwareanforderungen: eine gute Auflösung des Scanners und die Möglichkeit, Kontrast und
Helligkeit über einen möglichst weiten Bereich einstellen zu können.

Wichtig:
– 300 dpi reicht für die Texterfassung aus
– schwarz auf weiß
– muss gerade gescannt werden
– Qualität muß stimmen
– Helligkeit/Kontrast
– meist benutztes Format: RTF = Rich Text Format

Bewertung: 
0
Bisher keine Bewertung

OSI-Modell

OSI steht für Open System Interconnection
Damit Rechner miteinander kommunizieren können, muss es so etwas wie eine
gemeinsame „Sprache“ geben. Der Datenverkehr wird von sogenannten Protokollen
geregelt.
Die ISO (International Standardization Organisation) entwickelte 1983 ein
Referenzmodell, welches in 7 Schichten oder Layer unterteilt ist.
Die ersten vier Schichten bezeichnet man als transportorientierte Schichten und die
letzten drei als anwendungsorientierte Schichten.

Schicht 1: Bitübertragungsschicht
Übertragungsmedien:
-lokale Netze, Telefonleitungen (Modem), integrierte Digitalleitungen
(ISDN)
Protokoll der Schicht: RS-232-C (serielle Schnittstelle)

Schicht 2: Sicherungsschicht
Eine Aufgabe der Sicherungsschicht besteht in der Festlegung des Zugriffsverfahrens.
Verfahren: CSMA / CD, Token-Passing

Schicht 3: Vermittlungsschicht
Die dritte Schicht kümmert sich um das Routing der einzelnen Datenpakete.
Protokoll: IP (Internet Protocol)

Schicht 4: Transportschicht
Diese Schicht hat u.a. die Aufgabe, die zu übertragenden Daten auf Senderseite in
kleinere Einheiten zu zerlegen und auf Empfängerseite die Vollständigkeit zu prüfen
und die Pakete wieder zusammen zusetzten.
Protokoll: TCP (Transmission Control Protocol)

Schicht 5: Sitzungsschicht
Diese ist die erste anwendungsorientierte Schicht. Hier wird u.a. die Zuordnung
logischer Namen zu den physikalischen Adressen vollzogen. Dies dient zum einfachen
Austausch von Adressen auf Anwenderebene.
Beispiel: DNS (Domain Name Server)

Schicht 6: Darstellungsschicht
Die Schicht ist für die Syntax und die Semantik der übertragenen Informationen
zuständig. Dazu werden die Daten einheitlich kodiert. Der wichtigste Internationale
Code ist der ASCII (American Standard Code for Information Interchange).
Schicht 7: Anwendungsschicht
Die letzte Schicht stellt die Schnittstelle zum Anwender dar.
Protokolle: E-Mail, FTP und Telnet

Bewertung: 
0
Bisher keine Bewertung

PDF Job-Option

Mögliche Einstellung in den Job-Options, verschiedene Job-Options für verschiedene Medien bzw. Verwendungen.

Weiterführende und ergänzende Links:

www.mev.de/pdf/pdf_aktuell_leseprobe_pdt_1.pdf

Zusammenfassung eines Prüflings unter http://dl.dropbox.com/u/58493837/zwiprü12-7.pdf

Bewertung: 
0
Bisher keine Bewertung

PDF Print Engine

Adobe PDF Print Engine ist eine neue Softwaregeneration, die ausschließlich mit PDF-Daten arbeitet und vollständig durch JDF/JMF (Job Definition Format/Job Messaging Format) gesteuert wird.

Adobe hat 2006 PostSript durch eine neue Technologie ersetzt - die Adobe PDF Print Engine (APPE)

Adobe Print Engine kann überall im Workflow installiert werden und benötigt keinen beständigen
Speicher.

Die Adobe PDF Print Engine setzt die im PDF definierten Inhalte allein auf Grundlage der JDF/JMF-Prozess- und Produktionsinformationen um. Im Workflow sind so an allen Stellen geräteunabhängig identische Ausgabeergebnisse sowie Änderungen bis kurz vor dem Druck möglich.

Die Adobe PDF Print Engine ist die nächste Generation der Druckplattform-Technologie von Adobe.

Ein reiner PDF-RIP, der durch JDF-Befehle gesteuert wird.

Die Adobe PDF Print Engine arbeitet nur mit PDF, PostScript muss umgewandelt werden.

Adobe PDF Print Engine ermöglicht es unter anderem, Transparenzen „nativ“ auszugeben, d h. bei der Erzeugung eines Druck-PDFs müssen Transparenzen nicht mehr reduziert werden, sie können im PDF verbleiben. Erst im Moment der tatsächlichen Ausgabe werden die Transparenzen dann vom RIP in druckbare Informationen umgewandelt

PDF Print Engines können überall im Workflow eingebunden werden, d.h. von der Erstellung eines PDFs über den Prepressbereich, bis hin zur Druckmaschine.

Vorteile:   

- basiert auf der gleichen PDF-Technologie wie Adobe Acrobat
- End-to-End-Workflow beruht vollständig auf Adobe PDF
- keine PDF-PS Konvertierung mehr
- JDF ermöglicht die strikte Trennung von Prozessinformation und Inhalt
- ausgabeneutrale PDFs sind damit möglich
- Verzicht von Transparenzreduzierung bei der Ausgabe

Informationen aus dem Neswletter von Cleverprinting: Das über viel Jahre nicht wegzudenkende PostScript durch die neue Technologie Adobe PDF Print Engine (APPE) abgelöst. (Wird aber noch einige Zeit dauern)

Als Grund heißt es hier zu:
»Die Programmiersprache PostScript ist jedoch in den vergangenen Jahren immer mehr an ihre Grenzen gestoßen. Colormanagement ist nur begrenzt möglich, Transparenzen lassen sich nur ausgeben, nachdem diese reduziert wurden. Mit diesen reduzierten Daten gibt es jedoch häufig Probleme...«

APPE ermöglicht es unter anderem, Transparenzen direkt auszugeben.

PDF-Print Engine:

Damit führt Adobe nun eine komplett neue Architektur ein, nämlich die eines reinen PDF-RIPs, der durch JDF-Befehle gesteuert wird. Zuvor wurden PDF-Daten als erstes in PostScript konvertiert, um dann im RIP als Pixel ausgegeben werden zu können. PDF Print Engines können überall im Workflow eingebunden werden, d.h. von der Erstellung eines PDFs über den Prepressbereich, bis hin zur Druckmaschine.

 

Linktipp

PDF von Heidelberg zu Adobe Print Engine

Neue Adobe PDF Print Engine beschleunigt zukünftige PDF-Workflows (PDF)

Video von Adobe

Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

Personalisierte Werbemittel

An Einzelkunden angepasste Werbemittel.
Das bedeutet, dass jeder Einzelkunde persönlich angesprochen wird.
Bei einem Brief steht zum Beispiel die persönliche Anrede für jeden Einzelkunden über dem Text z.B: Sehr geehrter Herr Mustermann und nicht nur sehr geehrter Kunde.
Es können auch mehrer Punkte personalisiert werden.
Wir hatten das Beispiel bei Kongressunterlagen.
Die Teilnehmer hatten auf ihren Unterlagen den persönlichen Namen, dazu passende Flugnummer für die Anreise und die persönliche Zimmernummer im Hotel.
Eine weitere Anwendung ist auch die Personalisierung von Tischkarten. u.v.m.
Produziert können personalisierte Werbemittel nur im Digitaldruck und nicht im Ofsetdruck.
Die Personalisierung liegt im Aufgabenbereich der Druckvorstufe.

Bewertung: 
0
Bisher keine Bewertung

Produktionsablauf

Informationen im angehängten PDF zum Muster-Workflow

AnhangGröße
PDF icon MusterWorkflow.pdf811.01 KB
Bewertung: 
0
Bisher keine Bewertung

Proof

Unter Proof versteht man einen Prüfdruck zur Kontrolle und als Referenz für alle Produktionschritte im Druckproduzess, um Fehler zu vermeiden. Man lässt ihn auch häufig vom Kunden freizeichnen, auch um sich selbst abzusichern.

Zunächst kann man zwischen den materiellen Proofs und einem Softproof (Farb- oder Formabstimmung am Monitor) unterscheiden, sowie über den zu kontrollierenden Gegenstand: Formproof, Farbproof oder Rasterproof. 

Stand- oder Form-Proof

Darunter versteht man einen Druck auf einem Plotter oder Drucker im Verhältnis 1 : 1. Dabei geht es darum Stand (die Platzierung) und Vollständigkeit der Text-, Bild- und Grafikelemente sowie die verschiedenen Druckmarken zu überprüfen. Geprüft werden kann damit aber nicht die Farbechtheit.

Farb-Proof

Der Farbproof ist ein farbverbindlicher Prüfdruck auf Basis verschiedener möglicher Verfahren. Der Farbproof dient Mediengestalter und Kunde als Grundlage für die Freigabe und dem Drucker als Farbreferenz für seinen Auflagendruck. Auch hier muss der Proof im Originalformat vorliegen. Der Farbproof ist damit zugleich aber auch Formproof, da Stand und Vollständigkeit der Text-, Bild- und Grafikeelemente ebenfalls geprüft werden können.

Der rasterverbindliche Proof

Der rasterverbindliche Proof ist ein hochwertiger und rasterverbindlicher Proof, welcher auf einem speziellen Gerät ausgegeben wird. Hier wird das Raster simuliert, mit dem später gedruckt werden soll. Der rasterverbindliche Proof ist manchmal farbverbindlich und nutzt oftmals die identischen Einstellungen beim RIP. Ein Beispiel für die Anwendung sind z.B.: Modekataloge, oder Fotos mit Texturen.

Vorteile:

  • Moiré ist erkennbar
  • Layout ist erkennbar
  • ggf. farbverbindlich

Nachteile:

  • Sollte unter Normlicht betrachtet werden. (D50)
  • Nicht immer farbverbindlich
  • keine genaue Aussage über zu gering aufgelöste Bilder
  • Produktionszeit beachten

Proof-Verfahren

Der Digitalproof ist mittlerweile das Standardproofverfahren. Es ist kostengünstig, man benötigt nur geringe Anschaffungs- und Unterhaltungskosten und es ist recht schnell. Zudem lässt sich das Farbmanagement recht problemlos realisieren. Jedoch muss dabei das Auflagenpapier simuliert werden.

Weiterführende Links
https://www.bvdm-online.de/fileadmin/user_upload/bvdm_MedienStandard_Druck_2018.pdf

 

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

QR-Codes in Druckprodukten

EINLEITUNG

Vielleicht haltet ihr gerade meine Visitenkarte in der Hand oder blättert in einer Ausgabe der WELT-KOMPAKT. Vielleicht habt ihr QR-Codes auch an anderer Stelle gesehen und fragt euch, was man mit ihnen machen kann. QR steht für englisch: quick response = schnelle Antwort. Die Idee dahinter ist, dass Menschen im Alltag mit einem Klick mit ihrem Fotohandy Informationen aufrufen, abspeichern und weiterverarbeiten können.
QR-Codes gehören zur Familie der 2D-Barcodes die im Gegensatz zum herkömmlichen Barcodes sowohl horizontal als auch vertikal Informationen enthalten.

SCANNEN

Ein Beispiel: 2006 schaffte der Weltmeister im SMS-Tippen 160 Zeichen in ca. 42 Sekunden. Eine URL (Internetadresse) kann schnell 250 Zeichen lang sein. Um eine solche Internetadresse in den Handybrowser zu tippen, würde selbst der damalige Weltmeister über eine Minute brauchen. Genau hier liegt einer der Vorteile der QR-Codes: Sie ersetzen das Abtippen von Informationen und sparen dadurch Zeit und Nerven. Statt die Informationen einzutippen scannt man den QR-Code. Man benötigt dafür lediglich ein Java-fähiges Handy oder Smartphone mit Kamera. Mit der Kamera wird der Code fotografiert. Ein Programm im Handy analysiert den Code und decodiert die Informationen.

 

INHALTE VON QR-CODES

Für die Umwandlung in einen QR-Code sind folgende Informationsformen möglich:

  • Telefonnummer
  • SMS
  • Link (URL)
  • Text
  • vCard (Name, Telefonnummer, Email-Adresse)

READER UND GENERATOREN

Um aus einem Kamera-Handy einen QR-Code-Scanner zu machen benötigt man eine so genannte Reader-Software. Reader sind teilweise kostenlos. Es gibt sie von verschiedenen Herstellern und für unterschiedliche Handymodelle. Die Liste der unterstützten Handys ist von Reader zu Reader unterschiedlich. Bei dem N82, N93, N93i, N95, E66, E71 oder E90 von Nokia ist ein Barcode-Reader bereits bei Kauf vorinstalliert. Ob für das eigene Handymodell ein Reader verfügbar ist, und wie der Reader auf dem Handy installiert wird, erfährt man auf den Herstellerseiten.

 

Viele Reader-Anbieter geben auch die Möglichkeit online Codes zu erstellen. Die durch die Generatoren erstellten Codes können als Bild abgespeichert und beliebig weiterverarbeitet werden. Auf diese Weise kann man einfach eigene QR-Codes für beliebige Zwecke erstellen.
Außerdem gibt es eine Firefox-Exstension die per Klick die aktuelle URL im Browser in einen QR-Code umwandelt, und einen Webservice, der aus einem RSS Feed einen QR-Code generiert.

 

EINSATZMÖGLICHKEITEN FÜR ANALOGE QR-CODES

Beispiele analoger QR-Codes:
(Externe Links auf Fotos mit Beispielen)

DIGITALE WEITERVERARBEITUNG

Neben dem Aufruf einer Internetadresse im Handy-Browser gibt es noch andere Weiterverarbeitungsmöglichkeiten, abhängig vom codierten Informationstyp.

  • Aufruf mit Browser oder Telefon
  • Speicherung in Lesezeichen/Bookmarks, Kontakte/Telefonbuch, Notizen (indirekt, mittels copy & paste) und Verlauf/Historie
  • Weitergabe via SMS, MMS, E-Mail, Infrarot und Bluetooth

MOBILE-TAGGING

Mobile-Tagging kommt von englisch: tag = Kennzeichen und beschreibt das Hinterlassen von Informationen, die mobil genutzt werden können. Mobile-Tagging beschreibt somit die Verbreitung von QR-Codes im Allgemeinen. 
Es werden drei wesentliche Verbreitungsarten unterschieden:

  • Commercial-Tagging
  • Public-Tagging
  • Private-Tagging

Während beim Commercial-Tagging kommerzielle Interessen im Vordergrund stehen, bedient Private-Tagging persönliche Motive. Public-Tagging hingegen dient gemeinnützigen Zwecken. Eine Ausführliche Beschreibung der verschiedenen Verbreitungsarten findet man unter der Mobile-Tagging Wikipedia-Seite.

SCHNITTSTELLE ZW. ANALOGEM UND DIGITALEM MEDIUM

Vergleich zwischen herkömmlicher und 2D-Codebasierter Informationsübergabe bei Mediumwechsel und damit verbundenem Workflow (Aufwand hoch, niedrig)

TECHNISCHE INFORMATIONEN

  • Jedes Bildformat denkbar
  • Geringe Dateigröße, da s/w
  • Trotz Rastergrafik ohne Qualitäts- oder Informationsverlust skalierbar (durch Pixelwiederholung)
  • Speicherkapazität QR-Codes:
    • Numerisch: maximal 7.089 Zeichen
    • Alphanumerisch: maximal 4.296 Zeichen
    • Binär: maximal 2.953 Bytes
  • Individuelle Designmöglichkeiten

2D-CODES UND VERSCHLÜSSLUNG (CHIFFRE/KRYPTOGRAPHIE)

QR-Codes dienen hauptsächlich zur Übergabe von Information und nicht zur Verschlüssung im kryptographischen Sinne. Eine Verschlüsslung der Daten findet daher vor der Codierung statt. 2D-Codes, die verschlüsselte Daten enthalten, findet man auf den Online-Tickets der Deutschen Bahn, oder auf den mit Stampit (Deutsche Post) frankierten, Briefumschlägen.

Weiterführende Links

MOBILE TICKETING

Durch Mobile Ticketing ist es möglich jederzeit, und an jedem Ort, ein gültiges Ticket zu erwerben. Momentane Einsatzgebiete sind Eintrittskarten für kulturelle oder geschäftliche Veranstaltungen sowie Fahrkarten für den Nah- und Fernverkehr. Über den Handybrowser kann das gewünschte Ticket gekauft werden (mobile e-commerce). Danach erhält man eine MMS mit einem 2D-Code. Dieser wird vom Veranstalter gescannt und somit das Ticket auf Gültigkeit kontrolliert.

Quelle:http://qrcode.wilkohartz.de/

 

Weiterführende Links
http://www.copy-druck.net/cdwww/local/qr/

http://www.mediencommunity.de/content/mobile-tagging-leitfaden-zum-einsatz-von-qr-codes
 

 

 

 

 

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Rastertechnologie

Rasterung im Druck
Die Rasterung im Druck ist notwendig um verschiedene Tonwertstufen erstellen zu können. Die Tonwerte, die dabei entstehen sind unechte Tonwerte, da sie nicht durch variable Farbschichtdicke entstehen.

Rastertechnologien
Es gibt verschieden Technologien, mit denen das Rastern möglich ist. Dazu gehören die Frequenzmodulierte- ,die Amplitudenmodulierte- , und die Crossmodulierte- Rasterung.

Amplituden Modulierte Rasterung(AM)
Die Fläche ist in eine feste Zahl von Rasterzellen aufgeteilt. Die Tonwerte werden dabei durch durch die Größe der Rasterpunkte in der Zelle (Die Amplitude) erzeugt. Je größer ein Punkt ist, desto dunkler ist der Tonwert. Bei der AM Rasterung müssen die verschiedenen Farben unterschiedlich gewinkelt werden. So lassen sich unerwünschte Nebenerscheinungen, wie z.B. Moirés vermeiden.

Vorteile von AM
• Hat einen ruhigen Verlauf in den Mitteltönen
• Geringerer Tonwertzuwachs
• höhere Prozesssicherheit, die Vorgaben der ISO-Norm/PSO (Prozessstandard Offsetdruck) beziehen sich auf AM-Raster

Nachteile von AM
• Die Farben müssen gewinkelt werden
• Moiré und Rosettenbildung beim Übereinanderdruck
• Geringere Detailtreue im Vergleich zum FM-Raster

Frequenz Modulierte Rasterung (FM)
Bei der FM Rasterung wird der Tonwert durch die Anzahl der verschiedenen Rasterpunkte erzeugt. Ein Rasterpunkt ist hierbei immer gleich groß. Es verändert sich nur die Anzahl und Anordnung der Rasterpunkte (Die Frequenz).

Vorteile von FM
• Größerer Tonwertumfang vor allem in den Höhen und Tiefen
• keine Moirébildung und Rosettenbildung (oder Objektmoiré)
• Plastisches fotorealistisches Druckergebnis, auch bei qualitativ schlechteren Papiersorten
• Bessere Detailwiedergabe im Vergleich zum FM-Raster
• man kann mit mehr als nur vier Prozessfarben drucken
• niedrige Belichterauflösung bei gleichbleibender Qualität

Nachteile von FM
• Problematisch bei gleichmäßiger Darstellung technischer Raster
• Wiederhohlbarkeit eines identischen Auftrags mit neu gerechneten Platten schwierig
• nur optimal bei Computer-to-Plate, da Unterstrahlung der Plattenkopie möglich

FM- Raster 1. Ordnung
Die Punkte werden hierbei vollkommen willkürlich in den Rasterbasisquadranten angeordnet, nicht nach einem bestimmten Muster. Wiederholende Strukturen waren weitestgehend ausgeschlossen. Somit auch Moirés. Allerdings sorgte die zufällige Verteilung der Dots vor allem in den Mitteltönen zu unruhigen Verläufen.

FM-Raster 2. Ordnung
Die 2. Generation der FM- Rasterung vermindert unruhige Verläufe durch eine Wurmartige Gruppenbildung in den Mitteltönen. Ein weiterer Vorteil dieser Technologie ist, die geringere Tonwertzuname, da einzelne Dots und kleinere Gruppen von Dots vermieden werden.

(Crossmodulierte Rasterung)
Hier gibt es mehrere Varianten, wie die Rasterung stattfinden kann.

Bei der Hybrid Rasterung werden FM und AM Raster vereinigt. Bei dieser Technologie wird das AM Raster vor allem in den Mitteltönen eingesetzt, da es dort für einen ruhigen, schönen Verlauf sorgt. Das FM Raster wird hierbei in den Tiefen und Lichtern eingesetzt. Da es hier einen größeren Tonwertumfang bietet. Das AM Raster bricht in den Tiefen und Höhen, und so können feine Lichter und Tiefen nicht angezeigt werden.

Eine andere Methode ist es, Rasterpunkt, die die gleiche Größe und Form haben (eines 50% AM Rasterpunkts), wie beim FM-Raster in willkürlicher Weise anzuordnen.

Die Fehlerdiffusion ist eine Mischung aus der letzten Methode und Dithering. Es kommt bei Tintenstrahldruckern zur Verwendung. Diese können nur gleichgroße Bildpunkte setzen. Daher verteilen sie gleichgroße Punkte nach dem Zufallsprinzip auf dem zu bedruckenden Stoff.

Tiefdruckraster
Bei Tiefdruckverfahren sind einige Kompromisse in der Rastertechnologie zu treffen. Hier bestehen die Rasterelemente aus so genannten Näpfchen. Diese werden mit dünnflüssiger Farbe gefüllt, die sich im direkten Kontakt mit dem Papier entleert. Dabei müssen zwischen den Näpfchen Stege vorhanden sein um der Rakel, die anschließend den Zylinder abstreicht genügend Auflagefläche zu bieten und um ein Auslaufen der Farbe zu verhindern. Das ist auch der Grund, warum im Tiefdruck Text gerastert wird. Die Modulation, d. h. die Steuerung der Farbmenge, erfolgt über die Variation des Näpfchenvolumens. Hierfür stehen drei klassische Methoden zur Auswahl:

 

flächenvariable Volumenänderung (amplitudenmoduliert, autotypisch)
Bei gleich bleibender Näpfchentiefe ändert sich nur das Steg-Näpfchen-Verhältnis, d. h. bei breiteren Stegen werden die Näpfchen schmaler. Wegen der Kapillarität in den Lichtern ist dieses Methode industriell nicht sinnvoll.
Tiefenvariable Volumenänderung (amplitudenmoduliert, autotypisch)
Bei gleich bleibendem Steg-Näpfchen-Verhältnis ändert sich nur die Näpfchentiefe. Dies ist verbunden mit einem Absinken des U-förmigen Näpfchenbodens (Kalottenform) bei Ausbildung steiler Seitenwände, wodurch sich das Entleerungsverhalten der Näpfchen ändern kann (Restfarbvolumen bleibt zurück).
Flächentiefenvariable Volumenänderung (amplitudenmoduliert, halbautotypisch)
Es ändern sich sowohl Näpfchentiefe als auch Steg-Näpfchen-Verhältnis: In den Lichtern schmale, flache Näpfchen, in den Tiefen breite, tiefe Näpfchen. Es stehen zugleich drei neue Modulationsmethoden zur Verfügung:
kantenoptimierte flächentiefenvariable Volumenänderung (amplitudenmoduliert, halbautotypisch)
Die zu Näpfchen aufgelösten Kanten von Bildern, Linien und Schrift erhalten begradigte Stege, die der Motivstruktur folgen.
Frequenzmodulierte flächentiefenvariable Volumenänderung
Es können nahezu beliebige FM-Raster graviert werden.
Crossmodulierte flächentiefenvariable Volumenänderung
stufenloser Übergang zur Näpfchenausdünnung in den Lichtern und Tiefen.

Durch die unterschiedliche Farbdichte beim Tiefdruck entstehen die einzigen echten Tonwerte.

Moiré- Effekt
Falsche Rasterwinkelung führt in der AM Rasterung zu einem Moiré. Dies ist ein Muster, das durch die Überlagerung der regelmäßigen Rasterstruktur der einzelnen Farben entsteht.

Rosetten-Effekt
Unter einem Fadenzähler, lassen sich bei einem 4 Farbendruck auch bei exakt eingehaltener Rasterwinkelung sogenannte Rosettenmuster erkennen. Diese Rosetten sind im eigentlichen Sinne ebenfalls Moirés. Sie stellen aber eine weitestgehend berechtigte Störung dar, da man sie durch die Einhaltung der richtigen Rasterwinkel festlegen kann. Grundsätzlich lassen sich Überlagerungen der einzelnen Raster nicht ganz vermeiden, nur minimieren. Die Rosettenform ist die unauffälligste Form der Moiréerscheinung und somit geduldet.

Rasterpunktformen
Gewünscht ist immer ein schöner, gleichmäßiger Verlauf

Es gibt folgende Rasterpunktformen:

• Quadratisch

• Elliptisch (Kettenpunkte)

• Rund

• Linienraster

Die elliptische Form ermöglicht den ruhigsten Verlauf.

Rasterweite
Die Rasterweite beschreibt die Rasterpunkte pro cm/inch. Je feiner die Rasterweite ist, desto mehr Punkte gibt es pro cm/inch. Die Zählung der Punkte erfolgt immer in Richtung des kleinsten Punktabstands. Die Rasterweite wird abhängig von Oberfläche und Druck bestimmt.

• Zeitung ca. 40 lpcm
• Satiniert ca. 60 lpcm
• Gestrichen 60- 120 lpcm
• Siebdruck bis 48 lpcm
• Offset 60 lpcm üblich 60- 120 möglich

Rastertonwert
Die Rastertonwerte werden in % angegeben. Dabei beschreibt die Prozentzahl wie viel Prozent der Fläche bedeckt ist. Der Elliptische Punktschluss entsteht bei elliptischen Rastepunkten, wenn sich die Punkte an zwei Ecken berühren. Der Quadratische Punktschluss entsteht bei quadratischen Rasterpunkten (bei 50%) wenn sich die Punkte an allen vier Ecken berühren.

Raster Winkelung
Bei der AM- Rasterung müssen die Rasterpunkte der verschiedenen Farben unterschiedlich gewinkelt werden um Muster zu vermeiden. Diese Winkelung steht immer im Bezug auf die Senkrechte. Grundsätzlich ist es der Fall, dass die auffälligste Farbe, also schwarz, im unauffälligsten Winkel angebracht werden muss und die unauffälligste Farbe, also Gelb im auffälligsten Winkel. Die anderen Farben sollten immer einen Abstand von 30° zu Schwarz einhalten. Daraus folgt:

• Yellow (0°)

• Cyan (15°)

• Schwarz (45°)

• Magenta (75°)

 

Hybrid-Raster (XM-Raster)
Die Vereinigung von den Prinzipien der ampliudenmodulierten Rasterung mit denen der frequenzmodulierten Rasterung.

Die Hybridrasterung basiert auf der konventionellen amplitudenmodulierten Rasterung (im Mitteltonbereich). Bei den Lichtern und Tiefen wechselt das Verfahren zur frequenzmodulierten Rasterung.

Vorteile des XM-Rasters
• Hohe Detailzeichnung für technische Produkte
• Moiré und Rosettenbildung unter Sichtbarkeitsgrenze
•  Stabile Produktion von Lichtern und Tiefen durch die Vermeidung von Spitzpunkten
•  Flächen in Lichtern und tiefen wirken glatt

Nachteile des XM-Rasters
• Nicht auf allen Bedruckstoffen einsetzbar
•  Gestrichene Oberflächen notwenig

Weiterführende Links:      
http://www.dierotationsdrucker.de/hybrid-raster.html
http://www.printperfection.de/veredelung/fm-rastersysteme

 

http://www.lepen.de/assets/files/rasterte.pdf

 

Bewertung: 
0
Bisher keine Bewertung

Rastertechnologie - Präsentation

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Scannen

Wie weit wird die Frage auf gestalterische oder technische Aspekte abzielen? 

Gestalterisch scannen? Hm?! 

Leider ist das bei den letzten Prüfungen häufig nicht klar getrennt gewesen. 

 

Ich fange mal mit den technischen Aspekten an: 

Herzstück des Scanners ist zumeist ein CCD-Sensor oder CCD-Element, in dem viele lichtempfindliche Elemente nebeneinander sitzen – so viele, wie der Scanner maximal Pixel in der Breite erkennen kann. Damit er R,G und B unterscheiden kann, hat er 3 Zeilen von CCD-Elementen. Vor ihnen sitzt ein Prisma, das das Licht aufspaltet, damit die roten, grünen und blauen Bestandteile jeweils auf einer anderen der drei CCD-Zeilen landet. 

Wird ein CCD-Element von Licht getroffen, produziert es einen geringen Strom – je mehr Licht, desto mehr Strom. Dieser Strom wird in einem Analog-Digital-Wandler in Zahlen von 0 (Schwarz) bis 255 (Weiß) umgewandelt, bei 16 Bit entsprechend von 0 - 65535. 

Die Aufspaltung in die drei Farben R, G und B kann auch mit nur einer Sensorzeile (also nicht dreien wie zuvor beschrieben) erfolgen. Dazu muss jede Scanzeile dreimal "fotografiert" werden: einmal mit roten, dann mit grünem und abschließend mit blauem Licht. Da kann mit entsprechenden eingefärbten LEDs erfolgen, die jeweils ganz kurz aufblitzen. Billige Scanner sind heute häufig so aufgebaut. Wenn man bei offenem Deckel schnell mit den Augen klimpert, sieht man die verschiedenen Farben. Es handelt sich dabei um extrem flache Scanner. 

Ein Schrittmotor zieht einen Schlitten mit einer röhrenförmigen Lampe (geht über die gesamte Abtastbreite) und dem CCD-Sensor an der Scanvorlage vorbei. Der Motor stoppt immer kurz, dann wird ein „Foto“ einer Zeile gemacht, anschließend rückt er den Schlitten um ein winziges Stückchen weiter und wieder wird eine Zeile aufgenommen. Dieser Motor kann zumeist sehr kurze Schrittchen machen, die feiner sein können als die Auflösung des CCD-Sensors in der Breite. Mein alter Scanner hat beispielsweise eine Auflösung von 1200 x 2400 dpi. 

Er „sieht" 1200 Pixel pro Inch in der Breite und bis zu 2400 Schrittchen pro Inch schafft der Motor und „sieht" entsprechend viele in der Länge. Damit entstehen theoretisch rechteckige Pixel, die die Scansoftware zu doppelt so vielen quadratischen interpolierend auseinander rechnet. 

Was die Hardware tatsächlich kann, nennt man physikalische oder optische Auflösung. 

Die Scansoftware kann die Auflösung eventuell aufblasen. Das Ergebnis sind mehr Pixel, als sie der Scanner tatsächlich sehen kann. Das nennt man interpolierte Auflösung (ist nur etwas für die Werbeabteilung der Herstellerfirma), Beispiel 4800 x 9600 dpi. 

Scanner können Aufsichtvorlagen (auf Papier) und/oder Durchlichtvorlagen (Dias, Röntgenbilder) scannen. 

Aufsichtvorlagen haben einen geringen Tonwertumfang, Durchlichtvorlagen einen wesentlich größeren. 

Deshalb müssen Diascanner einen wesentlich größeren Kontrastumfang wahrnehmen können als Aufsichtscanner. Der Kontrastumfang wird auch als Dynamikumfang bezeichnet. Ist er zu gering, saufen dunkle Partien in Schwarz ab und helle haben keine Zeichnung und werden "überbelichtet" nur weiß dargestellt. 

Eine hohe Scanauflösung hat nur für den Strichbereich Bedeutung. Im Strichbereich sollte die Auflösung nicht unter 800-1000 dpi liegen. 

Die Auflösung, mit der optimalerweise gescannt wird, sollte nicht dem Zufall überlassen oder nach dem Motto "je höher, desto besser" festgelegt werden. 

Zum Verständnis: 
Graustufen werden bei Ausgabe auf einem Belichter in eine 16x16-Matrix umgesetzt, d.h. ein Rasterpunkt enthält idealerweise 256 Einzelpixel. Wird nun eine Halbtonvorlage im 60er-Raster ausgegeben, wird jedes Graustufenpixel in eine 16x16-Matrix umgesetzt. Ein Belichter mit einer Auflösung von 2540 dpi kann solch einen Rasterpunkt gerade wiedergeben. Ein 60er- Rasterpunkt entspricht ca. 150 dpi und das wäre auch theoretisch die erforderliche Scanauflösung. 

Da jedoch bei der Analog-Digital-andlung Verluste auftreten, wird hier ein zusätzlicher Q-Faktor (Q für Qualität) eingeführt. Dieser Faktor ist in der Regel 1,5, im Extremfall 2. 

Aus diesen Zusammenhängen ergibt sich die folgende Formel zur Berechnung der idealen Scanauflösung:

Scan-Auflösung = Rasterweite x 1,5 x Skalierungs-Faktor

Ein Beispiel: Es soll die Scan-Auflösung für ein 60er-Raster bei 1:1 Skalierungs- Faktor errechnet werden. Da der ert für Raster in cm berechnet worden ist, muß er in lpi umgerechnet werden (durch Multiplizieren mit 2.54). 

Scanauflösung = 150 dpi x 1.5 x 1 = 225 dpi 

Die resultierende Dateigröße wäre bei einer A4-Seite für Schwarz- Weiß-Halbton 5,77 MB,für Farbe 17,3 MB. Bei 300 dpi würde sich die nahezu doppelte Dateigröße ergeben. Das zeigt, wie wichtig es ist, die richtige Auflösung zu wählen, da ansonsten Speicherbedarf und Verarbeitungszeiten drastisch ansteigen. 

Für ein 48er-Zeitungsraster und einen Skalierungs-Faktor von 50% ergibt sich folgende Rechnung: 

Scanauflösung = 122 dpi x 1,5 x 0,5 = 91,5 dpi 

Soll auf das Doppelte vergrößert werden, erhöht sich entsprechend die Auflösung aus der Formel: 

Scanauflösung =1 22 dpi x 1,5 x 2 = 366 dpi.

Quelle: http://www.silverfast.com/show/calc-resolution/de.html

 

Gestalterische Aspekte:

Moirè
Da ein Scanner Bilder in ein starres Pixelmuster zerlegt, kann es zu Moirès kommen, wenn die Vorlage ebenfalls ein starres Muster (z. B. gedruckte, regelmäßig gerasterte Vorlagen, Bilder von Geweben, feinen Ziegelmaueren …) darstellt. Damit die Moirès nicht sichtbar werden, können Filter eingesetzt werden, die letztlich den Scan unscharf zeichnen. Bei guter Scansoftware kann man die Rasterweite der gedruckten Vorlage eingeben. Ansonsten helfen Tricks wie Vorlage schief auf den Scanner legen und mit höherer Auflösung als gewünscht einscannen. Abschließend kann man es in Photoshop grade drehen und verkleinern. Dadurch werden alle Pixel neu berechnet und das Moirè verschwindet (hoffentlich).

Rauschen
Jedes optische und akustische Gerät rauscht. Bildrauschen kennt man von Handy-Fotos, die bei wenig Licht gemacht wurden, die haben eine sandige Struktur.
Scan-Programme können Vorlagen mehrfach einscannen und abschließend zu einem Bild verrechnen. Dadurch wird das Rauschen des Scanner deutlich reduziert. Das ist besonders in dunklen Bereichen von Diascans wichtig. (Aber wer macht heute noch Dias?)

Newtonsche Ringe
aus Wikipedia, der freien Enzyklopädie:
„Newtonsche Ringe (nach Isaac Newton) oder allgemein Interferenzfarben nennt man Farbsäume, die durch Interferenzan dünnen transparenten Schichten entstehen.“

Farbsäume bei Dias, die in Glas gerahmt sind. Die newtonschen Ringe entstehen durch die unterschiedlich dicke Luftschicht zwischen Glas und Diafilm. Der Effekt lässt sich durch Aufrauhen vermeiden (Anti-Newton-Glas).
Sie können genauso auftauchen, wenn man ein Dias direkt auf die Glasplatte des Scanners legt, also ungerahmt.

Übergroße Vorlagen
Möchte man ein A3 großes Blatt auf einem Scanner, der nur gut A4 schafft, einscannen, kann man es in 2 Durchgängen scannen und anschließend in Photoshop zusammenbauen. Da die Scansoftware meistens die Helligkeit und den Kontrast automatisch regelt, werden beide Scans unterschiedlich hell sein. Man müsste in einem solchen Falle also zusehen, die Automatik der Scansoftware abzuschalten, damit man zwei gleich “belichtet” Scans erhält.

Man könnte auch zwei Elemente mitscannen, eins weiß, eins schwarz und, wenn im Scanprogramm vorhanden, mit der Pipette den Weiß- und den Schwarzpunkt setzen.

Nicht vergessen bei Farbstichen: Scanner bzw. Scansoftware kalibrieren (richtiger: profilieren). it8 Karte einscannen und mit Profilierungssoftware Scanner-Profil erstellen. 

Geschrieben von Daniel Graefen

Bewertung: 
0
Bisher keine Bewertung

Schriftenverwaltung

Warum Schriftverwaltung?

Mit Schriftverwaltungsprogrammen wie Suitcase, Linotype FontXplorer etc. lassen sich Schriften kategorisieren und sortieren. So kann man entweder nach Schriftgruppen (DIN 16518 oder eigener Sortierung) oder auch nach Kundenprojekten sortieren. Mit solchen Programmen kann man zudem nur die Schriften aktivieren, die man benötigt. Sind alle Fonts – oft mehrere hundert oder gar tausend Schriften – aktiviert, reduziert dies die Rechnerleistung. Auch die Übersicht der Schriftmenüs der Programme wird dadurch erleichtert.

Bewertung: 
0
Bisher keine Bewertung

Smart-Objekte

Bewertung: 
0
Bisher keine Bewertung

Softwarelizenz

Hier könnt ihr eure Notizen, Sammlungen von hilfreichen Links etc. zum Thema sammeln.

Erste Stichworte zum Thema:

1. Volllizenz, Freeware, Shareware, Schulungslizenz
2. Anzahl der Arbeitsplätze, die in der jeweiligen Lizenz festgeschrieben sind

Weiterführende Links:

http://www.microsoft.com/germany/piraterie/softwarelizenzen.mspx
http://www.computerwoche.de/management/compliance-recht/1913465/
http://www.computerwoche.de/management/compliance-recht/1913489/

----------------------------------------------------------------------------------------------------------------------------

Softwarelizenz:

Einstufung von Software nach dem Nutzungsrecht (Lizenz)

  • Freie Software
  • Freeware
  • Shareware
  • Donationware

Unterteilung nach Quellcode-Veränderbarkeit

  • Freie Software
  • Open Source
  • Proprietäre Software

------------------------

Freie Software:

Freie Software (engl. free software) ist Software, die für jeden Zweck verwendet, studiert, bearbeitet
und in ursprünglicher oder veränderter Form weiterverbreitet werden darf. Das schließt auch die
kommerzielle Nutzung ein.

Die Free Software Foundation definiert folgende Freiheiten:

Freiheit 0:

Das Programm zu jedem Zweck auszuführen.

Freiheit 1:

Das Programm zu studieren und zu verändern.
 

Freiheit 2:

Das Programm zu verbreiten.
 

Freiheit 3:

Das Programm zu verbessern und diese Verbesserungen zu verbreiten, um damit einen Nutzen für die Gemeinschaft zu erzeugen.


Für 1 und 3 ist der Zugang zum Quelltext Voraussetzung.

Sind nicht alle Bedingungen erfüllt, wird die Software als proprietär oder „unfrei“ bezeichnet.

 

------------------------

Lizenztypen, die die Kriterien freier Software erfüllen:

Copyleft-Lizenz

Der Autor behält das Copyright, es sind Klauseln enthalten, dass veränderte und weitergegebene
Software frei bleibt. Auch der Quellcode muss zur Verfügung gestellt werden.
Bsp. GNU General Public License (GNU GPL) ) (meistverbreitet)

BSD-Lizenz

Gruppe von Lizenzen aus dem Open-Source-Bereich. (BSD = Berkeley Software Distribution)
Software darf frei verwendet werden. Es ist erlaubt, zu kopieren, zu verändern und zu verbreiten.
Copyright-Vermerk darf nicht entfernt werden. Kann als Vorlage für kommerzielle Produkte verwendet
werden. Enthält kein Copyleft

Gemeinfreiheit

Der Autor verzichtet auf das Copyright.
Damit kann jeder alles mit der Software machen, sie etwa in eigene Programme einbauen, verkaufen
oder sie selbst wieder zu proprietärer Software machen.
Gemeinfreiheit ist jedoch keine Lizenz, sondern ein gemeinfreies Werk ist besitzlos.

------------------------

Freeware

Freeware; von engl. free „kostenlos“ und ware „Ware“) bezeichnet im allgemeinen Sprachgebrauch
Software, die vom Urheber zur kostenlosen Nutzung zur Verfügung gestellt wird.
Freeware ist meistens proprietär und darf daher nicht mit freier Software (engl. „free software“)
verwechselt werden, die im Gegensatz zu Freeware weitläufigere Freiheiten, wie Veränderungen an
der Software, gewährt.
Freeware ist kein definierter rechtsgültiger Begriff.

Donationware

Bei der Donationware (von engl. „donation“: Spende) handelt es sich um Freeware,
wobei der Autor um eine Spende bittet.
Wenn das eingesetzte Programm die Erwartungen erfüllt, und man es regelmäßig im Einsatz hat, sollte
man eine Spende in Erwägung ziehen.

------------------------

Open Source

Open Source bedeutet, dass der Quellcode offenliegt.
Wer den Quellcode kennt, kann ihn auch verändern und neue Programme schreiben.

Technisch gesehen liegen Freie Software und Open Source nah beieinander, allerdings werden beide
Ausdrücke von unterschiedlichen Denkrichtungen genutzt.

Die Open Source Initiative (OSI) betont, dass Open Source zu besserer und preisgünstigerer Software
führt als geschlossene, proprietäre Konstruktionen.

Die Free Software Foundation hingegen meint, dass proprietäre Software allein schon aus
moralischen Gründen abzulehnen sei. Software soll transparent und überprüfbar sein.

Der Begriff „Open-Source-Software“ scheint die Entwicklersicht wiederzugeben,
während der Begriff „Freie Software“ auch die Sicht der übrigen Anwender einbezieht.

------------------------

Proprietäre Software

Im juristischen Sinne gleichbedeutend mit „urheberrechtlich geschützt“.
Proprietäre Software ist jegliche Software, die keine freie und quelloffene Software ist.
Bsp.: Microsoft Windows, Adobe Photoshop

Was regelt die Lizenz noch?

Art der Lizenz

Einzel-Lizenz oder eine Mehrfach-Bereitstellung (Mehrfach-Lizenz).

Lizenzklasse

Die Lizenzklasse typisiert die rechtlichen Voraussetzungen für die Nutzung einer Software. :

  • Vollversion (keine vorhergehende Version erforderlich)
  • Upgrade (setzt das Vorhandensein einer Vollversion voraus)
  • Update

Lizenzmetrik

Die Lizenzmetrik bedeutet, wie der Lizenzbedarf gezählt werden muss z.B.:

  • pro Installation
  • pro benannter Maschine
  • pro benanntem Anwender
  • pro gleichzeitig angemeldeten Anwender
  • pro Prozessor
  • u. v. a.
Bewertung: 
0
Bisher keine Bewertung

Speichermedien

Speichermedien

Speichermedien dienen der (zumeist) dauerhaften Speicherung von Daten.
Dabei werden verschiedene Speichermedien unterschieden und in diverse Gruppen unterteilt:

Nicht-flüchtige Speichermedien

Nicht-flüchtige Speichermedien behalten die auf ihnen gespeicherte Informationen auch dann, wenn sie nicht mit Strom versorgt werden.

Optische Datenträger

Unter optischen Datenträgern versteht man solche, die mithilfe von Licht Informationen aufnehmen oder abgeben. Hierzu zählen unter anderem CDs, DVDs, HD-DVDs und Blu-Rays.

Aufbau einer CD

  • der Durchmesser einer CD-ROM beträgt 12 cm, gelegentlich auch nur 8 cm, und die Särke beträgt 1,2 mm
  • besteht zum größten Teil aus Polycarbonat
  • darüber liegt eine Reflexionschicht aus einem Aluminiumfilm
  • auf der Aluminiumschicht befindet sich eine Schutzlackschickt, um das Aluminium vor äußeren Einflüssen zu schützen
  • Abschluss bildet der Aufdruck, auch Laben und Titelfeld genannt, der mit dem Siebdruck aufgebracht wird, alternativ auch mit dem Offsetdruck

 

TODO: Aufbau einer DVD/BD

Diese werden unter Anderem in dem vielleicht wichtigsten Kriterium erneut unterschieden: Ist ein optischer Datenträger entweder:
bereits ab Werk gebrannt (z.B. CD-ROM, Read-Only Memory),
einmal beschreibbar (z.B. DVD+R, Recordable) oder
mehrfach beschreibbar (z.B. DVD-RW, rewriteable oder BD-Re, rewritable).

DVDs und Blu-Rays können außerdem mehrschichtig sein (Double Layer, DL), das heißt, es liegen zwei Datenschichten übereinander. Das erhöht die Datendichte auf einem "Silberling" ca. um das Doppelte.
Blu-Rays nehmen sogar 100, 128 und 500GB an Daten auf. Hierbei handelt es sich dann um BDXL-Scheiben.

Hier eine grobe Übersicht über die Medientypen und deren jeweilige Speicherkapazität:

  • CD±R/RW: 700MB
  • DVD±R/RW: 4,7GB
  • DVD±R/RW DL: 8,5GB
  • HD-DVD±R/RW: 15GB
  • HD-DVD±R/RW DL: 30GB
  • HD-DVD±R/RW TL(Triple Layer): 51GB
  • BD±R/Re: 25GB
  • BD±R/Re DL: 50GB
  • BDXL±R/Re: 100, 128 und 500GB
  • evtl. sollten hier noch die sog. Mini-Discs erwähnt werden, die nur einen Durchmesser von 8cm haben.

    TODO: Lesen/Schreiben einer CD/DVD/BD

Verwendungszweck:

Da optische Speichermedien eher langsam im Vergleich zu anderen nicht-flüchtigen Medien sind, ist diese Art der Speicherung eher für die Archivierung von Daten geeignet. Durch die Form ist es jedoch auch dazu prädestiniert, als Medium zum Versand von z.B. Druckdaten in eine Druckerei zu dienen.

Dafür, dass es nicht das schnellste Medium ist, ist es hingegen das mit der konstantesten Lese- und Schreib-Geschwindigkeit.

Magnetische Datenträger

Der Sektor

Der Sektor ist die kleinste Speichereinheit auf Speichermedien. Die Grösse eines Sektors wurde auf 512 Byte festgelegt. Dieser Wert wurden willkürlich gewählt.

Der Cluster

Fasst man mehrere Sektoren zu einer Einheit zusammen, nennt man diese grössere Einheit Cluster.

Die Spur

Eine Festplatte enthält mehrere übereinander angeordnete Scheiben. Auf jeder Scheibe werden die Daten kreisförmig in Spuren angeordnet.

Der Zylinder

Jede Scheibe kann von oben und unten beschrieben werden. Betrachtet man nun eine einzelne Spur über alle Platten, bildet sich, da diese symetrisch aufgebaut sind, ein Zylinder.

Allgemein

Unter magnetischen Datenträgern werden die Speichermedien zusammengefasst, die mit einem Magneten die Bits und Bytes auf einer metallnen Oberfläche durch entsprechende Ausrichtung der Elektronen speichern. Hierzu zählen die herkömmlichen Festplatten (HDDHard Disk Drive) oder auch Disketten (FD, Floppy Disk).

TODO: Kenngrößen bei Festplatten (Kapazität, Bauform etc.)

TODO: Lese-/Schreib-Vorgang auf Festplatten

TODO: Anschlussarten für CD/DVD/BD-Laufwerke und Festplatten (P-ATA, S-ATA, SCSI) => Geschwindigkeiten/Stecker

Elektrische Speicher (Flash-Speicher, EEPROMs)

Größe:
EEPROMs (Electrically Eraseable Programmable Read-Only Memory) gibt es in einer Vielzahl von Geräten, die häufigsten sind USB-Sticks, die zwischen vier und 128 Gigabyte Daten speichern können. Außerdem gibt es die so genannten SSDs (Solid State Drive). Durch ihre deutlich schnelleren Lese- und Schreibraten treten sie die Nachfolge für herkömmliche Magnetplatten an. Allerdings ist ihre Speichergröße mit 64 GB - 1 TB noch begrenzt und der Preis deutlich höher.

Geschwindigkeit:
Bei den USB-Sticks erhält man gute Schreibgeschwindigkeiten von bis zu 50 Megabyte pro Sekunde, bei SSDs hat man durch den verwendeten SATA-Anschluss den Vorteil, wesentlich höhere Datendurchsatzraten von bis zu 600 Megabyte pro Sekunde zu erhalten.

Verwendungszweck:
Der USB-Stick eignet sich gut, um kleinere Dateien zu transportieren, an denen noch gearbeitet wird. Da hier kein Schreibschutz "verhängt" wird, ist es möglich, die auf dem Stick befindlichen Daten immer wieder zu bearbeiten und erneut zu speichern. Er empfiehlt sich auch, um Daten zum Druck in eine Druckerei zu schicken, gegenüber der CD sollte dieser allerdings wieder zurückversandt werden.

Die SSD hat sich in modernen Computern zum Quasi-Standard entwickelt, wenn es darum geht, das Betriebssystem und Programme bereit zu stellen. Da das Schreiben auf eine SSD nicht allzu oft vorgenommen werden sollte, bietet sich eine Verwendung für das schnelle Laden (Lesen) von erwähntem Betriebssystem und den Programmen an. 

Flüchtige Speichermedien

Zu den flüchtigen Speichermedien gehören Medien, die für den Erhalt der in ihnen gespeicherten Daten zwingend eine Stromversorgung benötigen. Hierzu zählen zum Beispiel der Zwischenspeicher (Cache) eines Computer-Prozessors oder der Arbeitsspeicher (RAMRandom Access Memory).

TODO: Cache (Stichworte: Kapazität, Taktrate, Datendurchsatz etc.)

Arbeitsspeicher

Größe:
Ein handelsüblicher PC wird heute mit Arbeitsspeicher-Größen von vier bis sechzehn GB ausgeliefert. Die Größe des Arbeitsspeichers bestimmt, wie viele Programme gleichzeitig sofort abrufbar sind. Je mehr Arbeitsspeicher verfügbar ist, desto weniger muss auf die Festplatte geschrieben werden (Analog: Je mehr ich mir im Kopf merken kann, desto weniger muss ich aufschreiben. Je weniger ich nachlesen muss, desto schneller kann ich z.B. eine Frage beantworten.)

Geschwindigkeit:
Arbeitsspeicher hat im Laufe der Zeit viele Veränderungen mitmachen müssen. Nicht zuletzt, weil auch die Technik "drumherum" (Prozessoren, Mainboards, Grafikkarten etc.) immer schneller wurden.

Mittlerweile unterscheidet man in drei verschiedene Generationen von DDR-SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory):

  • DDR-SDRAM
  • DDR2-SDRAM
  • DDR3-SDRAM

Mit jeder neuen Generation der Arbeitsspeicher-Module wurden die so genannten Taktraten erhöht und somit eine schnellere Speicherung und Ausgabe der Daten ermöglicht. Damals arbeitete DDR mit 100 MHz, heute nutzt DDR3 Taktraten von bis zu 2133 MHz. Dabei hat DDR-SDRAM rd. 3,2 GB/s Daten übertragen, der neue DDR3-SDRAM überträgt bereits rd. 34 GB/s.

Verwendungszweck:
Durch die hohe Geschwindigkeit des Arbeitsspeichers ist er dazu prädestiniert, die Daten, die für den Betrieb des Computers bereitzuhalten. Das ermöglicht den schnellen Wechsel zwischen Programmen und erleichtert die Arbeit mit vielen (und großen) Dateien.
Je mehr RAM ein Computer besitzt, desto mehr Programme können gleichzeitig im Arbeitsspeicher für einen Zugriff bereitstehen.

 

Weiterführende Links

Aufbau einer Festpaltte http://de.wikipedia.org/wiki/Festplatte#Allgemeine_technische_Daten

Umrechnung der verschiedenen Datentypen. Bit, Byte etc.. http://www.umrechnung.org/masseinheiten-datenmenge-umrechnen-bit-byte-mb...

Binärcode http://de.wikipedia.org/wiki/Dualsystem

Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

U12 JDF/Workflow

AnhangGröße
PDF icon U12_JDF_Workflow.pdf806.94 KB
Bewertung: 
0
Bisher keine Bewertung

Vektorgrafiken

Vektorgrafiken...

  • bestehen aus mathematisch definierten Linien und (Bezier-)Kurven, = Vektoren
  • Vektoren beschreiben Bilder anhand ihrer geometrischen Eigenschaften. Z.B. besteht ein Punkt aus einer mathematischen Definition eines Kreises, der mit einem bestimmten Radius an einer bestimmten Stelle in einer bestimmten Farbe gezeichnet wird, dieser Punkt kann skaliert oder gedreht werden ohne das ein Qualitätsverlust entsteht.
  • Vektorgrafiken sind unabhängig von der Auflösung, d.h. sie werden nicht von einer bestimmten Anzahl von Pixeln definiert, sondern automatisch skaliert, so das sie bei jedem Ausgabegerät und bei jeder Auflösung gestochen scharf erscheinen.
  • Vektorbilder eignen sich am besten für Text und Grafiken wie z.B. Logos, die in jeder Größe klare Linien fordern
  • Sowohl Vektorbilder als auch Pixelbilder werden am Bildschirm mit Pixeln dargestellt, da Monitore zur Bilddarstellung ein Raster von Pixeln verwenden.
Bewertung: 
0
Bisher keine Bewertung

Vernetzte Produktion

Vernetzte Produktion in der Druckerei.

Allgemein könnte man Vernetzung wie folgt beschreiben:
Vernetzung ist ein Hilfsmittel zur Organisation, sie dient zur sinnvollen Verknüpfung von verschiedenen Komponenten im Produktionsablauf und dem Austausch von Vorgaben und Aufragsdetails zwischen den Komponenten.

Die Vernetzung ist die Grundlage für die Automatisierung des Produktionsworkflows und damit wesentlich für die Rationalisierung sinnvoll.

 

Gründe für eine vernetzte Produktion?

  • Einsparung von Zeit, Wegen und Material
  • einfachere Planung
  • schnellerer Durchlauf der verschiedenen Aufträge
  • besserer und schnellerer Informationsfluss, dadurch bessere Überwachung des Auftragablaufs
  • bessere Möglichkeiten für Durchführung des Qualitätsmanagement
  • bessere Kontrolle und Lokalisierung von Fehlern bzw. Problemen im Produktionsablauf

     

 

Bewertung: 
0
Bisher keine Bewertung

Vorgaben Datenanlieferung

Können zunächst bei jeder Druckerei unterschiedlich sein. Generell aber gilt: 

  • Druckfertige Daten in einem geschlossenen Format (PDF oder PostScript).
  • Farbraum: CMYK (natürlich auch alle Bilder); (+ evtl. Schmuckfarben).
  • Bildauflösung: mindestens 300 dpi.
  • 3mm Anschnitt (Grafische Elemente oder vollflächige Hintergrundbilder, die bis zum Rand des Produkts reichen sollen, müssen im Anschnitt (Bleed-Box) liegen).
  • Die verwendeten Schriften müssen in das PDF eingebettet oder in Kurven umgewandelt sein; bestenfalls nicht als Untergruppe (es werden dann nur die auch verwendeten Zeichen eingebettet).
  • Bilddaten müssen eingebettet sein (nicht nur  als Verknüpfungen).
  • Ein professionelles Druck-PDF enthält keine Formularfelder oder Kommentare.
  • Die Schriften nicht elektronisch im Schriftstil Menü des Anwendungsprogrammes anpassen, sondern nur echte Schriftschnitte verwenden.
  • Bei Lieferung offener Daten: Die Schriften entweder mitliefern oder in Pfade umwandeln, gilt auch für eingebundene EPS-Dateien.
  • Transparenzen müssen reduziert sein (es sei denn es liegt eine Adobe Print-Engine vor, die mit Transparenzen bzw. PDF/X-4 umgehen kann).
  • Haarlinien die im fertigen Druckerzeugnis nicht mehr sichtbar sind, können bei der analogen Plattenherstellung zu Problemen führen.
  • Maximalen Farbauftrag beachten und nicht überschreiten:
    Zeitungsdruck: bis max. 240%
    Bogenoffset ungestrichen: bis max. 300%,
    Bogenoffset gestrichen: bis max. 330%, je nach Papier und Trocknung

 

  • PDF muss folgende Boxen enthalten: Media-Box, Bleed-Box (Anschnitt), Trim-Box (Endformat).
  • Keine Registerfarben (z.B. Passermarken-Schwarz) innerhalb der Trim-Box.
  • In einem korrekt erstellten PDF für den Druck haben die Bilddaten keine eigenen Farbprofile mehr.
  • PDFs sollten (erst) nach dem Erstellen über den Exportdialog oder PostScript und Überprüfung durch den Acrobat Preflight als PDF/X zertifiziert werden (stellt Grundvoraussetzungen sicher, gibt der Druckerei z.B. Aufschluss darüber, dass in dem PDF (X-1a) auf jeden Fall keine Transparenz, RGB-Daten etc. vorhanden, alle Schriften und Bilder eingebettet sind.)
  • Der erstellte Fehlerreport sollte an das PDF angehangen werden, wenn er fehlerfrei war.

  

  • PDF/X-1a: Erlaubt nur CMYK und Schmuckfarben, konvertiert aber alle RGB-Bilder ungefragt in den US-amerikanischen SWOP-Farbraum, bettet diesen auch als Output-Intent ein. ICC, RGB, LAB sowie Ebenen und Transparenzen sind verboten.
  • PDF/X-3:2002: Neben CMYK auch Schmuck-, ICC, LAB und RGB-Farben erlaubt. Gibt immer Coated Fogra 27(also das alte CMYK-ICC) als Output-Intent an. Ebenen und Transparenzen sind verboten.
  • PDF/X-4: Neben CMYK auch Schmuck-, ICC, LAB und RGB-Farben erlaubt. Ebenen und Transparenzen sind erlaubt: Kann nur von der Adobe Print Engine ausgegeben werden. Kann nur über Export-Dialog erstellt werden, da über den Distiller-Weg automatisch alle Transparenzen reduziert werden. Kompatibilität muss mindestens auf „Acrobat 5“ stehen, sonst werden auch hier Transparenzen automatisch reduziert.
  •  Druckausgabequalität: Bettet SWOP-Farbraum als Output-Intent ein.
  •  Qualitativ hochw. Druck:   Reagiert auf fehlende Schriften nur mit „warnen und weiter“

 

[Output-Intent (dt.: „Ausgabeabsicht“): Wird an das druckfertige PDF angehängt; gibt (der Druckerei) an, für welches Druckverfahren das PDF angelegt wurde].

 

Quelle: u.a. Cleverprinting 2009

 

Hierzu gehört sicherlich auch die Kenntnisse über die einzelnen Dateiformate.

Bewertung: 
0
Bisher keine Bewertung

Datenformate

Zunächst ist es hilfreich, um in der Vielzahl von Dateiformaten und Suffixen (Dateiendungen) durchzublicken, übergeordnete Kategorien zu verwenden und zwar zunächst in programmunabhängige und in programmabhängige Formate.

Der Name sagt hier schon einiges über die Problematik in der Verwendung der Dateiformate. Bei den programmabhängigen Dateiformaten benötigt man auch immer die kompatible Softwareapplikation oder Zusatzmodule um das jeweilige Dateiformat auszulesen oder gar weiterzubearbeiten. Meist handelt es sich dabei um die originären Formate der Layoutprogrammen (InDesign/.indd und QuarkXpress/.qxp) oder Grafik- bzw. Bildbearbeitungsprogrammen.
Programmunabhängige Dateiformate haben diese Einschränkungen nicht..

Unterscheidung von Pixel- und Vektordateiformat
Eine weitere Grobunterscheidung bietet sich an Hand dem Aufbau der Daten, also ob es sich um Pixel- oder Vektordaten handelt.

Bei vektorbasierte Dateien werden Grafiken über Punkte und Bezierkurven beschrieben. Solche Daten bieten den Vorteil, dass sie beliebig skaliert werden können ohne dass es zu einem Qualitätsverlust kommt. Das Standard-Austauschformat für Vektor-Grafiken ist EPS.

Pixelgrafiken sind hingegen auflösungsabhängig und mit einer Skalierung ist immer auch ein Qualitätsverlust verbunden. Gängige Pixelformate sind TIFF, JPEG und GIF.

Meta-Dateiformate
Metaformate können Pixel und Vektoren in einer Datei enthalten, wie das WMF (Windows Metafile Format) oder PDF.
 

Bewertung: 
4
Durchschnitt: 4 (1 Stimme)

Web-to-Print

Zusammenfassung im Datenanhang als PDF.

AnhangGröße
PDF icon WebToPrint.pdf363.91 KB
Bewertung: 
0
Bisher keine Bewertung

XML-Import Layoutprogramm

Hier schon mal als Start der Hinweis zum Newsletter des Schulungsanbieters Cleverprinting zum Thema XML-Import bei Indesign: cleverprinting.de/newsletter0609_3.html

 

XML-Indesign

Was ist XML?

XML ist eine besondere Art der Datenhaltung bzw. Datenstrukturierung. Inhalt und Struktur eines Textes (oder allgemein von Daten) werden unabhängig von ihrer Darstellung in XML beschrieben. Damit erreichen Sie, dass Ihre Texte in verschiedenen Layouts und auf unterschiedlichen Medien in beliebigen Varianten angezeigt werden können.
XML-Daten sind unabhängig von den Programmen, mit denen sie erstellt und bearbeitet werden. Editoren, mit denen Sie XML bearbeiten können, sind i.d.R. nicht sehr teuer und zum Teil sogar kostenlos als Freeware zu erhalten. Damit bietet sich die Möglichkeit, dass Änderungen an Inhalten durchgeführt werden können, ohne dass kommerzielle Software verwendet werden muss.

Weiterhin bieten sich mit der Datenhaltung in XML vielfältige Möglichkeiten, Ihre Produktionen zu automatisieren und somit bzgl. Kosten, Produktionszeit und Aufwand deutlich zu optimieren.

Hab ich selbst irgendwo kopiert, will mich hier nicht mit fremden Federn schmücken ;-)

_______________________________________________________________________

Eine XML-Datei kann also wie folgt aussehen:

Die Tags werden frei bestimmt/festgelegt
Alle Tags müssen natürlich geschlossen werden, wie bei HTML auch.

 ------------------------------------------------------------------------------------------------------------------------------------------------------------

<?xml version="1.0" encoding="iso-8859-1"?>
<!DOCTYPE rezeptliste SYSTEM "rezeptliste.dtd">

<rezeptliste>

         <rezept>

                   <name>Bärlauch-Tzaziki</name>
                   <zusatz>Nährt die Frühlingsgefühle</zusatz>
                   <zusatz2>Für zwei Hungrige als Vorspeise:</zusatz2>

         <zutaten>
                            Zutaten:
                            <menge>250 g</menge> <art>Naturjoghurt</art>
                            <menge>125 g</menge> <art>Magerquark</art>
                            <menge>1</menge> <art>Gurke</art>
                            <menge>1 Bund</menge> <art>Bärlauch</art>
                            <menge>ersatzweise 2</menge> <art>Knoblauchzehen</art>
                            <art>Salz und Pfeffer aus der Mühle</art>
                            <art>evtl. Zitronensaft</art>

         </zutaten>

         </rezept>

         <rezept>

          [….]

         </rezept>

 ..

.

</rezeptliste>

------------------------------------------------------------------------------------------------------------------------------------------------

 

 Passend dazu muss eine DTD-Datei abgelegt werden, also eine Datei, die die Regeln für die XML-Datei beschreibt. Für jemanden, der nach einem mit dieser XML-Datei arbeitet z.B.
Das gehört quasi zum guten Ton.

 ------------------------------------------------------------------------------------------------------------------------------------------------

<!ELEMENT rezeptliste (rezept+)>
<!ELEMENT rezept (name, zusatz, zusatz2,zutaten,anweisung,information)>
<!ELEMENT zutaten (menge+,art+)>
<!ELEMENT anweisung (schritt1,schritt2,schritt3,schritt4,schritt5?)>  
<!ELEMENT name (#PCDATA)>
<!ELEMENT zusatz (#PCDATA)>
<!ELEMENT zusatz2 (#PCDATA)>
<!ELEMENT information (#PCDATA)>
<!ELEMENT schritt1 (#PCDATA)>
<!ELEMENT schritt2 (#PCDATA)>
<!ELEMENT schritt3 (#PCDATA)>
<!ELEMENT schritt4 (#PCDATA)>
<!ELEMENT schritt5 (#PCDATA)>
 ------------------------------------------------------------------------------------------------------------------------------------------------

1.     + bedeutet, dass das Element mehrmals vorkommt
Innerhalb des Tags „rezeptliste“ kommt also mehrmals der Tag „rezept“ vor, wenn man mehrere Rezepte anlegen würde
und innerhalb des Tags „Zutaten“ kommen mehrmals die Elemente „Menge“ und „Art“ vor, z.B. bei mehreren Zutaten wie hier Joghurt und  Magerquark.

2.     innerhalb des Tags „Rezept“ kommen die Elemente  name, zusatz, zusatz2, zutaten, anweisung und information mindestens 1 mal vor.

3.     Innerhalb des Elementes „Anweisungen“ Kommen  die Elemente schritt1, schritt2, schritt3, schritt4 mindestens ein Mal vor; schritt5 (durch das Fragezeichen) muss nicht zwingend vorkommen, kann aber.

 (Das Grau markierte ist oben in der XML nicht mit drin, das würde den Rahmen sprengen; PCDATA heißt aber nichts anderes, als dass dort einfach eine willkürliche Abfolge von Buchstaben steht, z.B. dass der Naturjoghurt untergerührt werden muss.)

In der Indesign-Datei kann man dann die XML-Liste importieren und die einzelnen Elemente in die Datei hineinziehen und über Absatz- und Zeichenformate formatieren. Eignet sich also z.B. bestens für ein Kochbuch, Katalog ...etc.

 

Bewertung: 
0
Bisher keine Bewertung

Zahlensysteme (hex bin dez)

Dem binären Zahlensystem liegt die Basis 2 zugrunde,
dem hexadezimalen die Basis 16 und
dem dezimalen die Basis 10.

Umrechnen von binären, hexadezimalen und dezimalen Zahlensystemen:

Dezimalsystem:

156 = 1 x 10^2 + 5 x 10^1 + 6 x 10^0
156 = 100 + 50 + 6
156 = 156

Binärsystem (Dualzahlensystem)

156 = 1 x 2^7 + 0 x 2^6 + 0 x 2^5 + 1 x 2^4 + 1 x 2^3 + 1 x 2^2 + 0 x 2^1 + 0 x 2^0
156 = 128 + 0 + 0 + 16 + 8 + 4 + 0 + 0
156 = 10011100

Hexadezimalsystem: (0-15 = 0-F)

156 = 9 x 16^1 + C(12) x 16^0
156 = 144 + 12
156 = 9C

Grundrechenarten mit binären Zahlen:

Addition von binären Zahlen:

1 + 0 = 1
0 + 1 = 1
0 + 0 = 0
1 + 1 = 1 (1 im Überhang)

Subtraktion von binären Zahlen:

1 – 0 = 1
0 – 1 = 1 (1 im Überhang)
0 – 0 = 0
1 – 1 = 0

Multiplikation von binären Zahlen:

1 x 0 = 0
0 x 1 = 0
0 x 0 = 0
1 x 1 = 1

Division von binären Zahlen:

1 : 0 = 0
0 : 1 = 0
0 : 0 = 0
1 : 1 = 1

Bewertung: 
0
Bisher keine Bewertung

Zentraleinheit (CPU)

Die Zentraleinheit:
Die Zentraleinheit setzt sich aus Leitwerk, Speicherwerk und Rechenwerk zusammen.

– Leitwerk (Steuerwerk)
koordiniert alle an der Ausführung eines Programms beteiligten Operationen eines Computers.

– Speicherwerk (Hauptspeicher)
Es enthält das in Arbeit befindliche Programm, die dafür notwendigen Daten und vorübergehend die Ergebnisse, ist somit das Gedächtnis des Computers.

– Rechenwerk (Mikroprozessor)
Es führt die logischen Rechenoperationen durch.

Prozessortypen (INTEL):
8086 / 87 16 Bit
286 / 87 multitaskingfähig
386 / 87 32 Bit
486 integrierter CoPro
Pentium 64 Bit
Pentium II 450 MHz
Pentium III-IV

Peripherie:
Peripherie ist prinzipiell alles, was nicht zur Zentraleinheit gehört!
Dazu gehören Eingabe- und Ausgabegeräte genauso, wie Motherboard, interne Steckkarten, Bussysteme etc.

Dateneingabegeräte:
Tastatur, Maus, Messgeräte, Ausweisleser, DFÜ, Scanner, Speichermedien

Datenausgabegeräte:
Lautsprecher (Soundkarte), Drucker, Plotter, Bildschirm, Belichter

Externe Speicher:
Wechselplatten (zip, jazz, externe Festplatten), Bandlaufwerke (Streamer, DAT-Bänder), CD-ROM, Magnetplattenspeicher

Bewertung: 
0
Bisher keine Bewertung

Übertragungsrate

Die Datenübertragungsrate bezeichnet die maximal übertragbare Datenmenge pro einem bestimmten Zeitintervall (Beispiel: 1 kBit/s entspricht 1 KiloBit (Datenmenge) pro Sekunde (Zeitintervall). Da die Datenübertragungsrate häufig in Bit angegeben wird, spricht man auch von der Bitrate.

Datenübertragungsrate = Datenmenge / Zeitintervall

WICHTIG: Es handelt sich bei kBit um 1 000 Bit, nicht, 1 024 Bit. Bei Datenübertragungsraten nutzt man im Gegensatz zu Datenmengen SI-konforme Präfixe: Kilo = 1 000, Mega = 1 000 000, Giga = 1 000 000 000 etc. Unterschied in der Schreibweise: SI-konforme Präfixe werden kleingeschrieben (kBit), Datenmengen-Präfixe groß (KByte).

Beispielrechnung

 

Eine E-Mail (18 KB) soll verschickt werden. Die Datenübertragungsrate im Netzwerk beträgt 80 kBit/s. Wie lange dauert die Übertragung der E-Mail (in Sekunden)?

Vorgehensweise: Alle Werte der Textaufgabe notieren, gesuchten Wert herausfinden, Formel aufstellen, Einheiten angleichen, Werte in Formel einsetzen und Aufgaben lösen.

Gegeben: Datenmenge = 18 KByte, Datenübertragungsrate = 80 kBit/s.

Gesucht: Dauer der Übertragung in s = ?

Formel: Datenübertragungsrate = Datenmenge / Zeitintervall

Formel zur gesuchten Variablen hin umstellen ( / Datenmenge)

Datenübertragungsrate / Datenmenge = Zeitintervall

Einheiten der gegebenen Werte angleichen: 18 KByte = 18 432 Byte = 147 456 Bit.

80 kBit/s = 80 000 Bit/s

In Formel einsetzen und ausrechnen:

Zeiteinheit = 80 000 Bit/s / 147 456 Bit = 0,54 1/s = 1,85s

Antwort: Die Übertragungsdauer beträgt 1,85s.

Beispielhafte Datenübertragungsraten

USB 2.0: 480 mBit/s

wLan: Bis zu 600 mBit/s

Gigabit Ethernet: 1 gBit/s

DSL zu Anfangszeiten: 768 kBit/s

DSL heute: bis zu 16 mBit/s und mehr.

Bewertung: 
1
Durchschnitt: 1 (1 Stimme)

RGB-Farbraum

Ein pdf über die unterschiedlichen RGB-Farbräume..

AnhangGröße
PDF icon <p>RGB-Farbraum.pdf</p>1.63 MB
Bewertung: 
0
Bisher keine Bewertung

Überprüfung von Layoutdaten

Bevor eine Datei zum Belichten geht muss sie auf ihre Brauchbarkeit geprüft werden. Diesen Vorgang nennt man Preflight. In den meisten Layoutprogrammen wie InDesign und Quark schon integriert, aber auch im späteren PDF möglich. Es gibt auch sogenannte Check-Programme wie Flightcheck oder Preflight Pro.

Überprüfung der Daten in der Layoutsoftware
In InDesign oder Quark lassen sich geöffnete Dokumente auf Fehler im Bezug auf Schriften, Verknüpfungen und Bildinformation, sowie auf verwendete Farben und Zusatzmodule überprüfen.

  • Schriften überprüfen: sind ungenutzte Schriften im Dokument vorhanden? Falls ja, dann diese Schriften löschen
  • Farben überprüfen: CMYK/Sonderfarben, alle überflüssigen Farben aus der Palette löschen
  • Bilder überprüfen: CMYK-Farbraum, Dateiformat (Tiff), dem Ausgabeverfahren angepasste ICC-Profile, Auflösung 300 dpi. Alle Verknüpfungen müssen korrekt sein.
  • Dokument: korrekte Seitenanzahl und -abfolge, Schnitt- oder Falzmarken in »Passkreuze«-Farbe, Beschnitteinstellungen, ausgeschossen oder Einzelseiten
  • PDF-Erzeugung: Transparenzreduzierung, Bildkomprimierung, Anschnitt und Druckmarken (ggf. Infobereich) mit korrekten Werten, PDF-X mit entsprechenden Ausgabemethodenprofilen

Überprüfung von PDF-Daten
Die erste Überprüfung ist eine visuelle Kontrolle der Seitenzahl, Seitenlage und der Inhalte.

Dann prüft man im Menü unter Extras die Überdruckenvorschau. Nur dadurch lässt sich sicher kontrollieren, wie der separierte Druck aussieht. Als nächstes sollte man die Separations-/Ausgabevorschau durchklicken. Und sicher gehen dass keine ungewollten Farben etc. sich im Dokument verstecken.

Als nächstes sollte man die Dokumenteigenschaften aufrufen um nach fehlerhaften bzw. nicht richtig oder nicht eingebetteten Schriften zu suchen. Unter der Option "Erweitert" kann man überprüfen und nachträglich die Einstellungen "Überfüllung" und "Bund" ändern. Als nächstes überprüft man den Punkt "Sicherheit", hier sieht man ob die Datei tatsächlich keine Beschränkungen enthält.

Ab Acrobat 6.0 gibt es die Funktion Preflight. Die Überprüfung erfolgt anhand von Preflight-Profilen. Nach der Überprüfung erhält man einen detaillierten Prüfbericht. Diese Prüfberichte können in spezielle Preflight-Tools wie z.B. PitStop übernommen werden.

Preflight: PDF/X durchführen
Falls Ihr Dokument den PDF/X-3 Spezifikationen entspricht, leuchtet die grüne Ampel. Ansonsten steht die Ampel auf Rot und man muss nach der Analyse des Protokolls die entsprechenden Einstellungen im Dokument ändern Man kann in diesem Menü auch jede beliebige PDF-Datei als PDF/X-3 abspeichern Die Konvertierung erfolgt nach dem ausgewählten PDF/X-3 Set.

 

Überprüfung von Layoutdaten nach gestalterischen Kriterien
Wie in einem Kommentar bereits geschrieben wurde, steht das Thema unter dem Prüfungsgebiet »Konzeption und Gestaltung«, woraus sich u.a. die Frage ergibt, was unabhängig von technischen Aspekten, zu kontrollieren wäre:

  • Einhaltung des Satzspiegels
  • gleiche Textkategorien gleich formatiert (Schriftgrößen, Schriftart, Schriftfarbe)
  • Textkategorien und Hierarchien entsprechend ihrem Inhalt visualisiert
  • einheitlicher Seitenaufbau
  • Einhaltung des Gestaltungsrasters
  • zum Inhalt passende Zuordnung der Bilder und Grafiken
  • sind Inhaltsverzeichnis und/oder Register korrekt

 

Tags: 
Bewertung: 
0
Bisher keine Bewertung

Digitale Medien

Arten von Websites

Websites lassen sich nach ihrer Verwendung durch User bzw. durch die Zielsetzung des Betreibes kategorisieren

  • Werben/Präsentieren
  • Verkaufen
  • Informieren
  • Lerninhalte vermitteln
  • Spielmöglichkeiten
  • Gewinnmöglichkeiten
  • Unterhaltung
  • geschäftliche oder private Inhalte präsentieren
  • Soziale Netzwerke

 

Bewertung: 
0
Bisher keine Bewertung

Audiodaten-Berechnung

AUDIODATEN-BERECHNUNG
Datenmenge [Byte] = Auflösung [bit] * Abtastfrequenz [Hz] * Anzahl Kanäle * Aufnahmezeit [s]
 
Datenstrom [bit] = Auflösung [bit] * Abtastfrequenz [Hz] * Anzahl der Kanäle
 
 
Abtastfrequenz (Sample rate)

Die Abtastrate ist die Anzahl der Samples, die pro Sekunde von einem Audiosignal abgetastet werden. Die Abtastrate bestimmt den Frequenzbereich einer Audiodatei. Je höher die Abtastrate ist, desto ähnlicher ist die digitale Wellenform der analogen Quellwellenform. Niedrige Abtastraten begrenzen den Bereich der Frequenzen, die aufgezeichnet werden können. Dies kann zu einer Aufnahme führen, die den ursprünglichen Klang nur sehr schlecht wiedergibt.
 

Zur Reproduktion einer bestimmten Frequenz muss die Abtastrate mindestens doppelt so hoch sein wie die Frequenz (Nyquist-Frequenz). CDs verfügen beispielsweise über eine Abtastrate von 44.100 Samples pro Sekunde, sodass sie Frequenzen von bis zu 22.050 Hz reproduzieren können; das menschliche Ohr kann jedoch nur Frequenzen bis zu 20.000 Hz wahrnehmen.
 

Wenn man die Datenmenge in Byte ausrechnen möchte, dann muss man das Ergebnis aus der Formel noch durch 8 teilen. 8 Bit sind 1 Byte.

Will man dann aus Byte Kilobyte machen (binär), dann heißt es: geteilt durch 1024 (1024 Byte = 1 kiByte), um Megabyte (binär) zu erhalten, noch einmal durch 1024 (1024 kiByte = 1 MiByte)

 

Abtastrate Qualitätspegel Frequenzbereich
96 kHz High-End-DVD 0 – 48 kHz
48 kHz Standard-DVD 0 – 24 kHz
44,1 kHz Audio-CD 0 – 22,05 kHz
32 kHz Standardrate für Rundfunk 0 – 16 kHz
22,05 kHz Multimediaanwendungen, annähernd UKW-Qualität 0 – 5,512 Hz
11,025 kHz Schlechte Mittelwellenqualität 0 – 5.512 Hz

Auflösung (Sample size)

24 bit 16,7 Mio (DVD-Qualität)
16 bit 65536 Stufen (CD-Qualität)
8 bit 256 Stufen (Multimedia, Monosound)
Bewertung: 
0
Bisher keine Bewertung

CMS-Benutzer

Allgemeines

Unter einem Content-Mangement-System (CMS) versteht man meistens ein serverbasiertes System zur gemeinschaftlichen Verwaltung und Pflege von Inhalten in Webseiten. Sämtliche Daten werden in einer Datenbank (im Web meistens MySQL) auf einem Server gespeichert werden. Der Zugriff auf die Daten erfolgt in der Regel über PHP und SQL-Befehle.

Ein Vorteil eines CMS ist die unabhängig voneinander und zeitgleiche Verwaltung von Inhalten durch mehrere Benutzer. Dies muss innerhalb des Systems (Backend) organisiert werden. Dafür stellen alle CMS eine mehr oder weniger dif­fe­ren­zierte Nutzer- und Rechteverwaltung zur Verfügung.

Zu den bekanntesten CMS gehören: Joomla, Drupal, TYPO3 und Wordpress

Über das Backend lassen sich neue Benutzer obligatorisch mit Benutzername und Passwort anlegen. Weitere Angaben, wie z.B. Kontaktdaten, können meistens optional hinzugefügt werden.
Abhängig vom jeweiligen CMS, kann hier even­tu­ell schon festgelegt werden, welche Rechte ein Benutzer haben darf und welche nicht. Grundsätzlich gilt bei der Rechtevergabe immer das Prinzip, dass eine höhere Stufe immer alle Rechte der darunterliegenden Rechtestufen mit umfasst (Hierarchie).

Arten von Benutzer

Frontend-Benutzer
Frontend-Benutzer sind Benutzer, die die Inhalte einer Webseite, in dem Fall durch das CMS bereitgestellte Inhalte, sehen. Die Möglichkeit sich mit Benutzername und Passwort auf einer Webseite anmelden zu können und somit Zugriff auf Ressourcen und Seiten innerhalb einer Webseite zu haben, die für normale Benutzer verborgen sind, sind auch Bestandteil des Front-End. Beispiele: Facebook, YouTube, Amazon, Bild.de

Backend-Benutzer
Als Backend-Benutzer bezeichnet man alle Benutzer, die sich am Administrationsbereich eines CMS mit Benutzername und Passwort anmelden können. Hier wird noch einmal zwischen den Benutzern, hinsichtlich ihrer Rechte, unterschieden. Denn nicht alle Benutzer haben im Backend dieselben Rechte und Befugnisse.

Zu den Backend-Benutzern gehören:

Redakteur

Redakteure dürfen in der Regel, in den für sie freigegebenen Bereichen, eigene Inhalte erstellen und bearbeiten. Dazu zählen z.B. Seiten bearbeiten, Texte verfassen, Bilder hochladen etc.

Sie haben keine Berechtigung zur Nutzer- und Rechteverwaltung und haben keinen Zugriff auf systemrelevante Bereiche. In der Regel führen Sie die Rolle des Autors aus. Es gibt auch Editor, die das Erscheiunungsbild des Front-End ändern können.
 

Administrator

Der Administrator kann neuen Inhalt erstellen/bearbeiten/löschen und hat die Berechtigung zur Nutzer- und Rechteverwaltung. Er darf systemspezifische Änderungen durchführen (z.B. Erweiterungen installieren, System-Updates einspielen) und ist in der Lage das komplette CMS zu löschen. Der Administrator hat in der Regel alle Rechte innerhalb eines CMS.

 

 

 

Bewertung: 
0
Bisher keine Bewertung

Content Management System

Unter einem Content-Management-System (CMS) versteht man ein serverbasiertes System zur einfachen Verwaltung und Pflege von Websites. Ein CMS ermöglicht, dass die Erstellung durch Programmierer/Agentur von der Pflege durch den Kunden ohne Programmierkenntnisse getrennt stattfindet.

Was sind die Vor- und Nachteile?

Vorteile
Trennung von Inhalt und Layout
Da das Grundprinzip der strickten inhaltlichen und layoutspezifischen Trennung besteht,
kann nach der finalen Einrichtung grundsätzlich jeder Endanwender (Laie sowie Profi) den Internetauftritt pflegen, steuern und betreuen.

Keine Vorkenntnisse nötig
Auf Seiten des Endusers sind keine speziellen Vorkenntnisse von bspw. Programmierung,
HTML oder XML notwendig. Die Bedienung läuft für ihn vollkommen ohne Hintergrundwissen über diese Technologien.

Medienneutrale Datenhaltung möglich
In vielen CMS können die Inhalte in andere Dateiformate wie z.B. PDF sehr leicht überführt werden,
da die Formate zur Laufzeit „live“ aus der Datenbank heraus generiert werden.

Rechteverwaltung
In einem CMS können verschiedenen Nutzern verschiedene Rechte zugeteilt werden
und quasi eine Rollenvergabe durchgeführt werden. Der Administrator hat somit Zugriffsrecht auf alle Bereiche,
wogegen ein Redakteur, der sich um die Aktualität der News kümmern soll, nur für diesen Abschnitt Schreibrechte erhält.

Gleichzeitiges Arbeiten mehrerer Personen
Ein gemeinsames Arbeiten an einem Online-Projekt ist theorethisch von jedem Ort mit einem Internetzugang aus möglich.

Nachteile
Zu wenig Freiraum
Durch die Festlegung des Layouts wird zum Einen eine (gewollte) Einheitlichkeit der Interseite erreicht,
zum Anderen aber wiederum ein sehr starres, möglicherweise unflexibles Gerüst angelegt. Freiräume in der individuellen Gestaltung sind oft nur wenig vorhanden.

Datenbank  notwendig bspw: PHP und MySQL .net(asp) und MS SQL
Für den Betrieb eines serverseitigen CMS ist Webspace ASP/PHP und MS SQL /MySQL zwingend notwendig. Ohne diese Unterstützung kann kein solches CMS betrieben werden.

Oft für Laien trotzdem noch zu kompliziert
Bei vielen der verbreiteten CMS ist der Funktionsumfang mittlerweile derart groß, dass schon wieder Schulungen für die letztendlichen Administratoren erfolgen müssen.

quelle: vor/nachteile cms -> http://www.christian-pansch.de

 

Wann ist es sinnvoll eine CMS zu verwenden?

Es gibt verschiedene Aspekte, die für die Verwendung eines CMS sprechen

  • Gibt es schnell und häufig wechselnden Content?
  • Gibt es mehrere Autoren, die unabhängig von einander und zeitgleich Content erstellen?
  • Menschen, die Inhalte einpflegen müssen keine HTML, CSS oder PHP-Kennntisse haben. Grundkenntnisse der Internetnutzungs und die grobe Kenntnis von Office-Programmen reicht aus
  • Da nur der Content bearbeitet wird, gibt es keine Veränderungen am Design und damit wird eine ästehtische Konsistenz gewährleistet.
  • Verschiedene Autoren können unterschiedliche Rechte zu gewiesen bekommen, zum Beispiel, dass Autor X nur für Thema X schreiben darf.

 

Server und Client (Zusammenfassung Wikipedia)

Serverseitige CMS

  • benötigt serverseitige Programmiersprache, die in Verbindung mit einer Datenbank steht
  • Datenbank ist entweder auf dem selben Server oder mit einem oder mehreren im lokalen Netzwerk installiert
  • Daten können weltweit verwaltet werden
  • benutzerspezifische Berechtigungen
  • der für die Endbenutzer sichtbare Bereich wird als Frontend bezeichnet
  • das Backend ist der durch einen Login geschützte Bereich, in dem die Administration der Seite erfolgt
  • für Webseiten jeglicher Größe geeignet
  • Abhängigkeit von der serverseitig bereitstehenden Rechenkapazität und bei hoher Frequentierung nur bedingt geeignet

Clientseitige CMS

  • Programm wird auf dem Rechner installiert und steuert das CMS
  • Daten werden auf den Server hochgeladen
  • serverseitige Programmiersprache ist nicht notwendig
  • bieten oft Layoutfunktionen, mit denen einige Seitentypen (Templates erstellt werden können)

Dynamik & Statik (Zusammenfassung Wikipedia) 
--> Art der Anlieferung an den Nutzer

Volldynamische Systeme
-->erzeugen angeforderte Seiten bei jedem Aufruf dynamisch neu

Vorteile:

  • Seite immer aktuell
  • Personalisierung für den Nutzer sehr einfach oder bereits vorhanden

Nachteile:

  • Berechnung kann unter Last zu einer verzögerten Auslieferung der Seiten oder bei mangelhafter Ausstattung an Rechenkapazität im Verhältnis zur Anzahl gleichzeitig bedienter Nutzer zur Serverüberlastung und zum Systemstillstand führen.

Statische Systeme

  • legen jede Webseite statisch in einer Datenbank oder im Dateisystem ab
  • Inhalte werden fertig generiert z.B. als HTML-Dateien abgespeichert und können bei einem Aufruf unmittelbar übertragen werden. Das spart Serverzeit bei der Ausgabe aber nicht bei der Pflege.

Hybride Systeme

  • Kombination von volldynamischer und statischer Seitenerzeugung
  • nur Inhalte, die dynamisch aus einer Datenbank generiert werden müssen (News, Suchabfragen, Shopdaten) werden zur Laufzeit aus der Datenbank ausgelesen
  • Seitengerüst, Navigation, bestimmte Texte und Bilder liegen statisch vor

Halbstatische Systeme

  • generieren den Inhalt so, dass dieser statisch und dynamisch ist, d.h. es werden alle Daten direkt in statisch generierten Daten gespeichert, die dann bei Abruf sofort ausgegeben werden
  • die dynamischen Inhalte werden dann generiert, wenn ein Code in die Datei eingebunden wird oder einzelne Datensätze geändert/ neu angelegt werden

Weitere Stichworte zu dem Thema:

Datenbank, Typo 3, PHP, Drupal (das nutzt die Mediencommunity), Joomla

Bewertung: 
3
Durchschnitt: 3 (2 Stimmen)

Cascading Style Sheets (CSS)

CSS ist eine Ergänzung zu HTML und erlaubt es Formatierungen von Text bis hin zu Seitenlayouts zu beschreiben. Professionell arbeitet man mit einer externen CSS-Datei, deren Informationen mit den einzelnen HTML-Seiten verknüpft werden. Damit wird die Trennung von Inhalt und Layout und somit die bessere Strukturierung ermöglicht. CSS wird von den Browser interpretiert und wird als Client-Seitiges Format bezeichnet. Standardisiert und entwickelt wird CSS durch das W3C-Gremium.

Vorteile für das Verwenden von CSS:

  • Ermöglicht barrierefreie Gestaltung
  • Gestaltung für unterschiedliche Endgeräte durch Media Queries
  • Suchmaschinenfreundlich
  • Aktualisierungen und Designänderungen sind leichter und schneller, da man CSS global anlegen kann

Nachteile für das Verwenden von CSS:

  • Nur bedingt cross-browser-tauglich: Nicht alle Browser interpretieren CSS-Befehle standardgemäß oder überhaupt
  • User können Stylesheets abschalten oder verändern

 

Weiterführende Links
Self HTML

Bewertung: 
3
Durchschnitt: 3 (1 Stimme)

Bildpositionierung im CSS & HTML

Damit ist entweder die allgemeine Positionierung von Elementen mit CSS gemeint oder die Hintergrundbildpositionierungen mit CSS.

Positionierung von Elementen mit CSS

de.selfhtml.org/css/eigenschaften/positionierung.htm

Hier einige kurze Beispiele dafür:

1. Beweglich (Thumbnails, etc.)
img#Galeriebild{
float:left;
display:inline;
margin:11px;
border:0px;
}

2. Fest ( z.B. Buttons über irgendwas drüber )
img#Logo{
position:absolute;
left:33px;
top:55px;
border:0px;
}

3) Fest, nicht wegscrollen ( erst ab IE7 )
img#Logo{
position:fixed;
left:33px;
top:55px;
border:0px;
}

Wenn man was absolut positionieren will, dann muss die Box drumherum ebenfalls absolut oder - falls diese beweglich sein soll - relativ positionieren.

Beispiel: Man will etwas irgendwo über den Seiteninhalt positionieren, eine wunderschöne Layer-Werbung zum Beispiel. Wenn man da jetzt einfach absolut hinschreibt, dann klebt es am body fest. Wenn man aber den Seiten-div der mit "margin: 0px auto;" zentriert ist relativ setzt, dann orientiert sich das Element an der Seite.

Was im Code weiter unten steht, wird immer obendrübergeschoben (NICHT über Flash!!!)

 

Hintergrundbildpositionierungen mit CSS

de.selfhtml.org//css/eigenschaften/hintergrund.htm#background_image

Beispiel:

body{
background-image:url(../bilder/body-Hintergrund.jpg);
background-repeat: no-repeat; //(repeat-x, repeat-y, repeat)
background-position: left top;
//oder
background-position: center top;
//oder
background-position: 10px 30px;  //(10 von links, 30 von oben)
}

ALLGEMEINE POSITIONIERUNG IM CSS

  • body{
  • background-image: url(grafi k.gif);     = Hintergrundbild liegt im selben Ordner wie CSS-Datei
  • background-position: right bottom;     = position des Hintergrundbildes.
  • background-repeat: no-repeat oder repeat;    = (keine) Wiederholung des Hintergrundes
  • background-size: cover;     = Anzeigegröße des Hintergrundbildes.
  • background-size:
  • cover = Fläckendeckendes Bild, füllt ganzen Bildschirm aus, Bild wird hierbei "abgeschnitten", wenn Größe nicht passt.
  • auto = Skaliert originalformat auf gesamte Breite des Bildschirms
  • contain = Bild wird auf Inhalts"größe" des Webseitencontents skaliert.

 

In HTML einbinden (index.htm)

index = startseite

  • Verknüpfung durch <img> Tag
  • width, height = Breite und Höhe, Maße des Bildes, können in px "100" oder in Prozent "30%" angegeben werden
  • alt = “...“ Beschreibung des Bildes, zur Orientierung für Blinde. Suchmaschinen erkennen so
  • den Bildinhalt. Berschreibung wird angezeigt, wenn Bild nicht darstellbar ist.
  • src = “button.png“ Dateiname und Verlinkung des Bildes
  • href="link" Verlinkt das Bild mit einer Webseite

<img src=“button.png“ width=“200“ height=“200“ alt=“Knopf mit Text“ href=“www.webseite.de“ >= Bild liegt im selben Ordner wie der HTML-Code <img src=“Bilder/button.png“ width=“20%“ height=“30%“ alt=“Knopf mit Text“ href=“www.webseite.de“ >= Bild liegt im Unterordner „Bilder“ !ACHTUNG!alt ist sehr wichtig beim Einfügen eines Bildes. Gründen siehe oben.

 

Videos zum Thema

Grundlagen für den Gebrauch von Bilder auf einer der Webseite in HTML mit dem IMG Element. Wichtige Attribute bei Bildern sind sicherlich CLASS, TITLE und ALT.

https://www.youtube.com/watch?v=_BArhD7NubE

Auch hier grundlegende Informationen wie man Bilder Bilder in HMTL einfügt. 
https://www.youtube.com/watch?v=XvKT3FWSLfo

Möchte man Hintergrundbilder im HTML verwenden, dann werden diese über CSS zugewiesen.
https://www.youtube.com/watch?v=u5Chq_GF_8k

Bilder werden mittlerweile nicht mehr nur über IMG eingebunden. Für responsives Webdesign können Bilder an bestimmte Bildschirmanforderungen geknüpft werden. Z.B. Handy im Hochformat hat andere Anforderungen als ein 5K iMac. Dann kommt das PICTURE Element hinzu.
https://www.youtube.com/watch?v=uLLqafzVIlw&list=PLPjKx80JC4CAWBNOp8z_LJqYIekU8MzKi&index=4

Bilder für das Web optimieren ist ein ergänzender Teilbereich. Natürlich sollte man sich Gedanken über Auflösung und Qualität sowie Speicherplatz machen.
https://www.youtube.com/watch?v=udaLENwDyXY

 

Bewertung: 
0
Bisher keine Bewertung

CSS (Cascading Style Sheets)

CSS (cascading style sheets) ermöglicht das Formatieren von HTML/XML Tags und ist somit also für das Design einer Website verantwortlich. Größter Vorteil ist natürlich das strikte Trennen von Inhalt und Layout/Design (.html und .css). Das ermöglicht schnelles (und vor allem einheitliches) Ändern von Formatierungen.

Weitere Vorteile sind zum Beispiel:
1.Datenreduzierung (<h1> muss nur einmal formatiert werden und nicht in jedem HTML-Dokument)
2.Ermöglicht eine bessere Übersicht in den Dokumenten (Jeder der schon einmal einen Newsletter gemacht hat (dort wird das CSS nicht ausgelagert) weiß was ich meine).
3.Einbinden mehrerer CSS-Dateien (media, print, style-switcher, …)

Schreibweise
Selektor {Eigenschaft: Wert;}
h1 {font-size:18px;}
Die Überschrift h1 soll 18 Pixel groß sein.
Das kann auch kompliziert werden.

body#home .content_hide_all > h1:hover,
body#webdesign .content_hide_all > h1:hover {cursor: help;}

Wir lesen den Selektor von hinten:
Wenn ein h1 Element mit der Maus überstrichen (:hover) wird und es sich nur in der Verschachtelungsebene (>) (hier wird also die Vererbung eingeschränkt) von der Klasse  content_hide_all befindet und auf der Seite mit der ID (Individualformat) vom Body home oder webdesign ist, dann ist der Mauszeiger ein Fragezeichen.

Ziel einer solchen langen Anweisung ist es, das HTML-Markup so simpel und kurz zu halten wie es möglich ist.

Einbinden von CSS in das HTML:
1.im <head> als <style type=“text/css“>Hier kommt das CSS rein!</style> (wird beim Newsletter gemacht)
2.im <head> als Link <link rel="stylesheet" type="text/css" media="screen" href="css/master.css" /> (das CSS wird hier ausgelagert)
3.als inline-style <li style="display:block">Text</li> (wird beim Newsletter gemacht)
4.als Import innerhalb einer CSS-Datei: @import url(screen/fancy/jquery.fancybox-1.3.1.css);

Links zu CSS:

Quizsammlung zum Thema CSS http://www.thestyleworks.de/quiz/index.shtml

 

Bewertung: 
0
Bisher keine Bewertung

CSS-Selektoren

Hier könnt ihr eure Notizen, Sammlungen von hilfreichen Links etc. zum Thema sammeln. Einige Beiträge gibt es bereits aus vorhergehenden Prüfungsvorbereitungen.

Weiterführende Links

http://css-selektoren.mozork.de/

http://jendryschik.de/wsdev/einfuehrung/css/selektoren

Tags: 
Bewertung: 
0
Bisher keine Bewertung

Boxmodell (CSS)

Bewertung: 
2
Durchschnitt: 2 (1 Stimme)

CSS-Selektoren Tutorial

Wozu sind Selektoren da?

Selektoren innerhalb einer CSS-Datei sprechen HTML-Tags an und weisen diesen Attribute (Farbe, Hintergrundfarbe, Textformatierung uswusf.) zu und geben dazu die entsprechenden Werte an.

Klingt gut, aber wie sieht so ein Selektor aus?

Die Syntax (Schreibweise) einer CSS-Regel ist wie folgt:

Selektor { Attribut: Wert; }

wobei man jedem Selektor auch mehrere Attribute zuweisen kann. Will man dies denn nun tun, so trennt man die einzelnen Attribute immer mit einem Semikolon voneinander ab.

Bsp.: Selektor { Attribut, Wert; Attribut: Wert; Attribut: Wert; … }

Welche Selektoren gibts denn so?

Der Universalselektor

Wie man ihn auch aus den SQL-Befehlen kennt, das *. Mit dem Sternchen (Asterisk) spricht man alle Elemente einer HTML-Datei an, das heißt, dass allen Elementen die Attribute zugewiesen werden, die man in so einer CSS-Regel notiert.

Bsp.: * { color: #fff; background-color: #000; }

Mit dieser CSS-Regel wird allen Elementen weiße Schriftfarbe und schwarze Hintergrundfarbe zugewiesen. Sinn macht das sicherlich keinen, es dient lediglich dem Zweck.

Der Tag- bzw Typ-Selektor

Will ich nun genauer vorgehen und nur bestimmte Elemente meiner HTML-Datei ansprechen, so kann ich dies indem ich zum Beispiel nur einer bestimmten Sorte von Tags Attribute zuweise. Das ist einfacher als einem Kind nen Lolli zu klauen, glaubt es mir:

Bsp.: h1 { color: #f00; font-size: 36px; font-weight: bold; }

So, damit haben wir jeder Überschrift höchster Ordnung (jedem Tag h1) die Werte "rote Farbe", "Schriftgröße 36 Pixel" und "Schriftschnitt fett" zugewiesen.

Der Klassen-Selektor

Jetzt wird es langsam spannender. Wir wollen jetzt eine Klasse definieren. Klassenselektoren kann man beliebig vielen Tags auf einer HTML-Seite zuweisen. Nehmen wir an, wir haben Überschriften zweiter Ordnung (h2) einmal in der linken Spalte einer Webseite auf weißem Hintergrund und einmal in der rechten Spalte auf schwarzem Hintergrund. Dumme Geschichte, denn wir haben ja vorher notiert:

h2 { color: #000; }

wodurch alle Überschriften der zweiten Ordnung nun schwarz sind und somit rechts nicht mehr lesbar.

Das Problem lösen wir einfach indem wir allen h2-Tags auf der rechten Seite folgenden Zusatz geben:

<h2 class="name">Überschrift</h2>

Jetzt können wir diese Überschriften gesondert ansprechen mit einem Klassenselektor:

.name { color: #fff; }

Die Notierung ist also ein Punkt und der Name, den man dem Tag als Wert zuweist. Der Name ist hierbei frei wählbar. Ob man also sinnvoll ausschreibt "rechts" bei unserem Beispiel oder "name" wie ich oder sowas schönes wie "mistmistmist" bleibt euch überlassen. Wichtig ist folgende Schreibweise:

.klassenname { Attribut: Wert; }

Der ID-Selektor

Wie der Klassenselektor kann man auch mit dem ID-Selektor einzelne Tags verändern, auch wenn man diese vorher schon mit einem Tag-Selektor verändert hat. Man sollte nur in das Tag des Elements das Attribut id notieren und sich wieder einen lustigen Namen einfallen lassen.

<h2 id="name">Noch eine Überschrift</h2>

Unterschiede zum Klassenselektor gibt es allerdings nicht nur in der Schreibweise! Oh ja, denn eine ID vergibt man nur ein einziges Mal in einer HTML-Datei. Wie auch in Datenbanken werden IDs nur einmal vergeben und damit hat sichs.

Merke: Klassen so oft man lustig ist, IDs nur ein einziges Mal vergeben.

Wie notiert man ID Selektoren nun in einer CSS-Datei? Ganz einfach:

#idname { Attribut: Wert; }

Also eine Raute mit dem ID-Namen, geschwungene Klammer und so weiter und so fort wie bisher.

Hier sind wir dann am Ende mit dem oberflächlichen Selektorengedönse angelangt. Ich werde auf Wunsch gerne noch erklären was Attributselektoren sind, wie man Kindselektoren notiert, welche Sonderzeichen es noch gibt neben Raute und Punkt und was diese dann so bewirken und was Pseudoselektoren sind (Letztere sind übrigens m.E. nicht zu verachten und sicherlich Prüfungsrelevant, bzw. kann ich mir nicht vorstellen, dass man die weglässt. Aber das weiß ja nur die zfa -__- ).

Pseudo-Selektoren

Wer da den Namen gewählt hat weiß ich nicht, aber er klingt sehr seltsam beim ersten Mal. Ein Pseudoselektor wird hinter einem Selektor angefügt und beschreibt bestimmte Zustände des Elements, welches man mit dem Selektor angesprochen hat.

Zum Beispiel haben Links vier verschiedene Zustände. Da wäre der "Normalzustand", wo der liebe Link einsam und allein auf der Website rumhängt und keiner mit ihm interagiert. Dies wäre der :link Zustand. Will man also diesem Zustand eines Links Eigenschaften zuweisen, macht man das so:

a:link { Attribut: Wert; }

Dann hätten wir noch die Links, welche schonmal besucht wurden. Sprich sie wurden bereits einmal vom Benutzer der Seite angeklickt und wechseln somit in den benutzten Zustand (klingt etwas schmutzig).

a:visited { Attribut: Wert; }

Der dritte Zustand ist der beliebte "Mouseover-Effekt" oder "Rollover-Effekt". Früher hat man sowas mit Javascript gelöst, heute geht das mit CSS viel einfacher:

a:hover { Attribut: Wert; }

Hierzu muss man sagen, dass es noch den zusätzlichen Zustand a:focus gibt, der für Barrierefreiheit und Menschen, die mit der Tastatur navigieren gedacht ist. Sprich, a:hover ist für Mausinteraktion und a:focus ist für Tastaturinteraktion (ganz grob formuliert).

a:focus { Attribut: Wert; }

Der vierte Zustand ist der aktive Zustand eines Links. Das wäre dann der Moment in dem der User ihn anklickt und direkt mit dem Link interagiert. Auch für diesen Zustand kann man Eigenschaften dem Link zuweisen, was über folgende CSS-Regel passiert:

a:active { Attribut: Wert; }

WICHTIG! Wenn man alle vier Zustände in einer CSS-Datei beschreibt, dann muss dies auch genau in der Reihenfolge passieren, die ich soeben verwendet habe. Warum das so ist? Wegen der Vererbung von Eigenschaften; Und glaubt mir, da wollt ihr nicht, dass ich zu detailiert werde, es ist einfach wichtig, dass die Reihenfolge eingehalten wird:

a:link,
a:visited,
a:hover,
a:focus,
a:active { Attribut: Wert; }
 
Es gibt noch weitere Pseudoselektoren, aber die werden die ZFA im allgemeinen Teil sicherlich nicht interessieren, vor allem da man diese erst "kürzlich" eingeführt hat in die Sprache CSS.

Kombinierte Selektoren

Wie ihr oben seht, habe ich die verschiedenen Selektoren durch Kommas getrennt und dann allen { Attribut: Wert; } zugewiesen und ja, das funktioniert auch. Zum Beispiel kann es ja sein, dass ich nicht will, dass all meine Überschriften fett geschrieben werden. Ich hab ne h1, ne h2 und ne h3 und alle drei sind se fett. Also notiere ich folgende CSS-Regeln:

h1 { font-weight: normal; }
h2 { font-weight: normal; }
h3 { font-weight: normal; }

Rischdisch? Ja, richtig, aber es geht viel einfacher mit einem "Kombiselektor":

h1, h2, h3 { font-weight: normal; }

Alle drei Überschriften sind nun nicht mehr fett, sondern normal ausgezeichnet und wir haben Platz, Zeit und Datenmenge bei der CSS-Datei gespart.

Kindselektoren (Sonderzeichen die Erste: ">")

Gerade haben wir etwas über die kombinierten Selektoren gelernt, nun kommen wir zu den Kindselektoren. Wie der Name bereits sagt, geht es darum Kinder von Elementen anzusprechen mit einer CSS-Regel um genau diese Kinder zu stylen.

Warum? Weil es ja sein kann, dass man für die komplette Seite festgelegt hat, dass alle Links rot und fett sein sollen, da man rot + fett = super findet. Jetzt haben wir aber auch eine super Navigationsleiste, welche rot hinterlegt ist und somit sieht man unsere Superlinks darauf nicht.

Was tun? Wir sprechen die Links in der Navigation gesondert an, indem wir einen Kindselektor schreiben. 

Bsp.: Vorausgesetzt wir haben einen Container (div) mit einer ID "nav" und haben darin die Navigation untergebracht in Form einer unsortierten Liste "ul", welche die Listenpunkte "li" enthält, welche wiederum die Links "a" enthalten, dann können wir diese Kindeskindeskindeskinder mit einer CSS-Regel direkt ansprechen:

#nav ul li > a:link { color: #000; }

Jetzt sind alle Links im Container "nav" mit der "ul" und den "li"s darin schwarz.

Ein einfacher Kindselektor wäre zum Beispiel:

body > p { Attribut: Wert; }

In diesem Fall stylen wir nicht den Body sondern alle Paragraphen, die Kindelemente des body-Tags sind. Andere Paragraphen auf der Seite, welche Kinder anderer Elemente sind, sind davon nicht betroffen! Klar soweit?

Elternselektor

Wäre sinnvoll, ne. Gibts aber nicht. Es gibt keine CSS-Regel mit einem "kleiner als" Klämmerchen und deswegen gibts da auch nix zu wissen. Weitergehen, es gibt hier nichts zu sehen!

Nachbarselektor (Sonderzeichen die Zweite: "+")

Ach, aber den gibts? Ja, den gibt es. Folgendes Beispiel macht das relativ eindeutig.

Bsp.:

<h2>Überschrift</h2>
<p>Erster Paragraph</p>
<p>Zweiter Paragraph</p>

Welch Dilemma, wir wollen nur den ersten Paragraphen verändern und den zweiten unberührt lassen. Wir machen wir das nun? Indem wir einen Nachbarselektor notieren:

h2 + p { Attribut: Wert; }

Damit sagen wir, dass nur Paragraphen, welche auf der gleichen Ebene wie das vorhergehende Element liegen angesprochen werden und diesem unmittelbar folgen.

 

Indirekter Nachbarselektor (Sonderzeichen zum Dritten: "~")

Einen hab ich noch! Und der inrekte Nachbarselektor funktioniert ähnlich dem Vorhergehenden.

Der Unterschied ist, dass nicht nur der erste Nachbar eines Elements angesprochen wird, sondern alle nachfolgenden Elemente gleichen Typs, welche Nachbarn auf gleicher Ebene zu dem Element sind.

Bsp.: Da nehmen wir das Beispiel von oben mit der Überschrift und den beiden Paragraphen nochmal. Nur das wir diesmal ein anderes Sonderzeichen in die CSS-Regel reinschreiben.

h2 ~ p { Attribut: Wert; }

Damit sind nun alle Paragraphen, welche dem h2-Element folgen angesprochen.

Attributselektoren (noch mehr Sonderzeichen: "[" und "]" und "=" und ")

Ja Himmel, hörts denn nicht bald auf? Nein, denn man kann Elemente eines HTML-Dokuments auch nach ihren Attributen ansprechen und umgestalten.

Wozu brauch ich das, wo ich doch IDs und Klassen und all die anderen Optionen habe? Dazu ziehen wir ein Beispiel zur Hand:

Wir haben eine Seite mit einem Formular für unsere Benutzer, mit dem sie uns mit ihren Adressdaten versorgen können, damit wir sie daheim besuchen und persönlich kennenlernen können. Wozu sonst benötigt man wohl Benutzerdaten? In diesem Formular haben wir Texteingabefelder für Vorname, Nachname und all die anderen Adressdaten, außerdem haben wir Checkboxen, wo sich unser Benutzer entscheiden kann, ob er vom Admin persönlich oder dem Designer der Seite besucht werden möchte. Schlussendlich dann natürlich noch den Absende-Button.

Jetzt findet der Designer die Standardoptik der Formularfelder und des Buttons endlangweilig. Ergo will er sie umgestalten. Das tut er über Attributselektoren. Jedes input-Feld hat sein persönliches Attribut. Zum Beispiel haben Absendebuttons immer das Attribut type="submit" und Texteingabefelder immer das Attribut type="text".

Man könnte natürlich hingehen und alle Inputfelder mit einem Typselektor ansprechen:

input { Attribut: Wert; }

aber viel mehr Sinn macht es doch, wenn wir die Textfelder vom Absendebutton trennen:

input[type="text"] { Attribut: Wert; }
input[type="submit"] { Attribut: Wert; }

Natürlich kann man jedwedes Element eines HTML-Dokuments auf diese Weise ansprechen. Zum Beispiel über das title-Attribut oder das alt-Attribut oder was einem sonst so einfällt. Ein letztes Beispiel, welches aber nur ganz eventuell vielleicht Sinn machen könnte:

Wir haben Bilder auf der Seite, denn Bilder sind hübsch. Einige haben eine Weite von 300 Pixeln (300px) andere dagegen sind breiter (600px). Jetzt wollen wir aber nur den schmaleren Bildern eine Eigenschaft zuweisen und nicht allen Bildern. Ergo folgende CSS-Regel mit einem Attributselektor:

img[width="300px"] { Attribut: Wert; }

Natürlich sind dies Beispiele, die ich nun zur Hand genommen habe, weil sie Sinn machen, es gibt auch einen simplen, standard, normalo Attributselektor, womit man Elemente anspricht, die ein bestimmtes Attribut beinhalten unabhängig vom Wert desselben:

img[width] { Attribut: Wert; }

Somit sind alle Bilder einer Seite, welche das Attribut width im Element notiert haben, angesprochen. Wichtig sind hierbei die eckigen Klammern, welche das Attribut beinhalten.

Fehler bitte melden/korrigieren und Fehlendes ergänzen. =)

Bewertung: 
4.75
Durchschnitt: 4.8 (4 Stimmen)

CSS-Box-Model

CSS-Box-Modell
eine CSS-Box definiert sich durch:
- Breite(width), Höhe(height), Rahmenlinie(border), Außenabstand(margin) zum umgebenden Kasten oder Browserfenster, Innenabstand(padding) zum Inhalt des Elements, farbigem Hintergrund(background-color)

Der Innenabstand: padding (Polsterung)
Nach dem Inhaltsbereich folgt in jeder Box der Innenabstand. Das padding liegt innerhalb der Box und übernimmt die Hintergrundfarbe des Inhaltsbereichs. Padding kann für alle vier Seiten einer Box einzeln definiert werden. Die Eigenschaften sollte jeder kennen, dennoch hier nochmal:
padding-top für oben
padding-right für rechts
padding-left für links
padding bottom für unten
Padding funktioniert übrigens bei Block und Inline Elementen absolut identisch

Der Rahmen drum herum: border (Rahmenlinien)
Um das padding legt sich der Rahmen (border), der Rand der Kiste, der eine eigene Breite, Linienart und Farbe annehmen kann (width, style, color).Die Eigenschaften hier heißen:
border-top
border-right
border-bottom
border-left
Der border ist sehr flexibel und kann für jede dieser vier Seiten eine gesonderte Breite, Linienart und Farbe erhalten. Die Regeln zur Erstellung von Rahmenlinien mit border gelten ohne Einschränkungen auch für Inline Elemente

Der Außenabstand: margin (Rand)
Jede Box kann einen Außenabstand (margin) haben, der ebenfalls für alle vier Seiten einzeln definiert werden kann:
margin-top
margin-right
margin-bottom
margin-left
Der Außenabstand liegt außerhalb der Box und übernimmt die Hintergrundfarbe des umgebenen Elements. margin darf im Gegensatz zu border und padding übrigens auch negative Werte haben.

 

Das Team der mediencommunity

Bewertung: 
0
Bisher keine Bewertung

CSS-Kaskadierung

Einführung in CSS-Kaskadierung: http://jendryschik.de/wsdev/einfuehrung/css/kaskade

Bewertung: 
0
Bisher keine Bewertung

Kaskade

Die CSS-Kaskade

Beginnen wir mit Ebene 1, der am wenigsten gewichteten Regel.

Ebene 1: Browser-Stylesheets

  • Browser definiert selbst gewisse Regeln, wie bestimmte Elemente auszusehen haben
  • Diese werden als erstes angewendet, werden aber auch am einfachsten bzw. als erstes überschrieben
  • Lehnen sich zum größten Teil an den Initialwerten der CSS-Empfehlung an
  • Unterscheiden sich leicht von Browser zu browser
  • Beispiel dafür ist der Standard-Abstand des <body> Elements zum Browserrand. Dieser muss – falls gewünscht – durch den Autor einer Webseite entfernt werden.

Ebene 2: User-Stylesheets

  • Einstellungen des Benutzers im Browser, die ebenfalls das Erscheinungsbild einer Webseite beeinflussen
  • Beispiel: die Definition einer bestimmten Schriftgröße.

Ebene 3: Autoren-Stylesheets

Dies sind die Stylesheets, die durch den Autoren – also durch den Entwickler – einer Webseite bei der Webseitenerstellung definiert werden.

Alle vom Autor definierten Stylesheets führen bei der Darstellung einer Webseite zu einem Gesamtstylesheet, in dem ebenfalls ein Element an mehreren Stellen, unterschiedliche Deklarationen bekommen kann, die sich überschneiden. Hier gilt: Je näher die Deklaration am Element ist, desto mächtiger ist sie.

Die Reihenfolge (in ihrer Priorität aufsteigend):

  1. externe CSS-Anweisungen
  2. interne CSS-Anweisungen
  3. style-Anweisungen direkt im Tag

Ebene 4: !important

Ist eine CSS-Deklaration mit dem Schlüsselwort “!important” versehen, wird sie immer den anderen Deklarationen bevorzugt. Sollten zwei Deklarationen mit “!important” versehen sein und auf ein Element zutreffen, gilt die zuletzt ausgegebene Deklaration.

Gewichtung der Selektoren durch die Spezifität

Doch auch unter den Selektoren gibt es bestimmte Prioritäten.
Um die Relevanz bzw. Priorität dieser Selektoren nun herauszufinden, wird ein Wert berechnet, der dessen Durchsetzungsfähigkeit festlegt. Dieser Wert lässt sich anhand eines Zahlenwertes ausdrücken, der mittels Tabelle errechnet wird.

  • A erhält den Wert 1, wenn die CSS-Deklarationen direkt im style-Attribut eines HTML-Elements notiert sind.
  • B ist die Anzahl der id-Attribute eines Selektors (“X#name”)
  • C ist die Anzahl aller anderen Attribute einschließlich Klassen und Pseudoklassen innerhalb des Selektors.
  • ist die Anzahl der Elementnamen und Pseudoelemente, die der Selektor beinhaltet.

 

Beispiele:

Selektor                 A               B               C               D

a:link                       0               0               1                1

.xyz                         0               0               1                0

#nav a.xyz              0               1               1                1

li a                           0               0               0                2

#nav li a                  0               1               0                2

Um die Spezifität nun als Wert vorliegen zu haben, werden die Zahlen der Reihe nach von Kategorie A bis Kategorie D hintereinander Weg geschrieben. Deklarationen mit einem höheren Wert (also einer höheren Spezifität) überschreiben die Deklarationen, mit einer niedrigeren Spezifität.

Im oberen Beispiel beschreiben alle Selektoren das gleiche Element:

<div id="nav">

<ul>

<li><a class="xyz" href="URL">Link</a></li>

</ul>

</div>

Die Deklarationen von “#nav a.xyz” treffen aufgrund der höheren Spezifität auf das Element zu und werden angewendet.

Sortierung nach Vorkommen

Haben zwei oder mehrere Selektoren die gleiche Spezifität und sprechen das gleiche Element an, so entscheidet die Reihenfolge der Vorkommens. Da Browser den Quelltext einer Seite von oben nach unten auslesen, zählt der zuletzt notierte Selektor.

 

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

CSS-Positionierung

Allgemeines:
Die Positionierung eines Elements bietet gestalterisch einen gewissen Spielraum.
So kann man mit einer gewissen Positionierung eines Elements andere Überlagern, per JavaScript bewegen lassen, oder einfach eine bestimmte Anordnung der Elemente festlegen.

Diese Angabe im CSS kann auf alle Elemente angewendet werden, ist nicht vererbbar und zeigt sich optisch im Browser.


Die vier Arten:
- static
- relative
- absolute
- fixed

 

static
Initialwert eines Elements.
Die Positionierung durch top,right,bottom und left ist hier unwirksam.
Elemente mit diesem Wert werden von links nach rechts und oben nach unten positioniert, also im Textfluß.

relative
Relative Positionierung im Textfluß.
Die Angaben top,right,bottom und left, verschieben dieses Element aus deren relativen Position und hat keinen Einfluss auf die nachfolgenden Elemente.

absolute
Absolute Positionierung eines Elements zum Eltern-Element, welches ebenfalls positioniert sein muss.
Diese Elemente liegen über alle anderen und haben keinen Einfluss auf die Positionierung der anderen.
Die Angaben top,right,bottom und left, positionieren dieses Element ausgehend vom Eltern-Element... dies kann z.B. ein anderes DIV oder der BODY Tag sein.

fixed
Wie absolute. Bis auf, dass sich das Element am Browserfenster orientiert und nicht mit gescrollt wird.
Man kennt diese Positionierung von fest positionierten Navigationen oder Werbebannern.

 

im CSS wird die Positionsart wie folgt bestimmt:

#beispiel {
   position: fixed;     <<< Art der Positionierung
   top: 10px;     <<< Abstand von oben
   left: 20px;     <<< Abstand von links
}

 

Positionierung durch "float":
Durch das Floaten von Elementen werden diese aus dem Textfluss genommen und verdrängen so nachfolgende Elemente mit ihrer Breite und Höhe und nicht in der gesamten Breite.
So können zum Beispiel Bilder von Texten umgeben werden.

Arten von float:
- left
- right

 Left positioniert das Element links im Eltern-Element und right tut dieses rechts im Eltern-Element.

#beispiel {
   float: left;
}

 

Weiterführende Links

http://little-boxes.de/lb1/IV-css-positionierung.html

http://de.selfhtml.org/css/eigenschaften/positionierung.htm

http://www.css4you.de/position.html

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

CSS-Sprites

Wie sehen Sprites eigentlich aus?
Auf der Startseite von www.spiegel.de seht ihr im großen Footer weitere Serviceangebote. Vor jedem dieser Service-Links steht ein kleines Icon. Alle Grafiken in einer einzigen  Datei zusammengefasst ergeben ein Sprite. Im Falle vom Spiegel-Footer sieht das dann so aus: http://www.spiegel.de/static/sys/v10/bg/bg_footer-partner-sprite.png

Wie wird das Sprite dann positioniert?
Gehen wir davon aus, wir haben eine DIV-Box mit der Abmessung von 30px x 30px. Wenn wir nochmal einen Blick auf das Spiegel-Sprite werfen sehen wir, dass diese Grafik wesentlich größer ist 30x30 px. Die "überstehenden Teile" der Grafik sind also nicht sichtbar da die DIV-Box zu klein ist. Und genau darin liegt die Idee: Ich verschiebe über die CSS-Eigenschaft "background-position" meinen Hintergrund so, dass nur der Ausschnitt sichtbar ist den ich sehen möchte und der Rest "abgeschnitten" wird.

Kann ich die einzelnen Icons kreuz und quer auf der Grafik platzieren?
Mit Sprites zu arbeiten bedeutet, dass ihr ein wenig rechnen müsst. Wollt ihr z.B. das 3. Icon von oben sehen, und jedes Icon ist 30px hoch, dann muss die Hintergrundgrafik 60px nach unten verschoben werden.

Und wie sieht der Quellcode dazu aus?
<div style="width:25px; height:30px; background-image:url(bg_footer-partner-sprite.png); background-position:0 -60px; background-repeat:no-repeat "></div>

OK, was bringt das Ganze?
Der Haupt-Sinn liegt darin, eine geringere Anzahl an requests zu erzeugen. Jedes mal wenn euer Browser eine Datei abruft (ein Bild, eine html-Datei, ein PDF, ...) stellt er eine Anfrage (request) an den Webserver. Z.B.: "Gib mir bitte die Datei logo.jpg"
Der Server antwortet (response): Hier ist die Datei logo.jpg.
Das "Frage-und-Antwort-Spiel" benötigt Zeit. Jedes Bild, jede CSS-Datei, jede JavaScript-Datei - alles wird beim Laden einer Seite separat angefragt. Durch das Zusammenfassen von Grafiken (Sprite) verringert man die Anzahl der Anfragen. Dadurch wird ein Geschwindigkeitsvorteilt erzielt.

Ist die Dateigröße eine Sprites größer oder kleiner als die Summe aus den Einzelgrafiken?
Das Ganze ist halt die Summe seiner Teile. Demnach macht es erstmal keinen Unterschied.
Trotzdem kann man etwas an Größe einsparen, in dem man Sprites farblich zusammenfast und z.B. als gif abspeichert.
Die Idee dahinter ist, beispielsweise alle roten Piktogramme zusammen zu fassen, das Rot anzugleichen und einschließend ein .gif mit 2 Farben zu speichern, da ein gif mit wenigen Farben kleiner ist als eins mit mehr Farben. Das selbe wiederholt man mit Grau, Blau, etc.

Sollte ich Sprites auf jeder Webseite einsetzen?
Tja, das hängt sehr mit der Projekt-Art und -Größe ab. Muss wirklich beim ersten Laden der Seite das E-Mail-Symbol in der Sprite-Grafik geladen werden, obwohl die Mailadresse nur im Impressum auftaucht? Auf den restlichen 600 Unterseiten erscheint diese Grafik nirgendwo. Habe ich sowieso nur spärlich hier und da mal ein Icon auf der Seite, lohnt sich der Mehraufwand dann wirklich?

Wann empfiehlt sich der Einsatz unbedingt?
Beim Hovern. Früher sah man häufig, dass eine Grafik, die beim Mousover wechseln sollte, nachladen musste. Das war unschön. Durch den Einsatz eines Sprites wird die Grafik direkt geladen und beim Hovern per CSS nur verschoben. Dies geschieht sofort, ohne dass irgend etwas nachgeladen werden muss.

Bewertung: 
5
Durchschnitt: 5 (2 Stimmen)

Media Query

Media Query gehört zum Themenbereich CSS und es geht dabei darum geräteabhängige darstellung von Website zu realisieren. Dass also der Gerätetyp erkannt wird und dann das passende CSS dazu angesteuert wird.

Weiterführende Links:

http://www.heise.de/ix/artikel/Allen-recht-1058764.html
https://developer.mozilla.org/en-US/docs/CSS/Media_queries
http://webmasterparadies.de/webdesign/246-responsive-webdesign-teil-2-media-queries-einrichten.html

Bewertung: 
0
Bisher keine Bewertung

Computersicherheit

Thema: Computerarbeitsplatz und Netzwerke nutzen, pflegen und konfigurieren: Computersicherheit

 

Datenschutz

Der Schutz vor unbefugten Zugriffen durch "Hacker" kann nur über Pass- und Codewörter erfolgen. Das ist keine vollkommene Sicherung, denn Passwörter können evtl. rekonstruiert oder ausspioniert werden.

Für den Umgang mit Passwörtern gelten folgende Regeln:

1. Passwörter in bestimmten, unregelmäßigen, nicht zu großen Abständen wechseln.

2. Passwörter dürfen nicht zu leicht zu rekonstruieren sein – Geburtsdaten und Namen sind ungeeignet, geeignet: sinnfreie Kombinationen, wie z. B. aPhJ68!kZ

3. Passwörter müssen trotzdem gut merkbar sein, denn sie sollten aus Sicherheitsgründen nicht aufgeschrieben werden (zumindest nicht digital)!

Sicherer als softwaremäßige Sicherung ist die Hardwaresicherung durch "Dongles". Diese elektronischen Hardwareschlüssel in Form von Steckern, die auf eine Schnittstelle des Computers gesteckt werden, eraluben den Zugriff auf bestimmte Programme und Daten.

 

Angriffe aus dem Internet

Während es noch vor einigen Jahren die lokalen Datenträger waren, die zur Verbeitung vono Computerviren geführt haben, ist es mittlerweile vorwiegend das Internet, über das sich Viren, Würmer, Trojaner und andere Schädlinge in oft rasender Geschwindigkeit verbreiten. Die Hauptgefahr geht hierbei von Email-Anhängen und von Sicherheitslücken der Webbrowser aus.

Schädlingsarten

Der Begriff "Viren" wird oft nicht ganz richtig als Oberbegriff für Schädlinge aller Art bezeichnet. Besser sollte hierbei von "Malware" (= Malicious Software, also bösartige Software) gesprochen werden. Ihre wichtigsten Vertreter sind:

  • Virus: Name kommt von den Viren aus der Biologie • kleine Programme, die sich zur Verbreitung an ein Wirtsprogramm hängen müssen • werden aktiv, wenn das Wirtsporgramm gestartet wird • Funktionsweise: Durch die Ausführung der infizierten Datei wird der Virus aktiv und führt seine vordefinierte Aufgabe aus, erst dann wird die eigentliche Anwendung gestartet • verschiedene Arten: gefährliche, die Daten von der Festplatte löschen und ungefährliche, die den Nutzer nur verärgern sollen • Lösung: Originalzustand der infizierten Dateien wieder herstellen • Beispiele: OneHalf, Tenga, Yankee Doodle
  • Wurm: Im Unterschied zum Virus kein Wirtsprogramm nötig • können sich selbständig vermehren und durch Emails verbreiten, weil sie Dateien als Anhang enthalten können • Funktionsweise: Wird der als Dateianhang getarnte Wurm durch Doppelklick gestartet, kann er sich z. B. an alle m Adressbuch gespeicherten Email-Adressen versenden -> Schneeballsystem: geht man pro Adressbuch von 20 Email-Adressen aus, dann werden im ersten Schritt 20, dann 400, 8.000, 160.000 usw neue Computer infiziert • Gefahren: Würmer können Dateien löschen, die Systemleistung beeinflussen oder Programme deaktivieren • Lösung: Alle betroffenen Dateien löschen, da sie sehr wahrscheinlich den Schadcode enthalten • Beispiele: Lovsan/Blaster, Bagle, Netsky
  • Trojaner: Name kommt vom "trojanischen Pferd": ein Programm, das nach außen sichtbar eine nützliche Funktion besitzt, z. B. ein kostenloses Update, während im Hintergrund seine schädlichen Funktionen gestartet werden • Aufgabe: sich leicht Zugang zum System verschaffen, um dort Schaden anzurichten • Verschiedene Arten: Downloader: ein bösartiges Programm zum Herunterladen von Schadsoftware, Dropper: Trojaner, der auf dem angegriffenen Computer Schadsoftware absetzt ("droppt"), Backdoor: Anwendung, die Angreifern Zugriff auf ein System verschafft um es zu kontrollieren, Keylogger: Program, das die Tastenanschläge eines Benutzers aufzeichnet und die Infos an den Angreifer sendet • Beispiele: NetBus, Trojandownloader, Slapper
  • Adware: Abkürzung für durch Werbung unterstützte Software und meint Programme, in denen Werbung gezeigt wird • öffnen häufig in Internetbrowsern neue Popup-Fenster mit Werbung oder ändern die Startseite des Browsers • nicht gefährlich, aber lästig • kann auch dazu dienen, Daten zu sammeln • wird oft mit Freeware installiert, kann aber abgewählt werden
  • Spyware: Fast alle Anwendungen zusammen, die vertrauliche Infos ohne das Wissen/Einverständnis des Benutzers versenden • Aufgabe: ähnlich wie Trojaner, den befallenen Rechner bzw das Nutzerverhalten auszuspionieren • Entwickler geben vor, mit diesen Programmen die Interessen/Bedürfnisse der Benutzer erkunden zu wollen • Ziel: möglichst viele Infos über das Nutzerverhalten sammeln • gesammelte Daten enthalten evtl. Sicherheitscodes, PINs, Kontonummern usw • Beispiele: Spyfalcon, Spy-Sherrif (getarnt als Spyware-Schutzprogramm, übt selbst Spyware-Funktionen aus) • Lösung: Spyware löschen, da diese evtl den Schadcode enthält

 

Sicherheit im Internet

Welche Möglichkeiten (über die Verschlüsselung hinaus) gibt es, um ein Netzwerk vor fremden Zugriff zu schützen?

  • Keine Standartpasswörter verwenden
  • Konfiguration nur über Kabel ermöglichen
  • Netzwerk unsichtbar machen (WLAN)
  • Geräte im Netzwerk beschränken
  • Name des Gerätes ausblenden

 

Unterschied Antivirusprogramm und Firewall

Antivirusprogramm: Schützt den Computer vor Malware. Im Internet finden sich zahlreiche Anbieter von Antivren-Software, die ihre Programme teilweise kostenlos, teilweise gegen Gebühr anbieten, z. B. AntiVir, Avast, Norton Antivirus, Kaspersky Antivirus. Problematisch bei der Verwendung aller Virenscanner ist, dass diese immer nur die ihnen bekannten Viren erkennen und entfernen können. Insofern ist er unerlässlcih, in regelmäßigen Abständen die aktuellste Version oder Virenliste runterzuladen

Firewall: Alle Schutzmaßnahmen, die einen unerlaubten Zugriff von außen auf ein privates Netzwerk verhindern.Sie überprüft die eintreffenden Datenpakete, z. B. hinsichtlich Quell- und Zieladresse, Eine Firewall sollte auch die den Rechner verlassenden Daten prüfen, da sich bereits schädliche Software im System befinden könnte. So kann eine Firewall auch Spyware entdecken. Angreifer aus dem Netz (Hacker) werden damit abgewehrt. Durch Freigaben kann man vertrauenswürdige und bekannte Anwendungen zulassen.

 

Gefahrenquelle E-Mail

Emails sind die größte Gefahr für die Infektion eines Rechners mit einem Virus, Wurm, Trojaner oder ähnlichem. Der grund für die große Gefahr sind nicht die Textdateien selbst, sondern potenzielle Dateianhänge, da diese Dateien ausführbare Programme enthalten können. Da sich Dateiendungen unter Windows ausblenden lassen, sind die Endungen unter Umständen gar nicht sichtbar. Ein Trick besteht darin, dass eine Datei eine falsche Dateiendung vorgibt: Hinter der Datei "Brief.txt.vbs" verbirgt sich scheinbar eine Textdatei, tatsächlich aber eine VisualBasic-Script-Datei)

Anti-Spyware: Durchsucht den Rechner nach Programmen, die zum Ausspionieren des Systems dienen. Aus der Absenderadresse der Email kann längst nicht mehr gefolgert werden, ob diese Mail vertrauenswürdig ist, oder nicht, Grund ist die bereits erwähnte Verbindung von Würmern unter Zuhilfename des Adressverzeichnisses. Die Email eines Freundes ist mit einem durchaus plausibel klingenden Betreff kann also eine Falle sein und nach dem Doppelklick auf den Anhang ist es schon zu spät...

Spam: Spam-Mails machen ca. 70 % des gesamten Email-Verkehrs aus und verursachen damit einen enormen wirtschaftlichen Schaden. Dennoch sind Spam-Mails, wenn es sich um reine Textdateien handelt, zwar lästig, aber ungefährlich. Gefährlich sind sogenannte "Backdoor"-Programme, die einen extrenen Zugriff auf den Rechner erlauben.Tückisch sind auch "Keylogger", die als PC-Wanzen sämliche Tastatureingaben protokollieren und somit zur Entschlüsselung von Benutzernamen und Passwörtern dienen. Die wichtigste Regel im Umgang mit Emails: Keine Dateianhänge öffnen, wenn es sich um ausführbare Dateien handelt, z. B. .exe, .com, .vbs oder oder oder

Wichtigste Maßnahme zur Vermeidung von Infektionen ist eine gesunde Skepsis gegenüber alle eingehenden Mails. Rufen Sie ggf. den Absender an, bevor Sie einen vermeintlich unsicheren Anhang öffnen. Maßnahme zur Spam-Vermeidung: Ist die Angabe einer Kontaktadresse erforderlich, kann sie verschlüsselt erfolgen, z. B. durch Ersetzen des @-Zeichens: name(at)firma.de oder indem sie als GIF-Grafik gespeichert wird

Phishing-Mails: Emails mit dem Ziel, Zugangsdaten zu eBay, Homebanking o. ä. auszuspionieren. Vorgehensweise: Durch eine plausibel klingende Mail wird der Nutzer dazu veranlasst, einen Textlink anzuklicken, der auf eine vermeintlich seriöse Seite führt. Dort wird er aufgefordert, sich beim jeweiligen Dienst anzumelden – Schon sind die Zugangsdaten erfasst. Wichtigste Regel: Niemals auf Textlinks klicken, auch wenn es sich um scheinbar seriöse Links handelt.

 

Sicherheit unter Mac OS X

Auch unter Mac OS X gibt es Schädlinge, allerdings in wesentlich geringerer Zahl als bei den Windows-Betriebssystemen. Gründe: relativ geringe Verbreitung des Macs -> keine lohnenswerte Zielgruppe, gute Schutzmechanismen, die den Zugriff auf bestimmte Bereiche verhindern. Doch auch hier: Vorsicht ist besser als Nachsicht, deshalb sollte die hauseigene Firewall in jedem Fall aktiviert und Antivirensoftware eingesetzt sein!

 

Sicherheit unter Windows XP

Benutzerverwaltung: Hauptproblem in Punkto Sicherheit: die Nutzer besitzen nach der Installation Administratorenrechte und können sämtliche Änderungen am Betriebssystem vornehmen.Wer sich jedoch als Admin im Internet bewegt, öffnet damit einfallenden Schädlingen Tür und Tor, denn ein schädliches Programm kann nun ebenfalls an beliebiger Stelle ins Betriebssystem eingreifen.Um diese Sicherheitslücke zu schließen, muss man sich als Benutzer und damit auch potenziellen Schädlingen die Zugriffsrechte einschränken.

Service Pack 2: Eine weitere Forderung ist die Installation des "Service Pack 2", da Microsoft hiermit den Schutz des Betriebssystems deutlich verbessert hat: Neben dem Schließen vieler Sicherheitslücken, stellt Win XP ein Sicherheitscenter zur Verügung: beeinhaltet eine Firewall, integriert eine installierte Antiviren-Software, automatische Updates -> Sicherheitsupdates, ohne dass sich der Nutzer darum kümmern muss.

Internet Explorer und Outlook: Wegen der hohen Verbreitung des Webbrowsers Internet Explorer und der Email-Software Outlook haben sich viele Virenschreiber auf die Sicherheitslücken der beiden Produkte spezialisiert. Am besten auf diese beiden Produkte verzichten, oder mit den diversen Sicherheitseinstell-ungen beschäftigen um eine Infektion unwahrscheinlicher werden zu lassen -> Kontrollmöglichket von ActiveX (zur Einbindung interaktiver und multimedialer Komponenten auf Webseiten, wie die Steuerung eines Videos).

 

Sicherheit ab Windows Vista

Vista besitzt ein völlig neues Sicherheitskonzept. Eine wesentliche Neuerung: die Zugriffsrechte von Nutzern sind von Anfang an deutlich eingeschränkt, sogar Admins. Nach dem Motto: Wenn die Nutzer selbst keine rechte haben, gilt dies auch für Angreifer von außen. Eine zweite Maßnahme: vor dem Zugriff auf wichtige Systemdateien wird zunächst eine Kopie erstellt und nur in dieser Kopie werden Änderungen vorgenommen, die Originaldateien bleiben erhalten und unverändert. Der neue Internet Explorer 7 hat einen Phishing-Filter und auch beim Nachfolger von Outlook sollen frühere Sicherheitsmängel beseitigt worden sein und Spam- oder Phishing-Mails erkannt werden.

 

 

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Cookies

1.    Cookie

Ein Cookie [ˈkʊki], auch Magic Cookie (vom englischen Wort für Plätzchen bzw. magisch. Deutsche Entsprechung: Profildatei) ist ein kurzer Eintrag in einer meist kleinen Datenbank bzw. in einem speziellen Dateiverzeichnis auf einem Computer und dient dem Austausch von Informationen zwischen Computerprogrammen oder der zeitlich beschränkten Archivierung von Informationen. Ein Cookie besteht aus mindestens zwei Bestandteilen, seinem Namen und dem Inhalt oder Wert des Cookie. Außerdem können Angaben über den zweckmäßigen Gebrauch vorhanden sein. Die Datenbank kann oft vom Benutzer des Computers ohne besondere Hilfsmittel nicht eingesehen oder verändert werden.

Von Anwendungsprogrammen oder Teilen oder Erweiterungen des Betriebssystems eines Computers, die einen Dienst zur Verfügung stellen, kann ein Cookie zum Beispiel beim Start des Programms gesetzt werden. Anderen Programmen wird so bekannt, dass sie diesen Dienst in Anspruch nehmen können, wenn sie in der Datenbank den vorher vereinbarten Namen des Cookie finden. Der Wert des Cookie enthält dabei typischerweise eine Speicheradresse, über die Funktionen des Dienstes zugänglich sind. Datenbanken dieses Typs heißen Cookie Jar.

Webbrowser stellen eine Cookie-Datenbank zur Verfügung, die Cookie Cache genannt wird; dort kann der Webserver einer besuchten Webseite Informationen in Form von HTTP-Cookies hinterlegen und bei einem Wiederbesuch der Seite auslesen.
Viele Webseiten hinterlegen ein solches Cookie, um die Nutzer bei erneuten Einloggen wiedererkennen zu können (und z.B. dann andere Werbung einzublenden oder dem Besucher Funktionalitäten bereitzustellen, die dieser nutzen möchte).
Cookies sind eine nachträgliche Erfindung; ursprünglich war das Internet zum Austausch von Daten unter Wissenschaftlern gedacht. Es war also nicht nötig, sich gegenüber dem Server zu identifizieren. Später wurden Anwendungen erfunden, die dies erforderlich machten. Da das ursprüngliche Protokoll so etwas nicht vorsah, hat das Team von Netscape, deren Browser und Server seinerzeit den Markt dominierten, kurzerhand diese Funktionalität erfunden, die dann von anderen Browsern übernommen wurde, weil sie auf elegante Weise das Problem löste. In der Öffentlichkeit wurden Cookies lange Zeit kontrovers diskutiert. In der heutigen Wahrnehmung sind Cookies neutrale "Werkzeuge" im Datenverkehr.

Ein häufiges Beispiel für notwendige Cookies sind Foren. Jeder (angemeldete) Benutzer muss die Möglichkeit haben, Beiträge abzuliefern und nachträglich zu redigieren. Dies ist nur möglich mit Cookies. Dort findet sich oft die Möglichkeit, „eingeloggt zu bleiben“. Dabei wird ein Cookie abgelegt, das eine entsprechende Laufzeit hat und bei erneutem Besuch der Seite immer noch gültig ist, daher ausgelesen und ausgewertet werden kann. Auch Shops basieren häufig auf Cookies, die den Warenkorb steuern. Sollte eine solche "Sitzung" ausgelaufen sein, muss sich der Benutzer erneut einloggen, sich also gegenüber dem Server identifizieren. Das Ergebnis der Prüfung wird im Cookie abgelegt.

1.1.    Herkunft der Bezeichnung
Eine mögliche Erklärung für die Bezeichnung "(Magic) Cookie" ist der Comic "Odd Bodkins" von Dan O'Neill, der in den 1960'ern in der Zeitung San Francisco Chronicle erschien: Einige der Charaktere aßen "Magic Cookies" von dem "Magic Cookie Bush" (vermutlich ein Euphemismus für LSD), unter deren Einfluss sie in das "Magic Cookie Land" gelangten. Somit sind Cookies analog zu den verzehrten Plätzchen eine Art Wertmarke für einen ganzen Sinnzusammenhang oder ein Erlebnis.

2.    HTTP-Cookie
Ein HTTP-Cookie, auch Browser-Cookie genannt ([ˈkʊki]; engl., „Plätzchen“, „Keks“), bezeichnet Informationen, die ein Webserver zu einem Browser sendet oder die clientseitig durch JavaScript erzeugt werden. Der Client sendet die Informationen in der Regel bei späteren Zugriffen an denselben Webserver im Hypertext-Transfer-Protocol-Header an den Server. Cookies sind clientseitig persistente/gespeicherte Daten.
HTTP-Cookies sind eine spezielle Form der allgemeinen Magic Cookies. Sie ermöglichen das clientseitige Speichern von Information, die auch vom Server stammen können und die bei weiteren Aufrufen für den Benutzer transparent an den Server übertragen werden. Dadurch erleichtern Cookies die Benutzung von Webseiten, die auf Benutzereinstellungen reagieren oder den Aufbau von Sitzungen. Dieses Konzept wurde ursprünglich von Netscape entwickelt und in RFC 2109 spezifiziert.

 

2.1.    Funktionsweise
Cookies werden in den Kopfzeilen (Header) von Anfragen und -Antworten via HTTP übertragen. Cookies entstehen, wenn bei einem Zugriff auf einen Webserver neben anderen HTTP-Kopfzeilen in der Antwort zusätzlich eine Cookie-Zeile übertragen wird (siehe Aufbau). Diese Cookie-Informationen werden dann lokal auf dem Endgerät gespeichert, üblicherweise in einer Cookie-Textdatei. Bei nachfolgenden weiteren Zugriffen auf den Webserver wird der eigene Browser alle Cookies in dieser Datei heraussuchen, die zum Webserver und Verzeichnispfad des aktuellen Aufrufs passen, und schickt diese Cookie-Daten im Header des HTTP-Zugriffs mit zurück, womit die Cookies jeweils an jenen Webserver zurückgehen, von dem sie einst stammten.
Ein Cookie kann beliebigen Text enthalten, kann also neben einer reinen Identifikation auch beliebige Einstellungen lokal speichern, jedoch sollte seine Länge 4 KB nicht überschreiten, um mit allen Browsern kompatibel zu bleiben. Die Cookies werden mit jeder übermittelten Datei übertragen, also auch mit Bilddateien oder jedem anderen Dateityp; dieses gilt insbesondere für eingebettete Elemente wie Werbebanner, die von anderen Servern eingebunden werden als dem Ursprung einer angezeigten HTML-Datei. So kann eine einzelne Webseite zu mehreren Cookies führen, die von verschiedenen Servern kommen und an diese jeweils wieder zurückgeschickt werden; mit einer Anfrage des Browsers werden alle den Server betreffenden Cookies gesendet.
Cookies werden ausschließlich vom Client verwaltet. Somit entscheidet der Client, ob z. B. ein Cookie gespeichert wird oder die vom Webserver gewünschte eingeschränkte Lebensdauer des Cookies durch Löschung ausgeführt wird.

Gängige Browser erlauben dem Nutzer meist einschränkende Einstellungen zum Umgang des Client mit Cookies, z. B.:

  1. Keine Cookies annehmen.
  2. Nur Cookies des Servers der aufgerufenen Seite annehmen (keine Cookies von Drittservern wie bei Werbebannern).
  3. Benutzer bei jedem Cookie fragen.
  • hier kann dann meist zwischen „erlauben“ (bleibt), „für diese Sitzung erlauben“ (wird immer angenommen, aber nach dem Schließen des Browsers gelöscht) und „ablehnen“ (nicht akzeptieren) gewählt werden, wobei die gewählte Option gespeichert wird
  • Alle Cookies bei Beendigung des Client löschen („Sitzungs-Cookie“).

Dazu erlauben einige Browser verwaltende Aktionen wie:

  • Daten im Cookie ansehen.
  • Einzelne oder alle Cookies löschen.

Ob ein Cookie angenommen (clientseitig gespeichert) wurde, muss die serverseitige Anwendung in weiteren HTTP-Anfragen erkennen, da vom Client keine Rückmeldung erfolgt.
Der Server kann ein Cookie durch Überschreiben mit leeren Daten löschen.

2.2.    Verwendung
Eine typische Anwendung von Cookies ist das Speichern persönlicher Einstellungen auf Websites, zum Beispiel in Foren. Damit ist es möglich, diese Website zu besuchen, ohne jedes Mal die Einstellungen erneut vornehmen zu müssen.
Mit Cookies können auch Sitzungen realisiert werden. Das HTTP ist per Definition ein zustandsloses Protokoll, daher ist für den Webserver jeder Zugriff völlig unabhängig von allen anderen. Eine Webanwendung, die sich über einen längeren Zeitraum hinzieht, muss mit Zusätzen auf der Anwendungsschicht (im Browser) arbeiten, um den Teilnehmer über mehrere Zugriffe hinweg identifizieren zu können. Dazu wird in einem Cookie vom Server eine eindeutige Session-ID gespeichert, um genau diesen Client bei weiteren Aufrufe wieder zu erkennen und damit nicht bei jedem Aufruf einer Unterseite das Passwort erneut eingegeben werden muss.

Auch Online-Shops können Cookies verwenden, um sitzungslose virtuelle Einkaufskörbe zu ermöglichen. Der Kunde kann damit Artikel in den Einkaufskorb legen und sich weiter auf der Website umschauen, um danach die Artikel zusammen online zu kaufen. Die Artikel-Kennungen werden in einem Cookie gespeichert und erst beim Bestellvorgang serverseitig ausgewertet.

Damit bei Webanwendungen Benutzeraktionen und -eingaben, die für den Server bestimmt sind, bei Abbrüchen der Verbindung zum Server zum Beispiel in Mobilfunknetzen nicht verloren gehen, können Cookies zur Zwischenspeicherung eingesetzt werden. Sie werden dann bei Wiedererrichtung der Verbindung automatisch zum Server geschickt. Die Webanwendung erkennt dabei die Reihenfolge, in der die Cookies erzeugt wurden, und markiert bereits verarbeitete Cookies oder löscht deren Inhalt. Weil bei dieser Verwendung unter Umständen viele Cookies erzeugt werden, die frühestens beim Schließen des Browsers gelöscht werden, der Speicherplatz des Browsers für Cookies aber beschränkt ist, muss die Webanwendung Vorkehrungen gegen einen Cookie-Überlauf treffen.[1]

 

2.3.    Gefahren
Die eindeutige Erkennung kann für Zwecke eingesetzt werden, die von vielen Benutzern als missbräuchlich angesehen werden. Cookies werden z. B. dafür verwendet, Benutzerprofile über das Surfverhalten eines Benutzers zu erstellen. Ein Online-Shop kann z. B. diese Daten mit dem Namen des Kunden verknüpfen und zielgruppenorientierte Werbemails schicken. Jedoch kann der Online-Shop nur das Surfverhalten innerhalb seiner eigenen Webseite verfolgen.

Server, die nicht identisch mit dem Server der aufgerufenen Webpage sind, können z. B. mit Bilddateien (Werbebanner oder auch Zählpixel) auch so genannte „serverfremde“ Cookies setzen. Diese werden aufgrund ihrer Verwendung auch als „tracking cookies“ bezeichnet (englisch für Verfolgen). Gegebenenfalls kann so der Besuch unterschiedlicher Websites einem Benutzer zugeordnet werden. Es entsteht eine „serverübergreifende“ Sitzung. Daraus kann auf die Interessen des Besuchers geschlossen und Websites entsprechend angepasst („personalisiert“) werden. Bei einer Bestellung in einem Webshop etwa werden die angefallenen Daten naturgemäß einer konkreten Person zugeordnet.

Denkbar wäre ein potentieller Missbrauch bei einer möglichen Kooperation zwischen dem Webshop und dem Werbeunternehmen; diese kann verhindert werden durch eine entsprechende Browser-Einstellung, die nur Cookies des Servers der aufgerufenen Seite (Webshop) annimmt, nicht die der fremden Server, die die Werbung einblenden. Wirbt der Webshop allerdings selber, könnte diese zielgerichtete Werbung so nicht verhindert werden, aber sogar nützlich sein. Amazon wertet bekanntlich die Bestellhistorien der Käufer systematisch aus, um auch unbekannten Besuchern konkrete Vorschläge zu machen.

Noch nicht zu übersehen sind die Gefahren, die dadurch entstehen, dass Großunternehmen wie Google, deren Dienste praktisch jedermann ständig nutzt, sich vorbehalten, die dadurch entstehenden Daten auf unbegrenzte Zeit zu bevorraten und auszuwerten. Um Daten über das Nutzerverhalten zu sammeln, ist man nicht auf Cookies angewiesen. Das Problem ist also wesentlich allgemeinerer Natur.
In Umgebungen, in denen sich mehrere Nutzer denselben Rechner teilen, etwa in Schulen oder Internet Cafés, besteht allerdings die ganz konkrete und offensichtliche Gefahr, dass ein noch gültiger Sitzungs-Cookie vom nächsten Nutzer des Rechners verwendet wird, um diese Sitzung fortzusetzen. Dieses Risiko kann verhindert werden, indem man grundsätzlich alle Cookies vor dem Beenden des Browsers löscht oder eine entsprechende Browser-Einstellung nutzt. Das wäre die Aufgabe des Administrators. Infolgedessen kann man an öffentlichen Plätzen, etwa Bibliotheken oder Universitäten, üblicherweise keine permanenten Cookies hinterlassen.

 

2.4.    Erlauben oder Sperren?
Ein Kompromiss zwischen den Vor- und Nachteilen von Cookies kann erzielt werden, indem man seinen Browser so konfiguriert, dass persistente Cookies nicht oder nur gegen Rückfrage zugelassen werden, was z. B. die Erstellung von Benutzerprofilen erschwert, und Sitzungs-Cookies automatisch zugelassen werden, z. B. für Webeinkäufe, Passwörter. Außerdem bieten die meisten Browser die Möglichkeit, Cookies selektiv für bestimmte Domänen zu erlauben bzw. zu sperren oder nach dem Surfen automatisch zu löschen, wie es automatisch bei Sitzungs-Cookies geschieht. Auch ist es möglich, serverfremde Cookies automatisch abzuweisen, über die ein Dritter, etwa ein Werbepartner der Internet-Seite, das eigene Verhalten über mehrere Server hinweg aufzeichnen könnte.

Es ist auch möglich, Cookies automatisch beim Schließen des Browsers durch diesen löschen zu lassen. Damit werden Probleme mit Mehrbenutzersystemen weitgehend vermieden und die Überwachung des Benutzers durch Cookies wird zumindest eingeschränkt. Zugleich verzichtet der Benutzer damit auf alle Vorteile, die Cookies gewähren; er muss sich also zwangsweise bei der nächsten Sitzung überall wieder neu einloggen. Das führt aber zu neuen Sicherheitsproblemen, denn die Benutzer neigen dazu, überall dasselbe Passwort zu verwenden, da sich niemand eine Vielzahl von Passworten merken kann. Selbst die Benutzung von mehreren Passworten führt dazu, dass der Benutzer gegebenenfalls alle ausprobiert und sie damit gegenüber der betreffenden Webseite preisgibt.

Des Weiteren bieten moderne Browser die Möglichkeit, Funktionen über kleine Zusatzprogramme (Add-Ons) nachzurüsten. So ist es beispielsweise bei Firefox nach Installation eines auf diese Funktion ausgelegten Add-Ons per Klick auf eine Schaltfläche möglich, Internetseiten die Erlaubnis zu geben, Cookies zu speichern[2][3][4] bzw. sogar selbst den Inhalt der Cookies zu manipulieren[5]. Das ermöglicht es, dass man die Cookies generell deaktiviert lassen kann und sie nur dann zu erlauben, wenn die Internetseite nicht richtig funktioniert oder man sich bei einem Onlinedienst anmelden will.

2.5.    Aufbau
Ein Cookie besteht aus einem Namen und einem Wert sowie mehreren erforderlichen oder optionalen Attributen mit oder ohne Wert. Einige Attribute sowie deren Einschließen in Hochkommas werden empfohlen.

  1. Name - erforderlich –Beliebiger Name und Wert aus ASCII-Zeichen die vom Server übergeben werden
  2. Version - erforderlich – Gibt die Cookie-Management-Spezifikation in einer Dezimalzahl an (derzeit immer 1).
  3. Expires - optional – Ablaufdatum, Zeitpunkt der automatischen Löschung in UTC für HTTP/1.0
  4. Max-age - optional – Ablaufzeit in Sekunden – 0 für sofortige Löschung. Der Client darf den Cookie auch nach dieser Zeit benutzen, der Server kann sich also nicht darauf verlassen, dass der Cookie nach dieser Ablaufzeit gelöscht wird.
  5. Domain - optional – Domain oder Bestandteil des Domainnamens, für den der Cookie gilt
  6. Path - optional – Gültigkeits-Pfad (Teil der Anfrage-URI), um die Gültigkeit des Cookies auf einen bestimmten Pfad zu beschränken
  7. Port - optional – Beschränkung des Ports auf den aktuell verwendeten oder auf eine Liste von Ports
  8. Comment - optional – Kommentar zur näheren Beschreibung des Cookies
  9. CommentURL- optional – URL unter welcher eine Beschreibung zur Funktionsweise zu finden ist
  10. Secure - optional – Rücksendung des Cookie nur „geschützt“ (wie ist nicht weiter spezifiziert). Die meisten HTTP-Clients senden einen „sicheren“ Cookie nur über eine HTTPS-Verbindung. Das Attribut hat keinen Wert.
  11. Discard - optional – Unbedingt Löschung des Cookies bei Beendigung des Webbrowsers.

2.5.1.    Funktionsweise – ein Beispiel
Szenario: Eine Webseite bietet eine Suchfunktion an, die sich an den zuletzt eingegebenen Suchbegriff erinnern kann, selbst wenn der Benutzer zwischenzeitlich den Browser beendet. Dieser Suchbegriff kann nicht auf dem Server gespeichert werden, da der Server dazu den Besucher eindeutig identifizieren müsste, und das geht mit reinem HTTP nicht. Deshalb soll der zuletzt eingegebene Suchbegriff vom Browser des Besuchers (in einem Cookie) gespeichert werden.
Wenn der Besucher die Suchfunktion zum ersten Mal aufruft (hier mit dem Suchbegriff „cookie aufbau“), schickt er folgende Anfrage an den Server:
GET /cgi/suche.py?q=cookie+aufbau HTTP/1.0
Der Server antwortet mit dem Suchergebnis und bittet den Browser mit der „Set-Cookie“-Zeile, sich den letzten Suchbegriff zu merken:

HTTP/1.0 200 OK
Set-Cookie: letzteSuche="cookie aufbau";
            expires=Tue, 29-Mar-2005 19:30:42 GMT;
            Max-Age=2592000;
            Path=/cgi/suche.py;
            Version="1"

(Normalerweise stehen alle Eigenschaften des Cookies in einer einzigen Zeile. Zur besseren Lesbarkeit steht hier jedoch nur ein Attribut pro Zeile.) Der Cookie hat die folgenden Eigenschaften:

  • Nutzdaten (letzteSuche): Der letzte Suchbegriff
  • Ablaufdatum (expires): Der Cookie wird nur in Anfragen mitgeschickt, die vor dem 29. März 2005 passieren.
  • Maximalalter (Max-Age): Der Cookie wird nur in den folgenden 30 Tagen mitgeschickt, später nicht mehr.
  • Teilbereich der Webseite (Path): Der Cookie wird nur an die Suchmaschine (/cgi/suche.py) geschickt, da alle anderen Teile der Webseite die Information nicht brauchen.

Zusätzlich zu der Pfad-Einschränkung wird der Cookie auch nur an den Server zurückgeschickt, von dem er gekommen ist. Dies wird durch die fehlende „Domain“-Variable erreicht.

Bei jeder weiteren Suchanfrage schickt der Browser nun, wenn er den Cookie akzeptiert, diesen an den Server zurück. Das sieht dann so aus:

GET /cgi/suche.py?q=12345 HTTP/1.0
Cookie: letzteSuche="cookie aufbau"; $Path=/cgi/suche.py; $Version="1";

Allen Eigenschaften des Cookies ist ein „$“ vorangestellt, mit Ausnahme der Nutzdaten (hier: letzteSuche). Der Server hat jetzt also die Information über den aktuellen Suchbegriff (12345) und den letzten (cookie aufbau). Zwischen diesen beiden Suchanfragen kann eine Zeit von bis zu 30 Tagen (Ablaufdatum) liegen.

 

2.5.2.    Browseranforderungen
Nach RFC 2965 soll ein Browser Folgendes unterstützen:

  • Es sollen insgesamt mindestens 300 Cookies gespeichert werden können.
  • Es sollen pro Domain mindestens 20 Cookies gespeichert werden können.
  • Ein Cookie soll mindestens 4096 Bytes enthalten können.

Manche Browser können mehr Cookies und/oder auch Cookies mit längeren Zeichenketteninhalten verarbeiten, garantiert ist dies aber nicht. Umgekehrt halten sich aber auch nicht alle Browser an alle Anforderungen.

3.    Flash-Cookie
Flash-Cookies oder Local Shared Objects (LSO) stellen eine neue Art der Speicherung von Benutzerdaten auf dem surfenden PC durch Nutzung des Adobe Flash Players dar.
Im Gegensatz zu Browser-Cookies (HTTP-Cookies) ermöglicht diese Technik den Webseiten, Inhalte browserunabhängig und ohne Verfallsdatum auf dem Rechner des Webseitenbetrachters zu speichern. So werden Inhalte, die beim Betrachten eines Flash-Films mit einem Browser (z. B. Firefox) geschrieben wurden, auch beim Betrachten der Internetseite mit einem anderen Browser (z. B. Windows Internet Explorer) an den Server gesendet.
Problematisch ist der Umstand, dass diese LSOs nicht von der Cookieverwaltung des Browsers administriert werden und bei Bedarf manuell oder per Software (Flash-Cookie-Killer, Flash-Cookie-Manager, CCleaner) gelöscht werden müssen. Für den Browser Firefox gibt es u. a. dazu inzwischen eine Browsererweiterung[1]. Die Speicherung von LSOs lässt sich auch mit dem Einstellungsmanager des Flash-Players konfigurieren, der allerdings nur online über die Adobe-Website zugänglich ist.[2]
Der Speicherort der LSOs unter Microsoft Windows ist
%AppData%\Macromedia\Flash Player\#SharedObjects

Dieser Ordner ist in den Einstellungen des persönlichen Profils zu finden. Unter Windows XP normalerweise:
C:\Dokumente und Einstellungen\Username\

Bei Windows Vista finden sich die Flash-Cookies unter:
C:\Benutzer\USERNAME\%AppData%\Roaming\Macromedia\Flash Player\#SharedObjects

Der Ordner %AppData% ist standardmäßig unter Windows XP und Vista nicht sichtbar. Die Sichtbarkeit des Ordners kann über die Ordnereinstellungen geändert werden.

Der Speicherort der LSOs unter Mac OS X ist
~/Library/Preferences/Macromedia/Flash Player/#SharedObjects

Unter anderen unixartigen Betriebssystemen wie Linux und Solaris befinden sich die Dateien unter
~/.macromedia/Flash_Player/#SharedObjects

4.    Ohne Cookies kein korrektes Tracking
Ein sauberes Tracking ist die Grundlage jeder Web-Analyse. Je genauer sich die einzelnen Nutzer und Ihr Verhalten abbilden läßt, umso paßgenauer kann die Web-Site optimiert werden. Mit Hilfe von Cookies lassen sich Nutzer klar identifizieren und die erhobenen Daten lassen sich einer konkreten Sitzung zuordnen

4.1.    Tracking-Szenarios
Um einen Nutzer/Besucher Ihrer Web-Site klar identifizieren und verfolgen zu können, brauchen Sie eine besucherspezifische Kennung, die sich über den gesamten Besuchszeitraum nicht verändert.
Es gibt mehrere Methoden dies technisch zu bewerkstelligen; die am häufigsten genutzten Möglichkeiten sind: IP-Adresse, IP-Adresse und Browser-Kennung (user agent), Login-Name, Sitzungs-Cookies und Permanent-Cookies.
Wir wollen zwei Tracking-Methoden herausgreifen:

4.1.1.    Die einfachste Methode
Das Tracking mittels IP-Adresse sowie mittels IP-Adresse und Browser-Kennung. Da jeder Nutzer, der auf Ihre Web-Site zugreift, über eine IP-Adresse und einen Browser verfügt, läßt sich dieses Verfahren standardmäßig anwenden.

4.1.2.    Die genaueste Methode
Tacking mittels Cookies liefert sicherlich mit Abstand die genauesten und detailliertesten Daten in Bezug auf Nutzer und ihr Verhalten auf der Web-Site. Allerdings erfordert ein sinnvolles Cookie-Management einiges an Aufwand und Vorarbeit.
Diese beiden Arten der Nutzer-Verfolgung werden in der Praxis von fast allen Web-Site-Betreibern eingesetzt.

4.2.    IP-Tracking im Detail
"Immer noch besser als gar nichts" - dies beschreibt die Qualität des IP-Adressen-Trackings recht gut. Dieses Verfahren ist nicht geeignet, Nutzer eindeutig zu identifizieren und ihnen Sitzungen zuzuordnen. Warum? Weil viele Nutzer mit dynamischen, d.h. ständig wechselnden IP-Adressen surfen. Ein Nutzer, den Sie heute unter 197.45.34.67 tracken, kommt morgen mit der IP-Adresse 201.1.56.135 zu Ihnen. Sie haben keine Chance jemals herauszufinden, dass es sich hier um ein und denselben Nutzer handelt. Da es nicht unbegrenzt viele IP-Adressen gibt, verfügen ISPs wie T-Online, AOL oder Freenet über einen festen Pool an IP-Adressen - jedem Surfer wird beim Online-gehen eine zufällige IP-Adresse zugewiesen. Wenn die Verbindung zum Internet dann beendet ist, fällt die IP-Adresse wieder zurück an den ISP, der sie dann an einen anderen Surfer vergeben kann und wird.
Das Resultat: Es sieht so aus, als ob Sie viele Stammkunden haben, dabei handelt es sich um ganz unterschiedliche Besucher, die sich nur eine IP-Adresse teilen. Da jeder Besucher bei jedem Besuch eine neue IP-Adresse nutzt, sind die Statistiken in Bezug auf Mehrfachnutzer nicht aussagekräftig.
Ein weiteres Problem sind Nutzer, die einen Proxy-Server nutzen, um ins Internet zu gelangen. Große Firmen und ISPs wie AOL oder Akamai nutzen diese Technik. Nutzer, die über einen Proxy-Server ins Internet gehen teilen sich eine IP-Adresse. In der Analyse läßt sich dann nicht feststellen, ob ein oder mehrere Nutzer Ihre Web-Site besucht haben.
Diese Probleme verschärfen sich mit steigenden Nutzerzahlen.

Fazit: Zwar sind die absoluten Zahlen beim Tracking via IP-Adressen wenig aussagekräftig, doch lassen sich Trends im Allgemeinen mit dieser Methode recht gut analysieren.

4.3.    Cookie-Tracking im Detail
Cookies sind kleine Text-Dateien, die vom Browser auf der Festplatte des Nutzers abgelegt werden. Zwar sind Cookies nicht unumstritten - so schlecht für den Nutzer, wie sie in der einschlägigen Fachpresse dargestellt werden sind Cookies nicht. Web-Mail oder Online-Shopping beispielsweise sind ohne Cookies schwer vorstellbar.
Cookie ist nicht gleich Cookie - die "besten" Cookies stammen von der besuchten Web-Site, sind permanent und P3P-konform. P3P steht für Platform for Privacy Preferences (PPP, oder eben P3P) - einem internationalen Datenschutz-Standard. Die meisten Nutzer akzeptieren diese Art von Cookies. Da die meisten Nutzer Ihre Cookies nicht sehr oft löschen - und praktisch nie während einer Sitzung - sind Cookies sehr verlässlich, wenn es darum geht Nutzer zu indentifizieren und ihre Aktionen zu verfolgen.
Cookies lassen sich wie folgt klassifizieren:

  1. Permanent-Cookies (leben ewig) vs. Sitzungs-Cookies (überleben das Ende der Sitzung nicht)
  2. First party (werden von der besuchten Web-Site gesetzt) vs. Third Party (werden von anderen Sites als der besuchten gesetzt)
  3. anonym vs. personengebunden
  4. P3P-konform vs. nicht P3P-konform

4.3.1.    Permant vs. Sitzung
Ein Permanent-Cookie wird für eine bestimmte Zeit auf der Festplatte des Nutzers gespeichert, beispielsweise bis zum 31.1.2035. Ein Sitzungs-Cookie dagegen wird gelöscht, sobald der Nutzer die Web-Site verlässt. Mit beiden Typen lassen sich Sitzungen verfolgen, aber nur mit Hilfe eines Permanent-Cookies lassen sich wiederkehrende Besucher identifizieren.

4.3.2.    First party vs. Third party
Ein First-party-Cookie wird von der besuchten Web-Site ausgeliefert. Ein Third-party-Cookie stammt dagegen von einer Site, die nur mittelbar mit der besuchten Site etwas zu tun hat. Third-party-Cookies werden of von Ad-Servern oder Anbietern von Web-Analytics-Services eingesetzt.

4.3.3.    Anonym vs. personengebunden
Verzichten Sie darauf personengebundene Daten zu erheben. Für ein sauberes Tracking sind anonyme Cookies vollkommen ausreichend. Zum einen sind Sie dazu durch den Datensparsamkeits-Paragraphen des Bundesdatenschutzgesetzes (BDSG §3a) verpflichtet, zum andern werden die wenigsten Nutzer personenbezogene Daten herausgeben. Wenn Sie aus anderen Gründen personenbezogene Daten erheben, beispielsweise während eines Bestellvorgangs, sollten Sie diese in einem separaten Cookie speichern und so die einzelnen Funktionalitäten sauber von einander trennen.

4.3.4.    P3P-konform
Wenn Ihre Cookies P3P-konform sind, sollten Sie dies vermerken, denn damit erhöhen Sie die Akzeptanz Ihres Cookies. Allzu viel Aufmerksamkeit müssen Sie dem Punkt P3P aber nicht widmen, denn wenn Sie anonyme First-party-Cookies ausliefern werden über 95% aller Nutzer diese Cookies akzeptieren.

4.4.    Fazit
Optimieren lässt sich eine Web-Site nur auf Basis eines verlässlichen Nutzer-Trackings. Mit Hilfe permanenter, anonymer First-party-Cookies lässt sich dieses Ziel erreichen.

5.    Welche Möglichkeiten der Datenerhebung gibt es?
Drei Arten der Datenerfassung sind im Rennen: Log-Dateien, Cookies und JavaScripten. Im folgenden werden wir die Vor- und Nachteile der einzelnen Arten näher beleuchten.

5.1.    Log-Dateien
Log-Dateien sind keine Marketing-Tools, sondern dienen der technischen Diganose des Web-Servers. Marketing-Fragen lassen sich deshalb durch Log-File-Analyse nur bedingt beantworten.

Pro:

  • Die Daten fallen sowieso an
  • Enthalten technische Daten (Browser-Daten, Beriebssystem) und Verhaltens-Daten (Referrer, woher kamen die Nutzer).
  • Es gibt viele Software-Pakete, mit denen man Log-Dateien bearbeiten und statistisch zugänglich machen kann.

Kontra:

  • Daten nicht in Echtzeit auswertbar.
  • Zählweise unsicher, mal werden zu viele, dann wieder zu wenige Nutzer gezählt.
  • Mehre Nutzer, die hinter einer Firewall sind, werden als ein Nutzer gezählt
  • Caching verzerrt die Ergebnisse, es kommen nicht alle Anfragen auch wirklich beim Server an und werden deshalb auch nicht gezählt.
  • Nutzer, die im Browser die Schaltflächen "Vorwärts" und "Zurück" klicken, werden nicht korrekt erfasst.
  • Wechselnde IP-Adressen erschweren die Zuordnung von Sitzungen zu einzelnen Nutzern.´
  • Nicht menschlicher Datenverkehr von Robots und Spidern wird mitgezählt. Wenn sich die Robots nicht korrekt beim Server identifizieren, ist dieser Datenverkehr fast nicht auszufiltern.
  • Ihre eigenen Aufrufe werden ebenfalls mitgezählt. Wenn sie auf Ihr Angebot mit einer statischen IP-Adresse zugreifen, lässt sich dieser Datenverkahr relativ leicht ausfiltern.
  • Wenn Ihre Site erfolgreich ist, werden die Log-Dateien riesig. Sie brauchen dann eine ausgefeilte Logistik und leistungsstarke Rechner, um die Dateien halbwegs zügig auszuwerten.
  • Komplexe dynamische Web-Sites mit verschiedenen Servern, die sich über diverse Domains und Sub-Domains verteilen sind so praktisch nicht in den Griff zu kriegen.

5.2.    Cookies
Ohne Cookies geht es nicht. Nur über Cookies lassen sich Browser eindeutig identifizieren. Mit Hilfe von Cookies lassen sich Sitzungen nachvollziehen, Nutzer eindeutig identifizieren (Erstbesuch vs. Erneuter Besuch). Ein ganz wichtiger Punkt beim Thema Cookies sind die Datenschutzrichtlinien. Sie sammeln Nutzerdaten und sollten deshalb über klar formulierte Datenschutzrichtlinien verfügen, die auch einer rechtlichen Überprüfung standhalten. Nutzer sind mittlerweile recht aufgeklärt, was Cookies angeht, viele Browser erlauben das Cookie-Management und weisen den Nutzer daraufhin, wenn eine Site einen Cookie speichern will. Es gilt die Balance zu finden zwischen Datensammeln und Nutzer verärgern, denn ein Nutzer, der es Ihrer Site nicht gestattet irgendwelche Cookies zu setzen, ist weniger wert, als wenn Sie durch Selbstbeschränkung vielleicht weniger Informationen pro Besucher erhalten, dafür aber prozentual mehr Nutzer das Cookie-Setzen gestatten.

5.3.    Tracking via JavaScript
Mit Web-Beans - von Kritikern auch Web-Bugs genannt - gespickte Seiten sind der neueste Trend im Web-Anlytics-Sektor. Vorteile hier: Sie als Site-Betreiber müssen nur einige kleine JavaScript-Schnipsel in Ihre Site implementieren, den Rest übernimmt ein spezialisierter Dienstleister. Sie müssen sich nicht mit zusätzlichen Kosten für Hard- und Software aufbürden, sondern mieten einfach was sie brauchen. Die Statistiken werden rufen Sie mit dem Browser ab, bzw. laden sie im Excel-freundlichen Format auf die heimische Festplatte. Außerdem sind diese JavaScripten sehr robust gegenüber Zählfehlern, die auf Cashing beruhen.

Vorteile:

  • Daten liegen in Echtzeit vor.
  • Komplexe Sites, mit mehreren Domains/Sub-Domains und dynamischen URLs lassen sich so gut tracken.
  • HTML-E-Mails sind ebenfalls zählbar.
  • Zusätzliche technische Informationen wie Bildschirmauflösung lassen sich ebenfalls erfassen.

Nachteile:

  • Funktioniert nur, wenn die Nutzer JavaScript aktiviert haben, über 97% aller Nutzer haben das aber.
  • Datenschutz: Der Nutzer besucht Ihre Site, seine Daten werden aber - ohne sein Wissen - von einem Dritten erfasst, gespeichert und ausgewertet.
  • Outsourcing-Kosten fallen an. Die JavaScripten müssen auf allen Seiten einer Web-Site, die getrackt werden sollen eingebaut werden. Bei großen Sites kann das sehr arbeitsintensiv werden.
  • Performance-Probleme beim Dienstleister schlagen auf die eigene Site durch.

 

Bewertung: 
0
Bisher keine Bewertung

Datenbanken (Normalisierung)

Spricht man von einer Datenbank, meint man in der Regel ein Datenbanksystem (DBS). Dieses besteht aus zwei Teilen: Die eigentliche Datenbank (DB) ist eine programmunabhängige strukturierte Sammlung von Daten, die miteinander in Beziehung stehen. Um diese Daten sinnvoll und komfortabel nutzen zu können, wird eine Datenbanksoftware benötigt, das Datenbankmanagementsystem (DBMS).

Ziele einer Datenbank:

- Vereinheitlichung: Daten werden nur einmal erfasst und zentral gespeichert, sodass allen Benutzern eine einheitliche und aktuelle Datenbasis zur Verfügung steht.

- Flexibilität: Die erfassten Daten lassen sich mehrfach und unterschiedlich nutzen und auswerten.

- Programmunabhängigkeit der Daten: Wird durch die Trennung von DB und DBMS erreicht.

- Fehlerfreiheit: Datenbankfehler, die z.B. durch einen Programm- oder Computerabsturz entstehen, sollen automatisch korrigiert werden.

-Redundanz-Vermeidung: Unter Redundanz versteht man eine doppelte oder mehrfache Speicherung gleicher Daten. Dies führt zu Speicherplatzverschwendung, erhöht die Verarbeitungszeiten und kann zu widersprüchlichen Daten führen.

Folgende Kriterien für eine funktionierende Datenbank müssen erfüllt sein:

Datenkonsistenz: Jeder Datensatz muss eindeutig identifizierbar, also konsistent sein, z.B. werden Kundennummern nur ein einziges Mal vergeben. Wenn der Kunde nicht mehr existiert,  wird die Nummer nicht erneut verwendet. Somit sind konsistente Datensätze eindeutig unterscheidbar.
Beispiel: Selbst bei dem unwahrscheinlichen Fall, dass zwei Kunden dieselbe Adresse haben, kann mindestens durch die einmalig vergebene Kundennummer zwischen ihnen unterschieden werden.

Redundanzfreiheit: Sämtliche Daten werden nur einmal erfasst und gespeichert (=sie sind redundanzfrei). So treten bei Änderungen keine Probleme auf, da sie zentral abgelegt sind und nur ein Mal geändert werden müssen.
Beispiel: Ändert sich bei einem Kunden die Adresse, muss diese nicht für jede seiner Bestellungen erfasst und geändert werden, sondern nur ein Mal zentral in der Kundendatenbank, da den Bestellungen die eindeutige Kundennummer zugeordnet ist. Somit dient diese Nummer als Schlüssel.

Normalformen
1. Normalform: Jedes Datenfeld einer Tabelle enthält genau einen Eintrag, diese sind spaltenweise sortiert, z.B. nach Nachname, Straße, PLZ, Ort, Produkt und Datum. In der Tabelle der 1. NF sind alle Informationen gelistet, daher ist sie nicht konsistent und nicht redundanzfrei.
Beispiel: Der Kunde Winkler hat Visitenkarten und eine Website in Auftrag gegeben. Da ja jedes Datenfeld nur einen Eintrag enthält, ist der Kunde zwei Mal in der Auftragstabelle aufgeführt, ein Mal mit dem Produkt Website mit der Auftragsnummer 1 und ein Mal mit dem Produkt Visitenkarten mit der Auftragsnummer 5. Diese Nummern verweisen auf den Kunden und auf das Produkt.

2. Normalform: Nun wird die Tabelle in mehrere Tabellen zerlegt und zwar so, dass jeder Eintrag der entstandenen Tabellen einen eigenen Schlüssel erhält. Dieser Schlüssel wird dann anstatt des Produktes in der Tabelle der 1. NF aufgeführt. So befindet sich die Auftragstabelle in der 2. NF, da sie sich zum einen in der 1. NF befindet und zum anderen alle Datenfelder von einem Schlüssel funktional abhängig sind.
Beispiel: Die Produkte werden in einer eigenen Tabelle aufgeführt und jedes Produkt erhält eine Produktnummer (Schlüssel). So wird in der Auftragstabelle nun nicht das Produkt mit Namen angegeben, sondern der Schlüssel. Somit ist der Kunde Winkler zwar immernoch zwei Mal in der Auftragstabelle aufgeführt, jedoch ein Mal mit der Produktnummer 1 für die Website und ein Mal mit der Produktnummer 2 für Visitenkarten. Die Produktnummer 2 kann in der Tabelle natürlich ebenfalls für den Kunden Mayer vorkommen, der ebenfalls Visitenkarten in Auftrag gegeben hat.

3. Normalform: In dieser letzten Stufe werden die verbliebenen Redundanzen beseitigt. Die endgültige Tabelle befindet sich dann in der 3. NF, wenn sie sich zum einen in der 2. NF befindet und zum anderen alle Datenfelder, die keine Schlüssel sind (im Bsp. das Auftragsdatum), nicht funktional abhängig sind.
Beispiel: Nun sind die Kundenangaben in der Auftragstabelle funktional abhängig, also zum Kunden Winkler gehört genau eine Straße, eine PLZ und ein Ort. Das muss nun behoben werden, da ein weiterer Kunde namens Winkler hinzukommen kann und sich dadurch die Adresse anhand des Namens nicht mehr eindeutig ermitteln ließe. Deshalb wird eine weitere Tabelle mit neuem Schlüssel erstellt. Hier befinden sich die Daten der Kunden, die spaltenweise nach Name, Straße, PLZ und Ort aufgeführt sind. Das Wichtigste ist nun, dass jeder Kunde eine Kundennummer (Schlüssel) erhält, der in der Auftragstabelle angegeben werden kann. Diese Tabelle wird kann nun in die 3. NF gebracht werden: Eine Spalte gibt die Auftragsnummer an, eine die zugehörige Produktnummer, eine Spalte führt die Nummer des zugehörigen Kunden auf und eine weitere Spalte kann nun das Datum des Auftrags enthalten.

Nun ist die Normalisierung in die 3. NF abgeschlossen, alle Daten der 3 Tabellen sind redundanzfrei und konsistent.

 

Weiterführende Links

http://www.tinohempel.de/info/info/datenbank/normalisierung.htm

Bewertung: 
3
Durchschnitt: 3 (2 Stimmen)

Datenbanken

Allgemeines:
Eine Datenbank (DB) besteht aus beliebig vielen Tabellen, in denen logisch zusammenhängende Objekte (Daten) gespeichert sind.
Diese Objekte können reine Texte, Verknüpfungen oder Anweisungen sein.
Datenbanken findet man häufig im Bereich der dynamischen Webseiten, um Inhalte zu speichern.

 1. Grundbegriffe

 

Datenbank = DB (Data Base)

  • systematische, strukturierte Ansammlung von Daten

  • diese Daten stehen in einem sachlogischen Zusammenhang

 

Datenbankmanagementsystem = DBMS

  • Verwaltung und Nutzung der in der DB gespeicherten Daten

 

Datenbanksystem = DBS

  • Erstellung, Pflege und Verwaltung von einer oder mehreren Datenbanken (z.B. MySQL)

  • DB + DBMS

 

Datenbanksoftware

  • bezahlbar: Microsoft Access als Teil des Office-Pakets

  • kostenlos: OpenOfficeBase; XAMPP (webbasier, besteht u.a. aus Weboberfläche phpMyAdmin, Apache-Webserver und MySQL-Datenbankserver)

 

Relationale Datenbank

  • wichtigste Untergruppe der Datenbanken

  • besteht aus mindestens einer, meistens aus mehreren Tabellen (Relationen)

  • andere Datenbanken: hierarchische oder objektorientierte

 

Tabelle = Relation

  • Baustein der Relationalen Datenbank

  • besteht aus Datensätzen

  • kompakte Darstellung großer Datenmengen

  • sortierbar nach beliebigen Attributen

  • können nach vorgegebenen Kriterien gefiltert werden

  • können miteinander in Beziehung gesetzt werden

 

Datensatz = Tupel

  • Zeile einer Tabelle

  • ein Datensatz besteht aus mehreren Datenfeldern (z.B. Nname, Vname, E-Mail-Adresse)

  • Jeder Datensatz muss über einen Schlüssel eindeutig identifizierbar sein (z.B. Kundennummer)

 

Attribute

  • einzelne Zellen werden als Datenfelder bezeichnet

  • gleichartige Datenfelder sind spaltenweise angeordnet und als Attribute bezeichnet

  • jedes Attribut erhält einen Feldnamen (z.B. Nname)

 

Datentyp

  • jedem Attribut wird ein bestimmter Datentyp zugewiesen

    • INT (integer = ganze Zahlen) [TINYINT, SMALLINT, MEDIUMINT, BIGINT]

    • FLOAT, DOUBLE (Fließkommazahl)

    • DECIMAL (Dezimalzahlen)

    • CHAR (feste Speicherung z.B. CHAR(25) Reservierung für GENAU 25 Zeichen) [2^8 Zeichen]

    • VARCHAR (z.B. VARCHAR(25) speichert BIS ZU 25 Zeichen) [2^8 Zeichen]

    • BOOLEAN (Ja/Nein)

    • DATE (Datum)

    • TIME (Uhrzeit)

    • DATETIME (Kombination aus Datum und Uhrzeit YYYY-MM-DD HH:MM:SS)

    • TIMESTAMP (speichert die Zeit, zu der die Zeile begonnen wurde (falls nicht anders angegeben))

    • YEAR

    • BINARY (Binäre Daten z.B. Bilder)

    • TEXT (Zeichenketten) [BLOB, LONGTEXT, LONGBLOB]

  • Festlegung des Datentyps ist erforderlich zur weiteren Verarbeitung (z.B. Rechnen mit Zahlen, generieren von E-Mails mit Text, etc.)

 

Schlüssel

  • Jeder Datensatz muss eindeutig identifizierbar sein, daher wird in jeder Tabelle mindestens ein Schlüssel benötigt

  • über den Schlüssel wird der Zugriff beschleunigt

  • auto_increment = automatische Vergabe des Schlüsselwertes; d.h. doppelte Werte können nicht vorkommen

  • Verknüpfung von Tabellen miteinander erfolgt über Schlüssel

    • Primärschlüssel = Schlüssel zur Identifikation der Tupel der eigenen Tabelle; jede Tabelle kann nur einen Primärschlüssel enthalten

    • Fremdschlüssel = Verwendung eines Primärschlüssels in einer Tabelle, die selbst einen eigenen Primärschlüssel hat [Feldname in einer Tabelle, welcher eine Beziehung herstellt zu einem Schlüsselfeld einer anderen Tabelle]; die Verwendung mehrerer Fremdschlüssel ist möglich

 

Datenkategorien

  • Stammdaten = verändern sich nicht oder kaum (z.B. Name, Adresse, Produktbeschreibungen)

  • Bewegungsdaten = Daten, die sich häufig ändern (z.B. Inhalt des Warenkorbs)

  • Prozessdaten = Daten, die nicht in der Datenbank gespeichert werden (z.B. Alter einer Person; wird errechnet aus Systemzeit und Geburtsdatum)

 

2. Anforderungen

Datenkonsistenz

  • jeder Datensatz muss eindeutig identifizierbar sein (konsistent lat. con = "zusammen" + sistere = "halten") [vgl. Fingerabdruck]

  • Primärschlüssel werden einmalig vergeben und auch nach löschen des Datensatzes nicht neu vergeben

 

Redundanzfreiheit

  • Redundanz = überflüssige oder mehrfach vorkommende, gleiche Informationen innerhalb verschiedener Datensätze (lat. redundare = "überlaufen, im Überfluss vorhanden sein")

  • Redundanzfreiheit = alle Daten werden nur ein einziges Mal erfasst und gespeichert

  • spart Speicherplatz und verhindert Probleme (Anomalien) bei späteren Änderungen

 

Sonstiges

  • Datensicherheit; um Datenverlust zu vermeiden, müssen Backups getätigt werden

  • Datenschutz

  • Multiuser-DB; Zugriffsmöglichkeit für mehrere Nutzer gleichzeitig

  • Reihenfolge der Datenerfassung ist unerheblich, die Daten organisieren und verwalten sich selbst

 3. Beispiele für Datenbanken in der Medienbranche

  • Aufbau digitaler Bild-, Text- oder Medienarchive

  • digitale Projektbearbeitung von der Datenerfassung bis zum fertigen Produkt

  • Print-Worflow

  • Personalisierung von Medienprodukten

  • E-Commerce-Lösungen, Webshops, CMS, Suchmaschinen, Foren

  • Lern-Management-Systeme (z.B. Moodle)

  • Soziale Netzwerke (z.B. Facebook)

  • Web-Enzyklopädien (z.B. Wikipedia)

 4. Datenerfassung

  • Daten werden erfasst und gepflegt über Formulare

  • keine Kenntnisse über die Struktur der Daten nötig

  • bei der Datenerfassung erfolgen Überprüfungen auf Vollständigkeit und Korrektheit

    • fehlende Eingaben, leer gelassene Felder

    • falsche Eingaben (Buchstaben statt Ziffern, fehlendes @-Zeichen in der Mail-Adresse)

    • Rechtschreibprobleme (z.B. fehlende Großschreibung, Beginn eines Eintrags mit Leerzeichen)

  • der Datensatz wird erst akzeptiert, wenn er vollständig und fehlerfrei ist

  • Nicht kontrollierbar: wissentliche oder versehentliche Falscheingaben, Schreibfehler

 5. Normalisierung

= um Konsistenz und Redundanzfreiheit zu erreichen, werden Datensätze auf mehrere Tabellen verteilt; hierbei werden Normalformen unterschieden (bekannt: 5, relevant: 3)

 

Normalformen finden Anwendung bei Stamm- und Bewegungsdaten, NICHT bei Prozessdaten.

1. Normalform

Jedes Datenfeld enthält nur einen Eintrag (atomar = kleinster Wert, nicht weiter teilbar).

  • Achtung: Hausnummer und Straße gehören zusammen, PLZ und Ort gehören NICHT zusammen

  • keine Redundanzfreiheit

  • keine Datenkonsistenz

 

2. Normalform

Die Tabelle befindet sich in der 1. Normalform und alle Datenfelder sind von einem Schlüssel funktional abhängig.

  • die Tabelle wird zur Reduktion von Redundanzen in mehrere Tabellen zerlegt

  • z.B. wird jeder Produktnummer genau ein Produkt zugeordnet

  • keine Redundanzfreiheit

 

3. Normalform

Die Tabelle befindet sich in der 2. Normalform und alle Datenfelder, die keine Schlüssel sind, sind nicht funktional abhängig.

  • Beseitigung der letzten Redundanzen

  • Nachteil: Verschlechterung der Lesbarkeit mit jeder hinzugekommenen Tabelle, daher wird eine DBMS benötigt, die sich um die Organisation und Verwaltung kümmert

 

6. Entity-Relationship-Modell = ER-Modell

= Entwurfsverfahren, um bereits beim Datenbankentwurf dafür zu sorgen, dass sich eine konsistente und redundanzfreie Datenbank ergibt.

 

Die Chen-Notation verwendet drei grafische Elemente: Rechteck (= Entitätstyp), Raute (= Beziehung) und Ellipse (= Attribut)

  • Entitätstyp: Objekte, denen Informationen zugeordnet werden können (z.B. Produkt, Kunde)

  • Beziehung: Beziehungen, die zwischen Entitäten hergestellt werden (z.B. Kunde kauft Produkt)

  • Attribut: jede Entität hat bestimmte Eigenschaften (z.B. ein Kunde hat einen Namen)

 

Arten von Beziehungen

1:1-Beziehung

  • einer Entität ist höchstens eine andere Entität zugeordnet

  • Kunde kauft Produkt

 

1:n-Beziehung

  • einer Entität stehen keine, eine oder mehrere Entitäten gegenüber

  • Kunde kauft mehrere Produkte; der Kunde kann aber auch nur ein Produkt kaufen oder gar keins, aber es ist trotzdem eine mögliche 1:n-Beziehung

 

m:n-Beziehung

  • auf beiden Seiten stehen mehrere Entitäten in Beziehung zueinander

  • mehrere Kunden können mehrere Produkte kaufen

 

Problem bei einer m:n-Beziehung:

  • keine eindeutige Beziehung zwischen zwei Tabellen herstellbar

  • müssen durch Ergänzen weiterer Tabellen aufgelöst werden (z.B. Kunde-Produkt-Tabelle, die auflistet, welcher Kunde welches Produkt kauft)

 

Anwendung des ER-Modells

  • aus jedem Entitätstyp entsteht eine Tabelle (Tabelle Kunde)

  • aus den Attributen werden die Tabellenspalten; evtl. werden weitere Spalten ergänzt (Kundendaten)

  • für die Beziehungen werden Primärschlüssel (Entität Kunde) und Fremdschlüssel (Entität Produkt) miteinander verbunden

  • Beispiel: ein Kunde kann mehrere Produkte kaufen, er erteilt mehrere Aufträge mit den dazugehörigen Auftragsnummern, jedes Produkt mit den dazugehörigen Produktnummern kann von mehreren Kunden gekauft werden --> Eindeutigkeit ergibt sich erst aus einer Kombination von Auftrags- und Produktnummer = zusammengesetzter Schlüssel

 7. Referenzielle Integrität

  • das DBS muss sicherstellen, dass Beziehungen zwischen Tabellen nicht zu Fehlern führen

  • Verhinderung von widersprüchlichen oder fehlerhaften Daten

  • Beispiel: ein Kunde ist zwar mit Kundendaten angelegt, hat aber bisher nichts bestellt; dieser Kunde kann gelöscht werden; ein Kunde, der bereits bestellt hat, darf nicht gelöscht werden (Fehler in der Auftragstabelle)

 8. SQL

  • Structured Query Language

  • Erstellen von Datenbanken und Tabellen

  • Eingeben, Ändern und Löschen von Datensätzen

  • Abfragen (engl. Query) von Daten nach gewünschten Kriterien

  • ISO-standardisiert und plattformunabhängig

  • heutige DB-Software ermöglicht Zugriffe auf DB auch ohne SQL-Kenntnisse

 

SQL-Befehle

  • not null → nicht leer; hier muss immer ein Eintrag erfolgen

  • auto_increment → der Wert wird automatisch vergeben und hochgezählt; eine doppelte Vergabe ist dadurch nicht möglich

  • CREATE DATABASE Tabelle → erstellt eine neue Datenbank

  • ALTER TABLE Tabelle → Verändern einer Tabelle

  • DROP TABLE Tabelle → Löschen einer Tabelle

  • CREATE DATABASE name → erstellt eine neue Datenbank

INSERT INTO Tabelle → Datensatz eingeben

INSERT INTO Tabelle

[(Spalte1 [, Spalte2, …])]

VALUES (Ausdruck | Default)[,(...),(...)];

 

INSERT INTO Kunden

(Firma, Straße)

VALUES („Winkler“, „Hauptstraße 23“);

 

DELETE FROM Tabelle → Datensatz Löschen

DELETE FROM Tabelle

WHERE Bedingungen

 

DELETE FROM Kunden

WHERE Knr = 5;

 

SELECT Spalten → Abfrage eines bestimmten Datensatzes

SELECT Spalten

FROM Tabelle

[WHERE Bedingungen]

[ORDER BY Sortierspalten]

[LIMIT Limits];

 

SELECT Firma, Straße

FROM Kunden

WHERE Firma

= „Mayer“;

 

SELECT *

FROM Kunden

ORDER BY Plz;

 

UPDATE Tabelle → Ändert Datensätze

UPDATE Tabelle

SET Spalte1 = Ausdruck1 [, Spalte2 = Ausdruck2]

[WHERE Bedingung];

 

UPDATE Kunden

SET Straße = „Gartenstraße 5“,

Plz = „77933“

Ort = „Lahr“

WHERE Knr = 5;

 

 

9. Datenbankmanagement

 

Fileserver-System

  • Zugriffe auf eine Datenbankdatei erfolgen direkt

  • clientseitig

  • Nachteil: die Performance der Datenbank sinkt ab einer hohen Benutzerzahl

  • daher sind die Fileserver-Systeme nur für kleinere und mittlere Datenbanksysteme empfehlenswert und ausreichend

 

Client-Server-System

  • ODBC = Open Database Connectivity

  • Verbindung zwischen Datenbank-Client und Datenbank-Server

  • Client --> ODBC-Schnittstelle --> Server/Datenbank

  • nutzt die Abfragesprache SQL

  • Datenbankanwendungsschnittstelle (API) der Datenbankabfragesprache SQL

  • serverseitige Auswertung

  • bessere Performance und geringe Netzbelastung, daher für sehr große Datenbanken mit hoher Benutzeranzahl geeignet

  • Zugriff auch über Skriptsprache möglich

 

Aufgaben von Datenbanksystemen DBS

  • Datenbankabfragen bearbeiten

  • Datensicherheit

  • Datenschutz

  • Multiuser-DB (Synchonisation von mehreren gleichzeitigen Zugriffen)

  • Werkzeuge für Datenbankentwürfe

  • "Assistenten" für Berichte, Formulare und Abfragen

  • Datenexport

  • drei große Systeme: DB2 von IBM, Microsoft SQL-Server und Oracle-Database

 

 

10. Anomalien

  • treten in relationalen Datenbanken auf

  • können durch nicht normalisierte bzw. denormalisierte Datenstrukturen entstehen

  • führen zu Inkonsistenzen

 

Änderungs-Anomalien

Änderungen führen häufig zu Fehlern, wenn nicht alle Datensätze gleichzeitig geändert werden

 

Lösch-Anomalien

entstehen, wenn durch das Löschen eines Datensatzes mehr Informationen als erwünscht verloren gehen

 

Einfüge-Anomalien

Teile des Datensatzes gehen verloren, da z.B. der Datentyp nicht übereinstimmt

 

 

11. Kartesisches Produkt

  • repräsentiert sätmliche möglichen Kombinationen aller Zeilen zweier oder mehrerer Tabellen

  • erzeugt aus gegebenen Mengen eine neue Menge

  • jede Relation ist eine Teilmenge eines kartesischen Produktes

  • besteht aus der Menge aller Tupel, die Reihenfolge der Mengen und der entsprechenden Elemente ist fest vorgegeben

 12. Entwicklungsverfahren

In der Datenbankentwicklung gibt es zwei grundsätzliche Verfahren.

 

Top-down "von oben nach unten"

  • vom Abstrakten, Allgemeinen, Übergeordneten hin zum Konkreten, Speziellen, Untergeordneten

  • erst steht das System, dann werden Daten eingepflegt

  • Nachteil: kann nur schwer in bereits laufende Prozesse integriert werden

 

Bottom-up "von unten nach oben"

  • aus vorhandenen Daten und Informationen wird ein DBS entwickelt

  • von Detail-Aufgaben zur Erledigung übergeordneter Prozesse

  • Nachteil: führt bei großen Datenmengen schnell zu Anomalien

 

 

(Quellen: Komp. 5. Aufl. Band II ab S. 154 + Spickzettel 2. Aufl. + eigener Kram)

Bewertung: 
4.666665
Durchschnitt: 4.7 (3 Stimmen)

Relationale Datenbanken

relationale Datenbanken

sind DB, die mit Tabellen (sogenannten Relationen) arbeiten. Diese haben den Vorteil, dass eine Sortierung und Filterung der Daten möglich wird. Auch können mehrere Tabellen zueinander in Beziehung gesetzt werden. (Bsp. Tabelle "Kunden" mit Tabelle "Aufträge")

die Eingabe erfolgt meist über Formulare.

Grundbegriffe

Datenbanksystem: System welches Datenbanken verwaltet

Tabellen (Relationen): Grundelemente einer relationalen Datenbank. Diese sind ggf. mit Hilfe von sogenannten Schlüsseln miteinander verbunden.

Datensatz: Zeile einer Tabelle, praktisch alle Inhalte einer getätigten Eingabe. Ein weiterer Fachbegriff ist Tupel. Jeder Datensatz muss eindeutig identifizierbar sein.

Attribute: Spalten einer Tabelle.

Datenfeld: jedes einzelne Feld in einer Tabelle, die eine Information beinhaltet.

 

Unterschied objektorientierte und relationale Datenbanken

- objektorientiert ist eine Datenbank, die statt streng strukturierter Datensätze Objekte speichert

- sehr flexibeles Speichermodell für Daten

- diesem Modell wird eine gewisse Änderungsfreundlichkeit nachgesagt

- Begriff RELATION (Beziehung, Verwandschaft) steht allgemein für alle Formen von Beziehungen und Abhängigkeiten von Objekten und Daten untereinander

- die einzelnen Daten werden in Datenfeldern gespeichert, die zu Datensätzen zusammengefasst sind

- mehrere gleichartige Datensätze bilden eine Relation oder Tabelle -> die relationale Datenbank

AnhangGröße
PDF icon Beziehungen in Datenbanken.pdf416.33 KB
Bewertung: 
0
Bisher keine Bewertung

Digitale und gedruckte Veröffentlichung

Cross-Media Publishing:

 

  • schnell & einfach Inhalte von Medien zu vervielfältigen​
  • erstellen von medienneutraler Daten
  • publizieren von Daten für verschiedenen Ausgabemedien (digital, print, ...)

eine Datenbank -> alle relevanten Infos und Daten gespeichert

 

   *höchste Qualität hinterlegen (Bilder)

   *Daten medienneutral, unverfälscht, unformatiert abspeichern

   *Text -> XML

 

Medienneutrale Daten:

 

  • Grundlage für viele verschiedene Ausgabesituationen

    ->Daten digital und print (unterschiedliche Bedrucksstoffe) ausgeben
      -Mehrfachnutzung
      -Flexibel im Druck

    ->Fotos im großen RGB-Farbraum abspeichern
     
     -CMYK- Bilder nur wenn Schwarzaufbau
     -RGB-Bilder erst kurz vor Druck konvertieren

3 Konzepte:
Early Binding: gleich CMYK konvertierne -> keine medienneutrale Daten

Intermediate: Bindung: bei PDF-Erstellung in CMYK konvertieren

Late Binding: PDF in RGB; konvertiert Druckerei in Ausgabeworkflow/RIP

 

Vorteile:

  • flexibel bei Druck und Papier
  • Druckerei kann entscheiden welches Profil
  • keine Zerstörung von Daten
  • alle Bilder mit gleicher Einstellung
  • Sparen von Speicherplatz

Nachteile:

  • Farbeinfluss vom Erzeiger geht verlohren
  • ungewohnt für Anwender

technische Anfordeungen:

  • fehlerfreier Datenbestand
  • plattformneutral -> auf alle Computersysteme verwendbar
  • Herstellerunabhängigkeit
  • auf Format mus mit beliebiger Programmiersprache zugreifen können

 

Database-Publishing:

 

  • Erstellung von Preislisten, komplexen Dokumenten, umfangreichen Katalogen
  • Datenbankinhalte an offen gestaltetes Layoutdokument (Änderungen automatisch aktualisiert)
  • bietet Schablonen von Seiten für Datenbankinhalte (Seiten enthalten Markierungen und werden durch Daten ersetzt)
  • Alternative: regelbasierter Layout-satz (anselle von Schablonen -> Layout-Regeln beschrieben)

Template-basierter Publishing-Ansatz:

 

  • mithilfe Layoutprogramm werden Schablonen (Templates) für gewünschte Seiten entworfen, welche Platzhalter für die aus der Datenbank zu bestückenden Elemente beinhalten

Vorteile:

  • mit üblichen Werkzeugen sehr einfach Vorlagen erstellen

Nachteile:

  • Nachbearbeitung erforderlich

Content-Management-Sytem:

  • Datenbankinhalte für Print- und Digitalmedien nutzen
  • Einpflegen der Daten in Datenbanken, Bereitstellung der Inhalte erfolgt medienneutral
  • Printmedienproduktion: Database-Publishing
      -> Inhalt während Produktion aus Datenbank in Workflow eingespielt und integriert
       -> Inhalte in konventionellen Druckverfahren ab Produktionsschritt der Druckformherstellung bzw. im Digitaldruck ab Bebilderung nicht mehr veränderbar
  • Publikation von Internetseiten: Inhalte erst zum Zeitpunkt des Aufrufs durch Nutzer auf Webserver generiert und an Client geschickt

Templates:

  • bestimmt Darstellung der Website im Browser und Verknüpfung verschiedener Komponenten
  • setzen sich aus mehreren CSS-, HTML-, PHP-Dateien zusammen (CSS – Abbildung des Designs; HTML und PHP zur Umsetzung der Funktionalität)
  • es können auch mehrere Templates durch „Default“ genutzt werden (Template bei Aufruf der Website im Browser geladen)
Bewertung: 
0
Bisher keine Bewertung

Dynamische Website

STATISCHE SEITE:

Wird  z.B. ein Währungsumrechner mit Javascript so realisiert, dass die Kurse im HTML-Dokument (statisch) abgelegt sind, dann braucht der Server lediglich die Seite zu liefern, so wie sie als Datei auf dem Server liegt.

Der User kann nun unterschiedliche Beträge in unterschiedliche Währngen umrechnen lassen. Es findet also clientseitig eine Interaktion statt. Der User sieht wechselde Zahlen, vielleicht auch wechselnde Bildchen (Flaggen, Münzen ..) -  aber es bleibt eine STATISCHE Seite.

 

DYNAMISCHE SEITE:

Wird der Währungsrechner so realisiert, daß er (z.B. mit PHP) die aktuellen Tageskurse ermittelt (z.B. mit einer Datenbankabfrage) und daraus die Seite generiert, dann ist die  Währungsumrechner-Seite eine dynamische Seite.

 

BTW: Der Browser bekommt immer HTML geliefert. Er "weiss nicht", ob die Seite fertig (statisch) auf dem Server herumlag und nur weitergereicht wurde, oder ob sie für die aktuelle Anfrage (dynamisch) erzeugt wurde.

 

Weiterführende Links

http://cms.greatstuff.at/webdesign_vergleich_dynamische_statische.html

 

Bewertung: 
3.5
Durchschnitt: 3.5 (2 Stimmen)

E-Book

Einführung E-Books im PDF-Format

Bücher nicht in gedruckter Form, sondern als PDF-Datei zu nutzen, bietet dem Leser und dem Autoren viele Vorteile:

  • Zusatzfunktionen wie z.B. Lesezeichen und Kommentarfunktion
  • Größe der Seite kann angepasst werden
  • Interaktive Inhalte (z.B. Video, Sound oder Links)
  • Suchfunktion

Das PDF-Format wird häufig für Fachliteratur verwendet.

Formate

PDF: Insbesondere als Fachbuchformat für die Betrachtung am PC, da komplexe Grafiken und Bilder gut dargstellt werden können.

ePUB: Überwiegend bei textlastigen Werken für mobile Endgeräte (Tablets, Kindl und andere eBook-Reader). Wurde 2007 entwickelt und wird von den meisten Verlagen und Lesegeräten unterstützt. Es basiert auf XML.

Kindle: Amazon isoliert sich mit seinem proprietären Format, da dieses nicht von anderen Lesegeräten dargestellt werden kann. Außerdem verbietet Amazon anderen Marktanbietern Werke im Kindle-Format zu veröffentlichen.

E-Book-Markt

  • Google Books
  • Sony
  • Amazon
  • Libreka

Adobe Digital Edition

Adobe Digital Editions ist eine intuitive und leicht nutzbare Anwendung für den Erwerb, die Verwaltung und die Anzeige von eBooks und weiteren digitalen Publikationen.

Adobe Digital Editions, Adobe Reader und Adobe Acrobat

Adobe Reader ist der Standard für die Anzeige und den Druck von PDF-Dokumenten. Er unterstützt aber auch viele zusätzliche Workflows, die über die Nutzung von eBooks und anderen kommerziell veröffentlichten Inhalten hinausgehen, wie etwa interaktive Formulare und digitale Signaturen. Aufgrund der umfassenden Funktionalität, Komplexität und Größe von Adobe Reader ist dieses Programm für das einfache Lesen von eBooks wenig geeignet.

Adobe Acrobat ist eine kostenpflichtige Weiterführung des Adobe Readers und dient vorallem zum Erstellen und Bearbeiten von PDF-Dokumenten. Das Programm ist nicht für das Lesen von eBooks geeignet und dafür auch viel zu teuer.

Adobe Digital Editions ist ein schlankes Anzeigeprogramm für Mac und Windows, das für einen ganz bestimmten Zweck entwickelt wurde: Es erweitert die eBook-Funktionalität der früheren Versionen von Reader und Acrobat und stellt Anwendern eine übersichtliche und intuitive Leseumgebung zur Verfügung.

Calibre

Das Exportieren von ePUB-Dateien aus InDesign funktioniert zur Zeit nur sehr eingestränkt. Eine bessere Lösung bietet das kostenlose Programm „Calibre“.

Es handelt sich um eine eBook-Management-Lösung, die Bibliotheks-, Konvertierungs- und Darstellungs­funktionen übernehmen kann.

Die Verwaltung der Titel ermöglicht eine umfangreiche Sortierung nach unterschiedlichen Kriterien:
Titel, Autor, Erscheinungstermin, Verlag, Bewertung, Format, Buchreihe und Etiketten.

Konvertierung

Die Hauptfunktion von Calibre ist die Konvertierung von einem eBook-Format in ein anderes.

Eingabeformate: CBZ, CBR, CBC, ePUB, FB2, HTML, LIT, LRF, MOBI, ODT, PDF, PRC, PDB, PML, RB, RTF, TCR und TXT.

Ausgabeformate: ePUB, FB2, OEB, LIT, LRF, MOBI, PDB, PML, RB, PDF, TCR und TXT.

Der sicherste Weg der Konvertierung ist das Erstellen einer PDF-Datei im Quellprogramm (z.B. InDesign). ­Diese Eingabedatei dient dann als Grunddatei für die weiteren Konvertierungen.

Wichtig ist die Eingabe der Metadaten, da nach diesen Informationen das eBook später gesucht und gefunden wird. Wenn hier keine oder zu wenig Informationen zur Verfügung gestellt werden, ist das Buch nicht oder nur schwer auffindbar.

Übertragung an den Reader

Ist ein eBook fertig erstellt, muss dieses auf den Reader übertragen werden. Hierzu sind prinzipiell zwei Übertragungsvarianten möglich:

  • Übertragung an den Hauptspeicher
  • Übertragung an eine Speicherkarte

Gestaltungsgrundsätze

Zur Zeit werde viele eBooks im PDF-Format als reales Abbild eines gedruckten Werkes vertrieben. Die Seitengestaltung dieser eBooks orientiert sich an der klassischen Buchgestaltung. Bilder, Grafiken und Texte sind nach buchtypografischen Regeln angeordnet und dienen im gedruckten Buch der Unterstützung einer guten Lesbarkeit. Derartige Gestaltungsansätze unterstützen nicht die gute Lesbarkeit auf dem kleinen Monitor eines eBooks.

Wichtige Kriterien

  • Wahl einer geeigneten Monitorschrift (Serifenlos)
  • Heller Schriftuntergrund (guter Kontrast zur Schriftfarbe)
  • Klare und logische Strukturierung des eBooks (Lesezeichen, Suchfunktion, interne und externe
  • Verlinkungen, ...)
  • Die Satzbreite muss auf gängige Monitorgrößen angepasst werden

Quelle: Kompendium

AnhangGröße
PDF icon Zusammenfassung E-Book191.03 KB
Bewertung: 
4.444445
Durchschnitt: 4.4 (9 Stimmen)

Formularauswertung Javascript-Funktion

Formulare kann man grundsätzlich auf dreierlei Art auswerten, nämlich clientseitig, serverseitig und mit einer Kombination beider Möglichkeiten. Bei der clientseitigen Auswertung kommt in der Regel Javascript zum Einsatz, auf der Serverseite beispielsweise PHP, ASP oder Perl.

Wir wollen uns hier mit der JavaScript Auswertung befassen.

Ich denke, dass es sch bei diesem Themenfeld um JavaScript- Validierung von Formularen handelt, da Auswertung keinen Sinn macht. Man hat nur EINEN JavaScript-Datensatz und wie will man einen einzelnen Datensatz auswerten?

Formulare werden auf Webseiten meist mit HTML gecoded. (Formulare sind Eingabefelder wie bei Kontaktaufnahme etc. auf Webseiten.)
 

JavaScript hilft nun bei der Validierung, d.h. Prüfung. In dem Fall von Formularen kann JavaScript prüfen, ob alle Felder generell richtig ausgefüllt sind. Das heißt, Javascript checkt, ob im "Telefonnummer"-Feld tatsächlich nur Zahlen stehen, ob die Mailadresse nur im Format XX@XX.XX eingegeben ist, ob ein Pflichtfeld vielleciht leer gelassen wurde usw.

Ist das nicht der Fall, wird je nach dem ein Error ausgegeben. (z.B. das Feld wird rot und oben drüber steht "bitte geben Sie ihre Telefonnummer korrekt an")

Die Vorteile der JS- Validierung von Formularen:

  • Die Validierung ist sehr angenehm für den Benutzer, da dieser sofort Fehler sieht und es so bei der weiteren Verarbeitung keine unvorhergesehenen Fehler gibt
  • Dank der Überprüfung der Daten vor dem Abschicken wird dafür gesorgt, dass der Server nur anfragen erhält, die erstmal korrekt sind. Somit wird die Serverbelastung minimiert.

Die Nachteile der JS-Validierung von Formularen:

  • Die Validierung durch JS ist sehr einfach durch den Nutzer zu umgehen. Er kann einfach die JS-Funktion seines Browsers ausstellen und die Eingaben werden nicht mehr überprüft. Somit muss dann der Server die Überprüfung übernehmen (wir erinnern uns: JS= Clientseitig), womit dieser wieder belastet wird und sich doppelte Arbeit gemacht wird.
  • Es könnte sein, dass bestimmte Browser JavaScript nicht interpretieren können und es dadurch zu Fehlern kommt. (Eigentlich kann mitlerweile jeder Browser JS)

 

 

Modulare Validierung mit JavaScript

Man kann das Script, dass für die Validierung verantwortlich ist, in verschiedene Module einteilen, was für Flexibilität sorgt. Man kann beispielsweise einzelne Module ändern, und muss nicht jedesmal ein neues Script schreiben.

Was leistet das Script?

Ich bin hier mal so frei und Kopiere eine Tabelle aus SelfHtml.org (mehr im Quellenverzeichnis)

"Neben den Standardtests beherrscht das Script auch einige außergewöhnliche Aufgaben. Im Einzelnen kann es

  • überprüfen, ob ein Feld leer ist,
  • einen Wert daraufhin überprüfen, ob er eine Zahl ist, auch Dezimalzahlen mit Punkt oder Komma,
  • eine Emailadresse auf die korrekte Syntax überprüfen,
  • anhand eines regulären Ausdrucks feststellen, ob ein Wert auf ein bestimmtes Muster passt,
  • feststellen, ob ein Wert, der einen Preis darstellen soll, in der Form € 10,00 angelegt ist und ihn ggf. korrigieren,
  • bei Namen auf die korrekte Klein-/Großschreibung achten und diese ggf. korrigieren."

Wie bereits oben schon einmal kurz erwähnt.

 

Konfiguration

(auch wieder Copy&Paste, besser könnte ich es nicht ausdrücken) Ich weiß nicht, ob die Prüfung tatsächlich so tief in das Thema eingehen könnte, allerdings denke ich, es kann nciht schaden mehr zu wissen)

Die Funktion erwartet drei Parameter:

  • die Form, die validiert werden soll (sender), thisist in der Regel die richtige Wahl,
  • ein Array mit den Elementen, die validiert werden sollen (myarray), sowie Informationen darüber, was jeweils geprüft werden soll und die entsprechende Fehlermeldung,
  • optional eine Überschrift für die Fehlermeldung (err_hd).

Wird der Parameter err_hdnicht gesetzt, lautet die Standardüberschrift "Folgende Fehler sind aufgetreten:".

 

Quellen:

Wenn jemand Korrekturen oder Ergänzungen hat, bitte ich darum, diese hier zu ergänzen.

Bewertung: 
0
Bisher keine Bewertung

Formularverarbeitung mit PHP

Ganz simpel!

Auf der HTML-Seite hat man irgendein Formular.

    <form method="POST" action="formularverarbeitung.php" >
   
        <input type="text" name="betreff">
       
        <textarea name="kommentar"></textarea>
       
        <input type="submit" value="Speichern">
   
    </form>

Welche Art von Feldern in dem Formular stehen, ist egal. Was man braucht ist der "name". In der PHP-Datei, an die es geschickt wird, kann man den Inhalt nämlich unter diesem Namen abrufen und in Variablen speichern.

    <?php
   
        $betreff = $_POST['betreff'];
       
        $kommentar = $_POST['kommentar'];
   
    ?>

Wenn das Formular mit method="GET" funktioniert, dann muss da anstelle $_POST['...'] allerdings $_GET['...'] stehen. Man kann auch einfach $_REQUEST['...'] schreiben, denn das geht für beide.

Nachfolgend kann man mit den Variablen anstellen, wonach einem der Sinn steht... In eine Datei schreiben, in die Datenbank schreiben oder auch einfach nur ausgeben.

    <div class="beitragstitel">
    
        <h2><?php echo $betreff; ?></h2>
    
    </div>
    
    
    <div class="beitrag">
    
        <?php echo $kommentar; ?>
    
    </div>

 

Nicht schlecht, aber für Newbies ein bisschen viel auf einmal ;)
Tutorial auf Quakenet: http://tut.php-q.net/de/post.html

Bewertung: 
5
Durchschnitt: 5 (1 Stimme)

Grafiken einbinden bei SelfHTML

Hier der direkte Link zum Thema bei SelfHTML:

http://de.selfhtml.org/html/grafiken/einbinden.htm

Bewertung: 
1
Durchschnitt: 1 (1 Stimme)

Grafiken und HTML

Was vielleicht für den einen oder anderen hilfreich sein könnte (auch im Hinblick auf die praktische Prüfung):

Dateigrößen:

Man kann Grafiken zwar auch mittels css skalieren (vergrößern o. verkleinern), jedoch ist das der denkbar schlechteste Weg. Lieber die Grafiken in der gerade gebrauchten Größe ablegen und dafür, sollte man mehrere Größen benötigen, öfter als einmal.

Vergrößert man die Grafik via css, geht Qualität verloren. Ungünstig!

Nimmt man eine große Grafik und verkleinert sie via css, wird mehr Ladezeit gebraucht. Ebenso ungünstig!

Dateiformat:

Wie ja auch vorher schon erklärt wurde, muss man immer gut auswählen, welches Format jetzt grade sinnvoll ist. Man darf hierbei jedoch nicht nur die Qualität beachten, auch die Ladezeiten sind ein wichtiger Punkt. Webseiten nur mit JPEGs zu erstellen ist also im Hinblick auf die Qualität vielleicht eine naheliegende Idee, auf Grund der immensen Größe der Datei jedoch wieder ganz und gar nicht.

Theoretisch ist es ja immer ganz klar, welches Format man nun nehmen sollte. Und praktisch?

Die praktische Variante lässt sich am Besten mit Photoshop umsetzen. Ich habe mein Bild nun fertig und möchte es gerne für Web abspeichern. Welches Format eignet sich nun am Besten?

Einfachste Methode ist hier ein schlichter Vergleich. Über "Für Web speichern" sieht man links die Originaldatei und Rechts eine Vorschau für das gewählte Format. Praktischerweise kann man reinzoomen, um einen sehr guten Qualitätsvergleich machen zu können. Außerdem wird zugleich die Dateigröße sowohl vom Original als auch von der gewünschten Datei angezeigt. So kann man schrittweise ausloten, welches Dateiformat an dieser Stelle das sinnvollste ist.

Achtung: 20-fache Vergrößerung lohnt sich hierbei nicht wirklich, das menschliche Auge nimmt Veränderungen und Qualitätsverluste nur bis zu einem gewissen Grad wahr ;)

gif oder jpg?

Auch vom Motiv her kann man schon eine Vorentscheidung treffen. Gif eignet sich vor allem für flächige und technische Motive (Grafiken, Logos, etc.) und JPEGs sich für fotografische Motive oder Darstellung von Verläufen eignen.

 

Bewertung: 
0
Bisher keine Bewertung

HTML

Bewertung: 
0
Bisher keine Bewertung

Bildformate im Web

JPG / JPEG (Joint Photographic Experts Group)

Geeignet für: Fotos, Verläufe

Das JPG-Format kann bis zu 16,7 Millionen Farben darstellen und arbeitet mit einer verlustbehafteten (lossy) Kompression. Da die Kompression zu Kantenunschärfe führt, ist diese Format nicht für Bilder mit harten Kanten – wie zum Beispiel Vektorgrafiken – geeignet.
JPGs können in unterschiedlicher Qualität abgepeichert werden. 100% gibt dabei die maximale Qualität an, was aber nicht bedeutet, dass das Bild verlustfrei gespeichert wird.
Ein JPG kann auch als Progressives JPG gespeichert werden. Progressive JPGs setzten sich beim Ladevorgang anders als das normale JPG nicht zeilenweise zusammen, sondern erscheinen von Beginn an als ganzes, aber sehr unscharfes Bild, welches sich nach und nach scharf stellt.

PNG-24 (Portable Network Graphics, 24 Bit)

Geeignet für: transparente Grafiken, Verläufe

Das PNG-24-Format kann bis zu 16,7 Millionen Farben darstellen und unterstützt Transparenz einzelner Farben und Alphakanäle. Man unterscheidet 24-Bit PNGs und 8-Bit PNGs, wobei PNG-8 dem GIF-Format sehr nahe kommt und auch nur 256 Farben unterstützt. Des weiteren unterstützt PNG-8 genauso wie GIF lediglich eine 1bit-Transparenz, wohin gegen PNG-24 auch problemlos Halbtransparenzen darstellen kann. Zu beachten ist, dass der Internet Explorer bis zur Version 6 nicht in der Lage ist Halbtransparenzen zu vearbeiten und darzustellen. Die Kompression bei PNG ist verlustfrei (lossless). Wie beim Progressivem JPG ist ein schneller Aufbau eines Vorschaubildes in niedriger Auflösung möglich, indem man beim Speichern die Option Interlaced wählt.
 

GIF (Graphics Interchange Format)

Geeignet für: animierte Grafiken, transparente Grafiken, Logos, Bilder mit scharfen Kanten

Das GIF-Format unterstützt 256 Farben, mehrere Einzelbilder pro Datei und 1Bit-Transparenz. Die Kompression ist verlustfrei (lossless).
GIFs können als Interlaced gespeichert werden und unterstützen das sogenannte Dithering. Wie beim PNG-8 können hier weitere Einstellungen vorgenommen werden, wie zum Beispiel die Anzahl der Farben und die Kompressionsrate (Lossy).

Das GIF Format bietet heutzutage nur noch wenige Vorteile und wird immer mehr von PNG-8 und SWF abgelöst.

www.zfamedien.de/ausbildung/mediengestalter/tutorials/dictionary.php

 

Bewertung: 
0
Bisher keine Bewertung

HTML-5-Struktur

header
umfasst den Kopfbereich eines Dokuments und kann typischerweise den Titel des Dokuments, Logos, ein Formular zur Schnellsuche oder ein Inhaltsverzeichnis enthalten.

nav
für Hauptnavigationsblöcke gedacht.

article
ist der Ort für die eigentlichen Inhalte der Seite.  Die Verwendung soll so erfolgen, dass article-Blöcke, für sich genommen, alleinstehend sind, also beispielsweise auch unverändert als Inhalt eines Newsfeeds verwendet werden könnten.  article-Blöcke können mit section in mehrere Abschnitte unterteilt werden und sind außerdem schachtelbar.

aside
beheimatet Abschnitte, die nicht unmittelbar mit dem eigentlichen Inhalt zusammenhängen – ein klassischer Fall für Sidebars, aber auch für inhaltliche Einschübe in einem article.

footer
beinhaltet das, was man üblicherweise im Fußbereich eines Dokuments findet: Autor- und Copyright-Informationen oder Querverweise.  footer kann, aber muss nicht notwendigerweise am Ende eines Dokuments stehen.

section
Entsprechend der Spezifikation des <article> Elements steht für eine weitere Untergliederung der textuellen Inhalte innerhalb des <article> Elements das <section> Element zur Verfügung. Die einzelnen Abschnitte eines Artikels lassen sich somit semantisch korrekt strukturieren.

 

Das wäre das Grundgerüst:

 

 

<!DOCTYPE html>
<html lang="de">
  <head>
    <meta charset="utf-8" />
    <title>HTML5 Layout</title>
    <link rel="stylesheet" href="css/main.css" type="text/css" />
  </head>
  <body>
  ...
  </body>
</html>

 

Das wäre die Struktur:

<div id="doc">

 

<div id="doc">
<header id="header">
<h1>HTML5 Layout</h1>
<nav>
<ul>
<li class="active"><a href="#">Home</a></li>
<li><a href="#">Link1</a></li>
<li><a href="#">Link2</a></li>
</ul>
</nav>
</header>
<section id="content">
<article>
<h2>Artikel Überschrift</h2>
<p>Lorum ipsum...</p>
</article>
</section>
<aside>
<h2>Sidebar</h2>
<p>Lorum ipsum...</p>
</aside>
<footer>
<a href="#">Impressum</a>
</footer>
</div>

Weiterführende Links

http://www.html-seminar.de/html-5-strukturierende-elemente.htm

Bewertung: 
5
Durchschnitt: 5 (2 Stimmen)

HTML-DOM

Das Document Object Model (DOM) ordnet die Ansammlung von Objekten einer HTML-Seite in einer Objekthierarchie und legt darüber fest, wie die einzelnen Elemente z.B. über JavaScript angesprochen werde können.

Das DOM ist ein durch das W3C festgelegter Standard, der festlegt, wie Objekte durch Scriptsprachen angesprochen werden können. (Interface)

Objekte zeichnen sich durch Eigenschaften (durch Elemente und Attribute) und Fähigkeiten (Methoden: Funktionen, die im Bezug zu einem bestimmten Objekt stehen) aus.

Diese DOM eignet sich nun wohl optimal, um die Ziele eines "dynamischen HTMLs" umzusetzen:

Ziel ist, dass die Elemente einer Seite in ihrer Position und in ihrem Aussehen verändert werden können, ohne dass die Seite neu geladen werden muss.

W3C-Definition "Dynamisches HTML": Kombination aus einer Scriptsprache zur dynamischen Veränderung von Elemente sowie HTML und CSS.

Hierarchische DOM-Baumstruktur:

Diese besteht aus Knoten (folgend die wichtigsten):

  • Elementknoten (Element in HTML oder XML)
  • Attributknoten (Attribut in XML oder HTML)
  • Textknoten (Inhalt des Elements oder Attributs)
  • Kindknoten
  • assoziierte Knoten

Ein HTML-Dokument wird in eine hierarchische Knoten-Struktur gegliedert, so dass ein eingesetztes Script diesen "Baum" als Schnittpunkt erkennt und weiß, wie es die Elemente (Objekte) der Seite ansprechen soll...

siehe auch SelfHTML (http://de.selfhtml.org/dhtml/modelle/dom.htm)

Bewertung: 
0
Bisher keine Bewertung

HTML-Tabellen

Man kann in HTML Tabellen definieren, um tabellarische Daten darzustellen. Obwohl teilweise dafür genutzt, sollte man unbedingt auf die Layoutgestaltung mit Tabellen verzichten (siehe barrierefreies Webdesign).

Beispiel:

<table>
<tr>
<td>Print</td>
<td>Digital</td>
</tr>
</table>

Erläuterung

Wie in HTML üblich gibt es bei dem Tabellenaufbau einen Start- und einen End-Tag mit dem der Beginn und das Ende beim Auslesen der Datei beschrieben werden.

<table> Start-Tag
</table> End-Tag

Diese Tabelle hat normalerweise einen Rahmen (border), will man diesen unsichtbar machen muss man border="0" angeben. Möchte man einen dickeren Rahmen kann man natürlich auch Werte eingeben (1= normaler Rahmen, 2, 3, ...) Ohne Rahmen sähe es eingebunden dann folgendermaßen aus:

<table border="0">

tr-Tag

<tr> leitet eine neue Tabellenzeile ein (tr = table row = Tabellenzeile). Im Anschluss daran werden die Zellen (Spalten) der betreffenden Reihe definiert <td>Print</td> (td = table data = Tabellendaten). Am Ende einer Tabellenzeile wird ein abschließendes Tag notiert </tr> .

td-Tag oder/und th-Tag

Eine Tabelle kann Kopfzellen und gewöhnliche Datenzellen enthalten.
Text in Kopfzellen wird hervorgehoben (meist fett und zentriert ausgerichtet). 

<th> leitet eine Kopfzelle ein (th = table header = Tabellenkopf)
<td> leitet eine normale Datenzelle  (td = table data = Tabellendaten)

Der Inhalt einer Zelle wird jeweils hinter dem Tag notiert (in diesem Beispiel "Print" und "Digital")

Obwohl die zugehörigen End-Tags </th> bzw. </td> offiziell optional sind, ist dringend zu empfehlen, sie immer und in jedem Fall zu notieren (in XHTML beispielsweise sind Schluss-Tags generell vorgeschrieben).

Aufbaubeispiel (s.o. nur diesmal mit zwei Zeilen)

Das unten stehende Beispiel sieht wie folgt aus:
Eine Tabelle mit einem normalen Rahmen, in der ersten Zeile stünden Print & Digital in fett (als Überschrift/Header <th>) und darunter in normaler Schrift (<td>) CMYK und RGB:

Print      Digital
CMYK    RGB

<table border="1">

<tr>
<th>Print</th>
<th>Digital</th> 
</tr>

<tr>
<td>CMYK</td>
<td>RGB</td>
</tr>

</table>

Desweiteren lassen sich natürlich auch Größe der Tabelle sowie Textanordnung in der Tabelle definieren siehe  Quelle: http://de.selfhtml.org/html/tabellen/aufbau.htm

 

Colspan & Rowspan

Durch Colspan (Anzahl der Spalten) lässt sich erreichen, dass sich eine Zelle  über mehrere Spalten hinweg erstreckt (colspan = column span = Spalten spannen).

In unserem Beispiel sähe das so aus, wenn die Überschrift "Farbräume" über beiden Spalten ("CMYK" und "RGB") stehen soll.

<table border="1">

<tr>
<th colspan="2">Farbräume</th>
</tr>

<tr>
<td>CMYK</td>
<td>RGB</td>
</tr>

</table>

Durch colspan="2" geben wir an über wieviele Spalten sich die Zeile "Farbräume" erstrecken soll. Da wir 2 Spalten haben, also die 2.

Durch Rowspan (Anzahl der Zeilen) lässt sich erreichen, dass eine Zelle in einer Spalte sich über mehrere Zeilen erstreckt (rowspan = Zeilen spannen).

Zurück zu unserem Beispiel:

<table border="1">

<tr>
<th rowspan="2">Farbräume</th>
<td>CMYK</td>
</tr>

<tr>
<td>RGB</td>
</tr>

</table>

Wie man sieht, wird immer der Zelle, die sich über andere Spalten oder Zeilen erstrecken soll, das jeweilige Attribut zugeschrieben.

Quelle: http://de.selfhtml.org/html/tabellen/zellen_verbinden.htm

Bewertung: 
0
Bisher keine Bewertung

HTML-Validierung

Validierung = Überprüfung eines HTML-Dokuments auf Fehler (z.B. in Syntax und Grammatik). Dazu bietet sich der W3C Markup Validation Service an. Nach der Validierung gibt der Validator Auskunft über die Art der Fehler und wo (Zeile) sie im Quellcode zu finden sind.

Für die Validierung ist es wichtig, dass im HTML-Dokument der Doctype richtig bzw. überhaupt gesetzt ist, damit die entsprechenden Validierungsregeln angewandt werden können.

Im Sinne der Validierung fehlerfreie Websites, erhöhen die Wahrscheinlichkeit, dass die Site in jedem Browser korrekt geparsed und fehlerfrei angezeigt wird.

DOCTYPE:
Es gibt 6, dennoch sind nur 4 Zeitgemäß:

XHTML: transitional, strict. Um XML/Beschreibungssprache in der man eigene Tags machen kann/ oder anderen Beschreibungen und Sprachen erweiterbar, das HTML muss strenger geschrieben werden. Hier die Regeln:

XHTML-Doctype(strict oder transitional),
alles klein geschrieben,
jeder <tag> muss geschlossen sein (muss ein End-Tag haben) <p> bb </p>, Stand Alone Tags: <img /> <hr /> in sich geschlossen.
Jedes HTML Attribut muss eine Wertzuweisung haben:
<input    checked=“checked“ />
muss korrekt verschachtelt werden :
<div><div><p><em></em></p></div></div>
alle inline Tags müssen innerhalb vom Block-Tag sein

BlockTag: zur Strukturierung von Texten und Daten wie h1, p und div erzeugen einen Zeilenumbruch und werden auch als „Blockelemente“ bezeichnet, da sie einen visuellen Block aufziehen. Einige Blockelemente können selber wieder Blockelemente enthalten, so z.B. das div-Element.

Inline : Inlineelemente wie a und em erzeugen keinen Zeilenumbruch und dürfen keine Blockelemente enthalten. Insbesondere dürfen Inlineelemente nicht direkt innerhalb eines body- oder form-Elements liegen, sondern müssen immer innerhalb eines Blockelements liegen.


WIRD WAS FALSCH GEMACHT, WIRD ES BEI DER VALIDIERUNG ANGEZEIGT

HTML: strict, transitional
nicht mit XML erweiterbar,
Tags müssen kein Endtag haben: <p>,
<hr> <br> ---> simuliert ein Endtag,
Attribute gibt es auch ohne Wertzuweisung,:<input checked>,
inline tags können auch im body sein
und

frameset:strict,transitional
Hat einen eigenen Doctype,
Nachteile:Framesets sind nicht Barrierefrei,Mindeststandards sind somit nicht erfüllt,
werden heute nicht mehr benutzt: Suchmaschinen können diese nicht richtig durchsuchen
Vorteile: Ladegeschwindigkeit: besser, muss nur Teil der Seite laden

Strict:keine gestaltenden HTML- Tags und HTML Attribute,
keine gestaltenden Elemente wie z.B. Schriften und Farben.
<a href=“ tatatata.htm.>
<img src=“xy.jpg“ alt=“text“>
<img src=“xy.jpg“ alt=“text“ width=“20“ height=“50“ />
<p style=“color:red“>---->inline css style sind erlaubt
in HTML soll nur strukturiert werden

Transitional: im HTML gestaltende Attribute.
<h1 align=“left“>
<body bgcolor=“red“>
<a href=xy.htm“ target=“_blank“..../>

W3.org: Validator Consortium nachprüfen.

Bewertung: 
0
Bisher keine Bewertung

HTML5-Neuerungen

Inhaltsverzeichnis:
 

Haupt-Ziele für HTML5

 

  • Neue Funktionen/Features, basierend auf HTML, CSS und Javascript
  • Reduzieren der Notwendigkeit externer Plugins (wie Flash)
  • Bessere Fehler-Behandlung
  • Geräte-Unabhängigkeit
  • Mehr Markup-Elemente sollen Skripte ersetzen
  • Der Entwicklungsprozess sollte für die Öffentlichkeit einsehbar sein

Wichtigste Neuerungen in HTML5

  • Das Video- und Audio-Element welche endlich einen standardisierten, einfachen Weg zur multimedialen Website bieten sollen.
  • Bessere Methoden Daten offline zu speichern
  • Das Canvas-Element
  • Die Content-spezifischen Elemente (section, article, nav, etc.)
  • Die Formular-Elemente, welche unnötige Programmierarbeit ersparen und bessere Benutzerfreundlichkeit herstellen sollen.
  • Geolocation soll es ermöglichen den Standpunkt des Benutzers auf Anfrage zu ermitteln.

    (Quelle: http://www.compufreak.info/wp-content/uploads/downloads/2011/01/Einstieg-in-den-Umstieg-auf-HTML5.pdf)

Weiterführende Links:

http://www.drweb.de/magazin/html5-ueberblick/
http://www.compufreak.info/wp-content/uploads/downloads/2011/01/Einstieg-in-den-Umstieg-auf-HTML5.pdf

 

Die folgenden Inhalte wurden verfasst von Fr.Hase

Das Video-Element

Das war überfällig: ein natives Browserobjekt, das ohne Plugin-Krücken Videodateien abspielen kann und über CSS gestalten und mit javascript angesprochen werden kann. Ein Schönheitfehler ist, dass sich die Browserhersteller aufgrund lizenzrechtlicher Schwierigkeiten nicht auf ein gemeinsames Videoformat einigen konnten. Aber es ist möglich, als Source mehrere Formate zu hinterlegen; der Browser sucht sich dann das passende aus und stellt es dar. Es gibt momentan drei wichtige Videoformate: mp4 (H264), webM(webM), ogg (Theora/Vorbis). Browser Ogg Theora (.ogg) h.264 (.mp4)

Firefox Ja
Internetexplorer
Opera Ja
Chrome Ja Ja
Safari Ja
iPhone Ja
Android Ja

Die Einbindung eines Videos ist denkbar einfach:
<video id="video" width="480" height="270" controls
poster="img/platzhalter.jpg">
<source src="video.mp4" type="video/mp4">
<source src="video.ogv" type="video/ogg">
Dein Browser ist leider nicht mit HTML5 kompatibel.
</video>

Die Media-API
Über das controls-Attribut lässt sich der Player steuern. Die Media API ist jedoch ein gutes Beispiel dafür, wie in HTML5 APIs umgesetzt sind, um auf Objekte zuzugreifen. Deswegen – und weil wir komplette Kontrolle über unser Layout und unsere Funktionen haben wollen, denn jeder Browser hat seine eigene Darstellung der playereigenen Interface – bauen wir uns im Folgenden unser eigenes MediaPlayer-Interface. Zum Testen verwenden wir wieder Google Chrome, da im FF und IE jeweils eine Funktionalität nicht zur Verfügung steht.

Aufgabe: MedienInterface erstellen

  • Binden Sie die mitgelieferten Videos wie oben beschrieben in eine HTML5-Webseite ein. Lassen Sie das controls-Attribut dabei weg.
  • Wir brauchen 6 Buttons mit folgenden Beschriftungen: Start/Pause, Stummschalten, Lauter, Leiser, Schneller, Langsamer
  • Wir brauchen eine Fortschrittsanzeige, für das wir ein neues HTML5-Element verwenden: das <progress>-Tag.

Z.B:
<progress id="fortschritt" min="0" value="0" style="width:427px"></progress>
Achtung: Dieses Element ist im Internet Explorer 9 noch nicht implementiert.
Damit wäre der HTML-Teil abgeschlossen.

  • Zunächst programmieren wir eine Funktion, die das Video abspielt: Über eine einfache Statusabfrage lässt sich über den paused-Wert bestimmen, ob per click die pause() oder play()-Methode angewandt wird:

var video=document.getElementById('video');
function start()
{
if (video.paused)
{
video.play();
}
Johannes-Gutenberg-Schule Stuttgart, Zentrum für Druck und Kommunikation Lehrgang HTML5
Göhlich
else
{
video.pause();
}
}
Diese Funktion setzen wir mit einem Onclick-Event auf den Play/Pause-Button.

  • Ähnlich verfahren wir mit den Funktionen für die anderen Buttons. Hier müssen wir keine Methode anwenden, sondern nur entsprechende Werte setzen.
    Funktion Werteabfrage, -setzen

Stummschalten video.muted
video.muted = true|false
Lauter/Leiser
Hinweis: Wert darf nicht <0 oder >1
sein!
video.volume
video.volume=0-1
Abspielgeschwindigkeit ändern
Hinweis: Funktioniert nicht im FIrefox
video.playbackRate
video.playbackRate=0-100
Wert 1 ist normale Geschwindigkeit
Für den Fortschrittsbalken benötigen wir die Gesamtlaufzeit des Videos. Diese können wir über element.duration auslesen, doch dazu muss der Browser das Video soweit geladen haben, dass er die Gesamtspielzeit kennt. Woher kennen wir den Zeitpunkt? Praktischerweise gibt es ein Event, das genau dann feuert, wenn der Browser die Metadaten (u.a. die Laufzeit) geladen hat: loadedmetadata. Diesen Wert setzen wir dann auf das Max-Attribut des Fortschrittbalkens:
var fortschritt = document.getElementById('fortschritt');
video.addEventListener('loadedmetadata',function(){
fortschritt.setAttribute('max',video.duration);
});
Jetzt müssen wir noch den Wert des Fortschrittsbalkens analog zur aktuellen Spielzeit des Videos setzen. Dafür rufen wir die currentTime des Videos regelmässig ab:
setInterval(function(){
fortschritt.setAttribute('value',video.currentTime);
},500);