Datenverarbeitung SS 06

Werbung
Datenverarbeitung SS 06
Daten sind Buchstaben, Symbole und Ziffern; alle Arten von Nachrichten oder
Informationen, die sich maschinell verarbeiten lassen.
Nachrichten-Informationen: die abstrakte Information wird durch die konkrete
Nachricht mitgeteilt. Information ist Sachverhalt und Vorgang oder Form + Inhalt
Daten werden durch Analyse und Aufbereitung (ein Foto) in Information überführt.
Informationen sind Angaben über Sachverhalte und Vorgänge. Die Gesamtheit von
Informationen und deren Zusammenhänge wird als Wissen bezeichnet.
Zur Erinnerung: Daten stellen maschinell verarbeitete Informationen dar.
Informationen: Symbole, Ziffern (der PC liefert uns diese Daten und der Mensch
interpretiert diese). Nachrist ist der Transport von Daten (Foto).
Symbole sind z. B. Pixel beim Foto. Im Großen interpretieren wird das Bild (viele
Pixel). In solchen Bildern können auch Codes versteckt sein, welche mit bloßem
Auge nicht zu erkennen sind.
DV/EDV = Sammelbegriff für die Erfassung und Manipulation von Daten durch
elektronische Maschinen (Computer)
Verwaltung von Stammdaten:
- zustandsorientierte Daten, zur Identifizierung, Klassifizierung und
Charakterisierung von Sachverhalten
- stehen unverändert über einen längeren Zeitraum hinweg zur Verfügung
Verarbeitung von Änderungsdaten (engl.: change data)
- abwicklungsorientierte Daten
- bewirken fallweise Änderung (Berichtigung, Ergänzung, Löschung) von
Stammdaten
- auch zur Änderung von Stammdaten (engl.: updating)
-
Stammdaten (Telefonnummer)
Änderungsdaten (gewählte Telefonnummern)
Manuelle Informationsverarbeitung (etwas aufschreiben)
Rechnergestützte Informationsverarbeitung (durch Drücken der Tasten geben
wir dem PC vor, was er machen muss, den Rest macht er selbst – es
erscheint auf dem Bildschirm)
Hilfsmittel zur Informationsverarbeitung:
Manuelle Informationsverarbeitung – durch den Menschen
Rechnergestützte Informationsverarbeitung – Rechner führt
Informationsverarbeitungsaufgaben weitgehend selbsttätig durch
Vorgabe der Anweisungen:
Algorithmus: Unter einem Algorithmus versteht man allgemein eine genau
definierte Handlungsvorschrift zur Lösung eines Problems oder einer bestimmten
Art von Problemen. (Auszug aus Wikipedia)
Programm: Eine zur Lösung einer Aufgabe vollständige Anweisung an einen
Rechner
Programmieren: der Vorgang der Erstellung einer derartigen Anweisung
Programmiersprache: einer der Maschine verständlichen Sprache zur
Programmierung
Bsp: Newton-Algorithmus: (q² = n)
q²
q=1
1
q=5
25
q = 3,4
11,56
q = 3,0235
9,14
n:q
9
1,8
2,647
2,98
(q + n : q) : 2
5
3,4
3,0235
3,0175
Ein Approximationsalgorithmus ist in der Informatik ein Algorithmus der ein
Optimierungsproblem näherungsweise löst. Viele Optimierungsprobleme lassen
sich mit exakten Algorithmen nicht effizient lösen. Für solche Probleme kann ist es
sinnvoll sein, wenigstens eine Lösung zu finden, die einer optimalen Lösung
möglichst nahe kommen. (aus Wikipedia)
lesen: Algorithmus
Ziel der technischen Informationsverarbeitung:
- Rationalisierung
- Bewältigung großer Datenmengen
- Beschleunigung von Geschäftsprozessen
- Verbesserung von Qualität und Service
- Unterstützung der Planung, Steuerung und Kontrolle
- Umfangreiche, komplizierte Berechnungen (OR)
- Ermöglichung neuer Organisationsformen
- Groupware (Software, die Zusammenarbeit erleichtern, z. B. email, chat),
elektronischer Datenaustausch (EDI)
- Strategische Wettbewerbsvorteile
Arten von Daten:
Bilder, Töne, Text, Zahlen, Video-, Audiostreams
Codierung und Speicherung:
- Daten werden zur Verarbeitung digitalisiert und codiert
- Technisch werden Daten als Zeichen in einer Datei oder als Teil einer
Datenbank gespeichert
- Datenbank versucht einen Teil der Realität über ein abstrahierendes
Datenmodell abzubilden (Realität -> ER-Modell -> relationales Modell ->
Access)
Begriffe zur Darstellung der Daten im Computer:
- Code: Vorschrift zur Abbildung eines Zeichenvorrats in einem anderen
Zeichenvorrat
(Unter einem Code wird eine Vorschrift verstanden, in der Symbole
einer Darstellung in solche einer anderen übertragen werden. =
Wikipedia)
- Zeichenvorrat: Alphabet, Menge der bei einem Code zur Verfügung
stehenden Symbole
- Binärcode: Zeichenvorrat mit 2 Werten
(Binärcode ist die allgemeine Bezeichnung für einen Code, mit dem
Nachrichten durch Sequenzen von zwei verschiedenen Symbolen (zum
Beispiel 1/0 oder wahr/falsch) dargestellt werden können (Wikipedia)
- Zahlensysteme: Ein Zahlensystem wird zur Darstellung von Zahlen
verwendet. Eine Zahl wird dabei nach den Regeln des Zahlensystems als
Folge von Ziffern dargestellt. (Wikipedia)
Digitale Daten: Buchstaben, Ziffern, Interpunktionszeichen, Steuerzeichen,
Farbpunkte von Bildern, akustische Signale
Analoge Daten: Thermometer, Rechenschieber, Bildschirm
8 Zeichen = 8 bit = 1 byte
Digitalisierung – Codierung
Überführung der analogen Darstellung in die digitale Darstellung:
Verfahren:
- Text: Code verwenden -> 2 Zeichen -> bisher
- Bild: Auflösung in Bildpunkte (Attribute: Helligkeit, Farbe, Position) oder
Vektoren (Attribute: Startpunkt, Endpunkt, Ausprägung)
- Ton: je nach gewünschter Qualität so und sooft pro Sekunde abtasten
- Film: Behandelt wie Einzelbilder, zusätzlich Zeitinformation -> DivX –
Algorithmus wird immer besser, stark komprimieren, bessere Qualität,
weniger Kompressionsartefakte wie früher
- Bewegung: Raumkoordination und Zeitkoordinaten
Zeichenvorräte und Bits und Bytes
Zeichenvorräte:
- ASCII, Griechisch, Kyrillisch,…
- ASCII (American Standard Code for Information Interchange) ist eine
Zeichencodierung. Die Zeichen umfassen das lateinische Alphabet in Großund Kleinschreibung, Ziffern, einige Satzzeichen und Steuerzeichen. Der
Zeichensatz entspricht weitgehend der Tastatur einer Schreibmaschine für
die englische Sprache. In Computern und anderen elektronischen Geräten,
die Text darstellen, wird dieser in der Regel gemäß ASCII codiert. Weiterhin
sind die meisten erweiterten Zeichencodierungen kompatibel zu ASCII.
(Wikipedia)
- Blindenschrift, Morse….
Technische Darstellung:
- Binärsystem, also 2 Zeichen
- Ein Bit ist die kleinste Info-Einheit
- Wortlänge, also wie viele Zeichen fassen wir zu einem Wort zusammen:
Byte als ein Wort aus 8 Bit!
- Mit einem Bit lassen sich zwei Zustände darstellen: Aus=0 und Ein=L
KLAUSUR -> Ausrechnen!!!
Die Zahl der abbildbaren Zustände ergibt sich als:
Zustände = Zeichenzahl Wortlänge
z. B. 64 = 4³
256 = 28
1.000.000 = 7 Zeichen
lesen: Speicherkapazität.pdf!
Codeeigenschaften I
- Degenerierter Code (braucht mehr Speicherplatz, informationstechnisch
nicht möglich), genetischer Code (mehr Sicherheit falls Schreibfehler)
- Hamming-Abstand: Das Minimum aller Abstände zwischen den Wörtern
innerhalb des gültigen Codes (Mindestabstand jedes sinnvollen Codes = 1)
- EDC (Error Detection Code) und ECC (Error Correction Code): Für jeden
Code mit Hamming-Distanz h gilt: es können jeweils h-1 Bit Fehler erkannt
werden und es können jeweils h-2 bit Fehler korrigiert werden
- Entropie: Entropie ist grob gesagt ein Maß für die Menge an
Zufallsinformationen, die in einem System oder einer Informationsfolge
steckt.
lesen: genetischer Code
lesen: Hamming-Abstand – Codierung.xls
Hamming-Abstand
Parität ermitteln:
Summe
Summe mod 2
(Rest)
010
1
1
101
2
0
111
3
1
Rechenweg
1:2 = 0 Rest 1
2:2 = 1 Rest 0
3:2 = 1 Rest 1
Wenn Übereinstimmung bis 4. Stelle bei Übertragung ist die Übertragung korrekt.
Rechenweg ist bekannt bei Empfänger und Sender! Mehr Daten übermitteln, Fehler
korrigieren => Datensicherheit erhöht sich.
Kanalcodierung: Wie viele Daten müssen „umsonst“ übertragen werden, um Fehler
korrigieren zu können?
Die Kanalkodierung oder Vorwärtsfehlerkorrektur ist eine Methode in der
Nachrichtentechnik, um digitale Daten bei der Speicherung oder bei der
Übertragung über gestörte Kanäle gegen Bitfehler zu schützen. In Ergänzung zur
Kanalkodierung werden die Verfahren der Quellenkodierung benutzt, um ein
Signal so zu komprimieren, dass es möglichst effektiv übertragen werden kann,
also eine möglichst geringe Bandbreite benötigt. Die Kodierungstheorie beschäftigt
sich mit den mathematischen Grundlagen von Kanalkodierung und untersucht mit
algebraischen Methoden die Eigenschaften der Codes. (Wikipedia)
Unicode nach ISO: theoretisch 32 bit, es werden aber nur 21 benötigt!
SGML (engl. Standard Generalized Markup Language) ist eine Metasprache, mit
deren Hilfe man verschiedene Auszeichnungssprachen (engl. markup languages)
für Dokumente definieren kann. SGML ist ein ISO-Standard (Wikipedia)
lesen: Nyquist-Shannon-Abtasttheorem
Code = Vorschrift für die eindeutige Zuordnung eines Zeichenvorrats zu
denjenigen eines anderen Zeichenvorrats
Probleme: Sonderzeichen, Unterschiedliche Codes je nach Rechnerwelt,
Silbenschrift
Stichwörter: Unicode, Syntaxprüfungen – Form und Inhalt,
Auszeichnungssprachen (html, xml)
UTF (Abk. für Unicode Transformation Format) beschreibt Methoden, ein
Unicode-Zeichen auf eine Folge von Bytes abzubilden. Für die Repräsentation der
Unicode-Zeichen zum Zweck der elektronischen Datenverarbeitung gibt es
verschiedene Transformationsformate. In jedem der Formate lassen sich alle
1.114.112 im Unicode-Standard enthaltenen Zeichen (Codepoints) darstellen. Auch
lässt sich jedes dieser Formate verlustfrei in ein anderes UTF-Format konvertieren.
Die verschiedenen Formate unterscheiden sich hinsichtlich deren Platzbedarf auf
Speichermedien (Speichereffizienz), dem Kodierungs- und Dekodierungsaufwand
(Laufzeitverhalten) sowie in ihrer Kompatibilität zu anderen (älteren)
Kodierungsarten. Während beispielsweise einige Formate sehr effizienten Zugriff
(Random Access) auf einzelne Zeichen innerhalb einer Zeichenfolge (String)
erlauben, gehen andere sparsam mit Speicherplatz um. Daher ist bei der Auswahl
eines bestimmten Unicode-Transformationsformats das für das vorgesehene
Anwendungsgebiet geeignetste zu bestimmen. (Wikipedia)
Verarbeitungskette:
Eingabe: Tastatur, Scanner, Lesegerät
Speicherung: Datei
Verarbeitung: Textverarbeitung (Word, Lotus, Corel), Editoren (XML-Edit,
Notepad)
Ausgabe: Drucker, Datei/Datenbank, Bildschirm
Zahlen
Zahlen sind mit Ziffern (Zeichen) dargestellte Rechengrößen
Ganzzahlen – Gebrochene Zahlen – Sonderdarstellungen
Ganzzahlen: schnelles Rechnen, Darstellung im Dualzahlsystem (wichtige
Sonderformen: Datum, Uhrzeit)
Kommazahlen: „genaues Rechnen“, Exponentialdarstellung, hohe Rechenleistung
Verarbeitungskette Zahlen:
- vergleichbar Verarbeitungskette Text, da i.d.R. Ziffern als Zahldarstellung
ein- und ausgegeben werden
- Betonung der Zahlinterpretation, z. B. Rechnen in Tabellen, bzwl.
Spezialprogramme (z. B. Tabellenkalkulationsprogramme,
Statistikprogramme, Buchhaltungsprogramme…)
Eingabe: Mikrofon, Mischpult
Verarbeitung: Spezialprogramme (Umwandlung, Mischen), Brennprogramme
Ausgabe: Lautsprecher, Audioanlage, Datei, Schnittstelle (Synthesizer,
Mediengerät)
Schall – Ton – Musik
Eine Schallwelle wird durch die Amplitude und die Frequenz bestimmt. Das heißt,
je höher die Amplitude, desto lauter und je größer die Frequenz, desto höher ist der
Ton.
FFT – Fast Fourier Transformation:
Ziel: n Daten im Zeitbereich auf n Daten im Frequenzbereich abbilden
Ohne FFT kein JPEG! KEIM MP3!
Die schnelle Fourier-Transformation (englisch fast Fourier transform, daher
meist FFT abgekürzt) ist ein Algorithmus zur schnellen Berechnung der Werte
einer diskreten Fourier-Transformation (DFT). Die Beschleunigung gegenüber der
direkten Berechnung beruht auf der Vermeidung mehrfacher Berechnung sich
gegenseitig aufhebender Terme. Der Algorithmus wird James W. Cooley und John
W. Tukey zugeschrieben, die ihn 1965 veröffentlichten. Genaugenommen wurde
eine Form des Algorithmus jedoch bereits 1805 von Carl Friedrich Gauss
entworfen, der ihn zur Berechnung der Flugbahnen der Asteroiden Pallas und Juno
verwendete. Darüber hinaus wurden eingeschränkte Formen des Algorithmus noch
mehrfach vor Cooley und Tukey entwickelt, so z.B. von Good (1960). Nach
Cooley und Tukey hat es darüber hinaus zahlreiche Verbesserungsvorschläge und
Variationen gegeben, so etwa von Georg Bruun, C. M. Rader und Leo I. Bluestein.
Analog kennt man auch für die diskrete inverse Fourier-Transformation einen
schnellen Algorithmus (inverse FFT - iFFT) Es kommen bei der iFFT idente
Algorithmen mit anderen Koeffizienten in der Berechnung zur Anwendung.
Klassifikation von Bildern:
Farbtiefe (Anzahl der Farben in einer Abbildung): schwarz-weiß-/Grauton- und
Farbbilder
Dimensionen: zweidimensionale und dreidimensionale Bilder
Zeitabhängigkeit: feste (statische) und bewegte (dynamische) Bilder
Repräsentationsform: Pixelgrafik und Vektorgrafik
Gängige Größen: 16 Bit oder 32 Bit
/-> Umrechnung 65.536 Farben (216)
8 Bit pro Grundfarbe
Darstellung von Festbildern:
Pixelgrafik:
- Zusammenhängendes Bild, Bildpunkte haben eine bestimmte Größe
- Bilder als Matrix von Punkten
-
Jeder Punkt hat Farb- oder Dichtewert
Jeder Punkt kann separat bearbeitet werden
Je höher die Auflösung, desto mehr Speicher nötig
Es wird ein Ausschnitt vergrößert, unter Verlust der Qualität
Rastergrafik, auch Pixelgrafik, englisch Bitmap oder Pixmap, ist eine Methode zur
Beschreibung zweidimensionaler Bilder in Form von Daten. Rastergrafiken
bestehen aus einer matrixförmigen Anordnung von Pixeln, denen jeweils eine
Farbe zugeordnet ist. Die Hauptmerkmale einer Rastergrafik sind daher die Breite
und die Höhe in Pixeln, auch Auflösung genannt, sowie die Farbtiefe.
Die Bearbeitung, teils auch die Erzeugung, von Rastergrafiken fällt in den Bereich
der 2D-Computergrafik. Eine andere Art der Beschreibung von Bildern sind
Vektorgrafiken.
Anwendungen
Zweifarbige Pixelgrafiken/Rastergrafiken eignen sich zur Repräsentation
komplexerer Bilder wie Fotos, die nicht mit Vektorgrafiken beschreibbar sind.
Rastergrafiken können sowohl aus vorhandenem Material – etwa mit einem
Scanner oder einer Digitalkamera – digitalisiert oder mit Bildbearbeitungssoftware
erstellt werden. Letztere erlaubt auch Bildbearbeitung. (Wikipedia)
Vektorgrafik:
- Mathematisch definierte Objekte
- Objekte bestehen aus Linien und/oder Kanten und Füllungen
- Bildobjekte voneinander unabhängig bearbeiten
- Speicherkapazität steigt mit Anzahl von Objekten
Eine Vektorgrafik ist ein zwei- oder dreidimensionales Computerbild, das aus
grafischen Primitiven wie Linien, Kreisen und Polygonen zusammengesetzt ist.
Um beispielsweise das Bild eines Kreises zu speichern, benötigt eine Vektorgrafik
zumindest zwei Werte: die Lage des Kreismittelpunkts und den Kreisdurchmesser.
Neben den intrinsischen Parametern (Form und Position) der Primitiven werden
eventuell auch die Farbe, Strichstärke, diverse Füllmuster und weitere das
Aussehen bestimmende Daten angegeben.
Vektorgrafiken können im Gegensatz zu Rastergrafiken ohne Qualitätsverlust
stufenlos skaliert und verzerrt werden, etwa mittels homogener Koordinaten.
Außerdem bleiben bei Vektorgrafiken die Eigenschaften einzelner Linien, Kurven
oder Flächen erhalten und können auch nachträglich noch verändert werden.
Vektorgrafiken sind ungeeignet für die Darstellung von komplizierten Bildern wie
Fotos, da diese sich kaum mathematisch modellieren lassen. Im Extremfall müsste
jeder Bildpunkt durch eine Fläche wie etwa ein Quadrat modelliert werden,
wodurch der Nutzen der Vektorgrafik verloren ginge.
Heutige Bildschirme werden ausschließlich mit Rastergrafiken angesteuert. Daher
müssen Vektorgrafiken vor der Ausgabe umgewandelt werden; dies nennt man
Rasterung. Ein vektororientiertes Ausgabegerät ist der Plotter.
Bewegte Bilder:
Aneinanderreihung von Festbildern
Maß: Einzelbilder pro Sekunde bzw. frames per second (fps) oder bps = Bildrate
Untergrenze 14 Bilder/Sekunde
Je höher die Bildrate, desto besser die Qualität
Fast immer Kompression erforderlich, da „speicherfressend“
Animation:
Anzeige aufeinander Folgender, sich leicht ändernder Bilder erweckt den Eindruck
von Leben und Bewegung in Cartoons, Zeichnungen, Gemälden und sonstigen
künstlichen Objekten.
Darstellung bildlicher Information:
- Verarbeitung von Bildern entspricht im grundsätzlichen dem technischen
Ablauf der Verarbeitung von Tönen
- Eingabegeräte
- Ausgabegeräte
- Bilddatenstruktur (Darstellungselemente eines Bildes (Punkte, Linien,
Kurven) und die Beziehung zwischen diesen)
- Hoher Speicher- und Bandbreitenbedarf
Verarbeitung von Pixelgrafiken
- Bildauflösung: bestimmt erreichbare Feinzeichnung von Details, je mehr
Punkte zur Repräsentation eines Bildes verwendet werden, desto höher ist
die Auflösung und damit die Klarheit der Darstellung, Maßgröße ppi
- Geräteauflösung: Beschreibt die gerätespezifische, fest vorgegebene
Eingabe- oder Ausgabequalität, das heißt, wie klein die Punkte sind, die ein
Gerät erfassen oder ausgeben kann, Maßgröße bei Scannern und Druckern =
dpi
Bildauflösung eines Bildschirms: 1000 Bildpunkte pro Zeile = 80 Pixel pro inch
Der Drucker hat eine wesentlich höhere Auflösung als der Bildschirm.
1-Bit-Farbtiefe: Jeder Bildpunkt kann nur eine von zwei möglichen Farben haben
8-Bit-Farbtiefe: Jeder Bildpunkt kann eine von 256 Farben haben, die Teil der
Palette sind
24-Bit-Farbtiefe: Jeder Bildpunkt wird durch drei Bytes (Rot-, Grün- und BlauWert) repräsentiert. Jeder Bildpunkt kann eine von 16,8 Millionen Farben haben.
Multimedia
Multimedia-Systeme integrieren mehrere Eingabe- und/oder Ausgabemedien für
schriftliche Daten, Ton und Bild, wobei die Speicherung und synchronisierte
Ablaufsteuerung auf einem Rechner erfolgen.
Vorteile von Multimedia:
- Effizienter Informationsfluss und höhere Aufmerksamkeit durch die
gleichzeitige Verwendung mehrere Kanäle zur Informationswiedergabe
- Möglichkeit, innerhalb einer Informationsbasis ohne nennenswerte
Zeitverzögerung beliebig zu navigieren (Hypermedia, Hyperlinks)
- Freie Wahl von Ort, Lernrhythmus, Lerngeschwindigkeit bei
Schulungssystemen
- Kostenreduktion durch teilweisen Ersatz bestehender Dienste bzw. durch
neue Dienste an jedem Ort
- Neue Bedürfnisse! Aber müssen z. T. erst entwickelt werden
Probleme mit Multimedia-Anwendungen:
- Entwicklungszeit und –kosten
- Hoher Speicher- /Rechenleistungsbedarf
- Breitbandanwendung
- Evtl. spezielle Endgeräte nötig
- Schneller Wechsel in den Standards
- „Multimedia Overload“??
- Rechte / Copyright
- Software für Entwicklung / Abspielen
Kompression
Datenkompression kann erreicht werden durch eine Erhöhung der
Darstellungsdichte mittels geeigneter Algorithmen wie:
- Lauflängencodierung
- Codetransformation (Kleinbuchstaben weglassen -> kürzerer Code)
- Inhaltsanalyse (z. B. Funktionssysteme)
Vorteile:
- verkürzt Übertragungszeiten (Modem)
- spart Speicherplatz
- nutzt gegebene Bandbreiten besser aus (z. B. Bewegtbild über ISDN)
Umsetzung:
- eigenständige Programme, sog. Packer (WINZIP)
- in Programmen eingebaut
- In Übertragungsverfahren (GSM, Video-Codecs)
Nachteile:
- kostet Rechenzeit
- macht Programme komplizierter
- zusätzlicher Anwendungsschritt
Datenkompression
Als Datenkompression oder Datenkomprimierung bezeichnet man die Anwendung
von Verfahren zur Reduktion des Speicherbedarfs von Daten bzw. zur Vermeidung
von Datenaufkommen, bspw. während der Übertragung von Daten.
Die Datenmenge wird reduziert, indem eine günstigere Repräsentation bestimmt
wird, mit der sich die gleichen Daten in kürzerer Form darstellen lassen. Diesen
Vorgang übernimmt ein Kodierer und man bezeichnet den Vorgang als
Kompression bzw. Kodierung. Man spricht von einer verlustfreien Kompression
(oder verlustfreien Kodierung), wenn die kodierten Daten nach Anwendung der
entsprechenden Dekodiervorschrift exakt denen des Originals entsprechen. Die
Anwendung der Dekodiervorschrift bezeichnet man als Dekompression oder
Dekomprimierung. Wenn man von einer verlustbehafteten Kompression (oder
verlustbehafteten Kodierung) spricht, so meint man damit, dass sich die Daten nicht
in jedem Fall fehlerfrei rekonstruieren lassen. (Wikipedia)
Verlustfreie Kompression Bsp. Huffmann
Ziel: Häufige Zeichen mit kurzen Codewörtern, seltene Zeichen mit längeren
Codewörtern codieren – oder : durchschnittliche Codewortlänge L minimieren.
Durchschnittliche Wortlänge L über einen Text mit n unterschiedlichen Zeichen ist
definiert durch: L = Σ pi * li
Algorithmus für Ermittlung des „Codierbaums“:
1. Zeichen zählen, nach Häufigkeit und Alphabet sortieren
2. Jeweils die 2 mit kleinsten Häufigkeiten zu einem Knoten vereinen
3. Solange weiter mit 2., bis Endknoten erreicht
Komprimierung/Dekomprimierung:
1. Codebaum erstellen
2. Alle Zeichen gemäß Codebaum bzw. Codeliste codieren => fertig
3. codierten Zeichenstrom über Baum oder Codeliste rückwandeln
Anmerkung: Dies kommt dem theoretischen Minimum (vgl. Entropie) sehr nahe.
SIEHE: Programm Huffmann-Code! Baum müssen wir zeichnen können!
Verschlüsselung
Verfahren zur Verschlüsselung der Daten (Nachrichten) zur Geheimhaltung und
zur Sicherstellung der Urheberschaft (Authentizität).
Einfache Verfahren: Schlüssel muss bekannt sein, also zum Empfänger
transportiert werden.
Heute übliche Verfahren: 2 oder mehr Teilschlüssel: Öffentlicher und privater
Schlüssel (kann jedem zur Verfügung gestellt werden)
Verschlüsseln: Verschlüsselte Nachricht an mich: mit meinem öffentlichen
Schlüssel verschlüsselt, ich entschlüssele mit meinem Privatschlüssel
Unterschrift: Ich unterzeichne mit meinem privaten Schlüssel, jeder kann mit
meinem öffentlichen nachprüfen, dass die Nachricht von mir ist.
Die Verschlüsselungsfunktion ist bekannt, die Entschlüsselungsfunktion kennt nur
der Empfänger. Der Schlüssel ist nur mit extrem hohem Rechenaufwand
ermittelbar. Basiert z. B. auf großen Primzahlen.
Komprimierung ist keine Verschlüsselung!
RSA ist ein Verfahren oder Algorithmus zur Verschlüsselung elektronischer Daten,
der verschiedene Schlüssel zum Ver- und Entschlüsseln verwendet, wobei der
Schlüssel zum Entschlüsseln nicht oder nur mit hohem Aufwand aus dem Schlüssel
zum Verschlüsseln berechenbar ist. Der Schlüssel zur Verschlüsselung kann daher
veröffentlicht werden. Solche Verfahren werden als asymmetrische oder PublicKey-Verfahren bezeichnet. Er ist nach seinen Erfindern Ronald L. Rivest, Adi
Shamir und Leonard Adleman benannt. (Wikipedia)
Fragen:
Wie stelle ich sicher, dass ein Schlüssel wirklich einer Person gehört
- Zertifizierungsstellen
- INI-Briefe
Weitere Verfahren/Anwendungen:
- Steganographie (versteckte Übermittlung von Informationen in einer
Sprache)
- PIN/TAN-Verfahren
- Biologische Merkmale
Einwegsfunktions-Verschlüsselung:
Es gibt Benutzername und Passwort, wenn das Passwort vergessen wird wir das
alte Passwort gelöscht und ein neues erstellt. Auf das alte Passwort kann nicht
zugegriffen werden, kennt nur der Benutzer!
RSA-Excel-Datei anschauen!
Aufbau von Rechnersystemen
Genereller Rechneraufbau:
Siehe Skript
Zentraleinheit:
Funktionseinheit innerhalb eines Rechners, die einen oder mehrere Prozessoren und
Zentralspeicher umfasst.
- der Zentralprozessor (engl.: central processing unit, abgekürzt: CPU)
steuert entsprechend den jeweiligen Programmen den Gesamtablauf der
Informationsverarbeitung, koordiniert die beteiligten Funktionseinheiten
(Leit- oder Steuerwerk) und führt Rechenoperationen aus (Rechenwerk). Ein
Ein-Ausgabeprozessor steuert „in seinem Auftrag“ eines oder mehrere
Eingabe-, Ausgabe- oder externe Speichergeräte.
- Zentralspeicher enthält die auszuführenden Programm und die damit zu
verarbeitenden Daten
Ein-/Ausgabesystem und Peripherie
- Jeder Speicher, der nicht Zentralspeicher ist, wird als externer Speicher
(engl.: external storage) bezeichnet
- Eine Funktionseinheit innerhalb eines Rechners, die nicht zur Zentraleinheit
gehört, wird periphere Einheit (engl.: peripheral unit) genannt
Peripheriegeräte sind z. B. Festplatte, Laufwerk, Netzwerkkarte, Grafikkarte,
Soundkarte
Weitere Komponenten:
- Puffer- oder Cache-Speicher
- Virtueller Speicher
- Busse
- BIOS (Basic Input/Output System)
- E/A-Kanäle
=> nachlesen!!!
Auch mal ins Skript schauen: Abbildungen
Mehrprozessor-Systeme:
- eng gekoppelt: gemeinsamer Speicher, rasche Verbindung, beschränkt auf
einige Prozessoren (2-16)
- lose gekoppelt: jeweils eigene Arbeitsspeicher, Verbindungen langsamer (z.
B. LAN, oder Internet -> GRID), nahezu beliebig viele Prozessoren
- massiv parallele Rechner: bis zu mehreren tausend Prozessoren, mit jeweils
eigenem Arbeitsspeicher, mit individuellen, sehr schnellen Verbindungen
- Multiprocessing: SMP (Symetrisches MulitProcessing): Prozesse werden
dynamisch auf Prozessoren verteilt, jeder Prozessor kann „alles“;
Asymetrisches MultiProcessing: Die Prozessoren haben feste
„Zuständigkeitsbereiche“, z. B. P1 – Betriebssystem, P2 Dateisystem…
Rechnernetz (engl.: computer network):
- räumlich verteiltes System von Rechnern
- durch Datenübertragungswege miteinander verbunden
- Standards und Protokolle regeln die Kommunikation zwischen den Rechnern
auf unterschiedlichen Ebenen
- GRID-Computing
- CSCW-Computer supported kooperative work
- Application support / Terminalcluster, z. B. VNC, metaframe, X-11-Systeme
- Fernsteuerung
Grid-Computing: bezeichnet alle Methoden, die Rechenleistung vieler Computer
innerhalb eines virtuellen Netzwerks so zusammenzufassen, dass über den reinen
Datenaustausch hinaus die (zeitlich parallele) Lösung von rechenintensiven
Problemen ermöglicht wird (verteiltes Rechnen). Damit kann, zu deutlich
geringeren Kosten, sowohl die Kapazität als auch die Rechenleistung heutiger
Supercomputer übertroffen werden. Grid-Systeme skalieren sehr gut: durch
Hinzufügen von Rechnern zum Netz (oder hierarchisches Zusammenfassen von
Grids) erhöht sich die Rechenleistung in entsprechendem Maße, jedoch nicht
linear. (Wikipedia)
CSCW: Computer Supported Cooperative Work (CSCW) ist die Bezeichnung des
Forschungsgebietes, welches auf interdisziplinärer Basis untersucht, wie Individuen
in Arbeitsgruppen oder Teams zusammenarbeiten und wie sie dabei durch
Informations- und Kommunikationstechnologie unterstützt werden können. Ziel
aller Bemühungen im Gebiet CSCW ist es, unter Verwendung aller zur Verfügung
stehenden Mittel der Informations- und Kommunikationstechnologie,
Gruppenprozesse zu untersuchen und dabei die Effektivität und Effizienz der
Gruppenarbeit zu erhöhen. (Wikipedia)
VNC: Virtual Network Computing (kurz VNC) ist eine von AT&T entwickelte
Software, die den Bildschirminhalt eines entfernten Rechners (auf dem die VNCServer Software läuft) auf einem lokalen Rechner (auf dem die VNC-Viewer
Software läuft) anzeigt und im Gegenzug Tastatur- und Mausbewegungen des
lokalen Rechners an den entfernten Rechner sendet. Damit kann man auf einem
entfernten Rechner arbeiten, als säße man direkt davor. Alternativ ist auch ein Nur-
„Lese“-Modus möglich, bei dem also lokale Eingaben keine Auswirkungen auf den
entfernten Rechner haben. Neuere Versionen von VNC enthalten einen kleinen
Webserver, der ein Java-Applet bereitstellt, so dass ein Zugriff auch ohne
installierte Clientsoftware über jeden Java-fähigen Browser möglich wird. Mit
VNC ist es beispielsweise möglich, dass der Administrator eines Netzwerkes die
Kontrolle über den Computer eines Mitarbeiters übernimmt, um Software zu
installieren oder Fehler zu beheben. VNC ist plattformunabhängig nutzbar, für fast
alle gängigen Betriebssysteme gibt es mehrere Implementierungen. (Wikipedia)
Hardware versus Software:
- Hardware: Sammelbegriff für informationstechnische Geräte
- Software: Sammelbegriff für Programme
- Firmware: Programme, die fest in Geräten gespeichert sind (Read only)
Leistungsvermögen – Rechnerleistung im engeren Sinn:
Maßzahl der Geschwindigkeit eines Rechners:
- durch Benchmarks (Ausrichten von Messwerten auf einem Bezugspunkt)
ermittelt: SPEC = Standard Performance Evaluation Corporation
- beeinflusst durch die Hardware der Zentraleinheit (Prozessorarchitektur,
Befehlsvorrat, Speicherstruktur, Prozessortaktrate,
Speicherzugriffszeiten,…)
Prozessor-Performance:
- Zykluszeit (cycle time) T
- Taktfrequenz (clock rate) f = l/T (in MHz)
- Anzahl von Zyklen pro Instruktion (cycles per instruction) CPI abhängig
vom Befehlssatz und dem Grad der Parallelisierung der Befehlsausführung,
typische Werte leistungsstarker Rechner = 3-4 Instruktionen pro Zyklus,
daher ¼ <= CPI <= 1/3
- Rechenbeispiel:
- Prozessor A: 1 GHz und CPI = 0,33 (1/0,33 -> 3 Instruktionen) gegen
Prozessor B: 800 MHz und CPI = 0,25 (0,800/0,25 -> 4 Instruktionen)
- Theoretische Prozessorleistung in MIPS (Millionen Instruktionen pro
Sekunde)
- Prozessor A: 1*109/(0,33*106) = 3030 MIPS
Gegen Prozessor B: 800*106/(0,25*106) = 3200 MIPS
Leistungsvermögen (Rechnerleistung im weiteren Sinn):
Leistung, die im praktischen Einsatz tatsächlich erbracht wird
- ermittelt durch alle Komponenten (das heißt durch die Zentraleinheit, die
Peripherie, das Betriebssystem und die Anwendungsprogramme)
- Maßgrößen sind:
- Durchsatz, das heißt die pro Zeiteinheit abgearbeiteten Aufträge (engl.
Job)
- Antwortzeit (engl. Response time), das Heißt die Reaktionszeit des
Rechners auf Eingaben des Benutzers im interaktiven Betrieb.
=> Wichtig!
Leistungssteigerung:
- Geschwindigkeit: Probleme: Temperatur, Leitungslängen, Energieverbrauch,
Lüftung
- Auslagerung auf Spezialprozessoren: Kommunikation/Bandbreite der Busse
- Besser Algorithmen, bessere Werkzeuge: z. B. Video, Protokolle, GUI
- Durchdringung aller Bereiche mit DV: Infrastruktur gegeben, Ubiquitäres
Computing
Ubiquitous Computing:
WICHTIGER BEGRIFF!!
Der Begriff Ubiquitäre Computertechnik (kurz UbiComp) oder englisch Ubiquitous
Computing (engl. ubiquitous = allgegenwärtig) bezeichnet die Allgegenwärtigkeit
der Informationsverarbeitung im Alltag von Unternehmen und Kunden. In der
deutschen Literatur ist auch der synonyme Begriff Rechnerallgegenwart für dieses
Paradigma in Gebrauch.
Bereits heute steht der PC immer weniger im Mittelpunkt. Das Internet gewinnt an
Bedeutung. Der Trend geht hin zu einem mobilen Informationszugang. Nach
Ansicht von Friedemann Mattern lässt sich die gegenwärtige Dekade dadurch
charakterisieren, dass sich das Internet mit mobilen Anwendungen über seine
klassische Domäne hinaus ausbreitet. (vgl. "Ubiquitous Computing - Die Vision
von der Informatisierung der Welt")
"In the 21st century the technology revolution will move into the everyday, the
small and the invisible." ("Im 21. Jahrhundert wird die technologische Revolution
das Alltägliche, Kleine und Unsichtbare sein.", Mark Weiser, 1952-1999)
Nach der ersten Ära der zentralen Mainframes, die von vielen Wissenschaftlern
bedient wurden, sowie der zweiten Ära der PCs, die jedem Nutzer einen eigenen
Computer zuordnete, kann UbiComp als die dritte Computer-Ära bezeichnet
werden, in der für jede Person viele Computer eingebettet in der Umgebung
vernetzt arbeiten und ein "Netz der Dinge" bilden.
Probleme ergeben sich damit im Bereich des Datenschutzes, wenn weitgehend
unsichtbare Computer mit verschiedenen Sensoren Umgebungsdaten auswerten,
austauschen und Aktionen auslösen. Das Bundesministerium für Bildung und
Forschung hat deshalb eine Studie zur Technikfolgenabschätzung von UbiComp in
Auftrag gegeben, die bis Ende März 2006 vom Institut für Wirtschaftsinformatik an
der Humboldt Universität zu Berlin in Kooperation mit dem Unabhängigen
Landeszentrum für Datenschutz Schleswig-Holstein (ULD) unter dem Namen
"Technikfolgen-Abschätzung: Ubiquitäres Computing und Informationelle
Selbstbestimmung" (TAUCIS) durchgeführt wird. Der Abschlußbericht wurde
zwischenzeitlich vorgestellt. (Wikipedia)
Rechnerklassen:
- Mainframe (Großrechner) – Workstations – PCs -> Einteilung nicht mehr so
wichtig:
- Leistung – Wartungsaufwand (aber Achtung)
- Kosten – Sicherheit (Datensicherheit, Ausfallsicherheit und gegenüber
Missbrauch)
- Terminalsysteme
- Spiel/Unterhaltungskonsolen
- PDA (Persönliche digitale Assistenten)
- Mobiltelefone? / Uhren / MP3-Player
- Weareable
(Wie kommunizieren die Geräte, wie kommuniziert der Mensch mit Ihnen)
Wearables (militärischer Bereich => Forschung)
Beispiele:
- Jacke mit Elektronik zum Telefonieren
- Stimmungserfassung = Sicherheit im Straßenverkehr
- Permanent Online
- Automatische Identifizierung für z. B. Überwachung an sensibeln Orten
Server (wichtig für die Klausur! – 3 Typen von Servern + Begriff!!!)
- Server ist ein Programm, das andere Programme (Klienten-Clients) mit
Leistungen versorgt
- Server ist ein Rechner, auf dem ein Serverprogramm läuft
- Einteilung:
- Nach Zahl der Nutzer: Arbeitsgruppe, Abteilung, Unternehmen
- Nach Plattform: PC-basiert, 64-Bit-RISC unter Unix (z. B.
Sunterminalserver)
- Nach Einsatzzweck: Infrastruktur (Drucker-, Datei/Daten-, E-Mail-,
Webserver…), Datenbankserver, Anwendungsserver (Citrix)
- Vorteile: zentrale Verantwortlichkeit, Wartung, Zuständigkeit, Sicherheit
- Nachteile: Zentralismus, technische Abhängigkeit, Teamgedanke?,
Restriktionen beim Zugriff
 Ressourcen werden mehrfach genutzt
 Kosten? Viele teilen wenig -> günstiger, aber: nur bis zu einer bestimmten
Anzahl von Benutzern!
Aufgaben der Betriebssysteme (MS-DOS, Windows, Linux, Solaris, Mac OS x)
- Benutzerführung: Oberflächen oder Kommandozeilen
- Laden und Unterbrechung von Programmen: Erzeugen und beenden von
Prozessen, Kommunikation zwischen Prozessen
- Verwaltung der Prozessorzeit
- Verwaltung des Speicherplatzes für Anwendungen: Zuweisung und
Überwachung für die Prozesse
- Verwaltung der angeschlossenen Geräte und Dateien
- Bereitstellung von Dienstprogrammen, z. B. Datei öffnen, Fenster, Explorer
(im Unterschied zu Anwendungsprogrammen)
- Abstraktion: Verbergen der Komplexität der Maschine vor dem Anwender,
Abstraktion des Maschinenbegriffs (nach Coy)
- Reale Maschine = Zentraleinheit + Geräte (Hardware)
- Abstrakte Maschine = Reale Maschine + Betriebssystem
- Benutzermaschine = Abstrakte Maschine + Anwendungsprogramm
= Klausur: einige Aufgaben + Beschreibungen!
Unterscheidung von Betriebssystemen I:
(nach den technischen Eigenschaften der DV-Anlage, die sie benötigen bzw.
unterstützen)
a) unterstützte Prozessortypen (AMD Athlon)
- ursprünglich meist auf die Prozessorfamilie eines Herstellers ausgerichtet
(z. B. MS-DOS und Windows auf INTEL) oder herstellerabhängige
Betriebssysteme (proprietäre Betriebssysteme)
- Kunden verlangen hardwareunabhängige Betriebssysteme (offene
Betriebssysteme); kann ggf. von UNIX erfüllt werden (BetriebssystemKern)
b) Art und Anzahl der steuerbaren Prozessoren
- single-processing – multi-processing
c) Größe des verwendbaren Arbeitsspeichers
- Diese hängt von der Breite des Adressbusses ab. Ist dieser z. B. 20 Bit
breit, so sind 1.048.576 Bits (Adressen) unterscheidbar (vereinfacht)
- Erweiterung durch „paging“ etc.
d) Kommunikationsmechanismen – intern, extern
e) Skalierbarkeit
- Anpassbarkeit an aktuelle Leistungs- und Größenerfordernisse
Als Paging (englisch page – Speicherseite) oder deutsch Kachelverwaltung
bezeichnet man eine Methode der Hauptspeicherverwaltung durch
Betriebssysteme. Dabei wird häufig aus Effizienzgründen die sogenannte Memory
Management Unit des Prozessors eingesetzt, sofern der Prozessor eine solche
bereitstellt.
Gelegentlich wird der Begriff Paging synonym mit der gesamten virtuellen
Speicherverwaltung gebraucht. Dieser Sprachgebrauch ist jedoch unpräzise, da das
Paging nur einen - wenn auch zentralen - Aspekt der virtuellen Speicherverwaltung
ausmacht.
Zu unterscheiden ist das Paging jedoch deutlich vom Swapping, da letzteres nicht
nur einzelne Speicherseiten, sondern praktisch vollständige Prozesse auslagert. Das
Paging ist trotz einer häufig unpräzisen Bezeichnung der Auslagerungsdatei als
Swap-Datei heute das bei modernen Betriebssystemen vorherrschende Verfahren
zur Speicherverwaltung von Prozessen.
Unterscheidung von Betriebssytemen II:
(nach der Organisation der Auftrags- (Betriebsart), Prozess, und Datenverwaltung)
a) Betriebsart (ein oder mehrere Aufgaben gleichzeitig bearbietbar)
- single-tasking (nur ein Prozess) – multitasking (mehrere
Programmprozesse)
- single-programming (ein Programm) – multiprogramming (mehrere
Programme)
b) Kommunikation zwischen den Anwendungsprogrammen
- Zwischenablage, DDE (dynamic data exchange): Programme tauschen Daten
aus
- OLE (object linking and embedding): Verbindung zwischen
Anwendungsprogrammen mittels Objektaustausch
- RPC (Remote Procedure Call), ODBC (Open Database Connectivity)
c) Anzahl der Nutzer: single-user oder multi-user (= gleichzeitige Nutzung)
- nicht so wichtig
d) Interaktion zwischen Nutzer / Prozess und DV-Anlage
- batch processing (Stapelverarbeitung) (große Datenmengen,
nacheinander folgende Projekte die nacheinander abfolgend
automatisch erledigt werden -> Videokonvertierung)
- conversational processing (Dialogverarbeitung) (Virensuchprogramm:
Meldungen auf die man antworten muss – Dialogfenster)
- real time processing (Echtzeitverarbeitung; bei technischen Prozessen):
zugesicherte Reaktion innerhalb bestimmter Zeit (z. B. Bremsen beim
ICE)
=> Klausur! Nachlesen!
Stapelverarbeitung oder auch Batchverarbeitung bezeichnet die Bearbeitung
von Aufgaben nacheinander (sequentiell). Dies ist ein Ausdruck aus dem EDVBereich und wird synonym als Batchdatei, Batchfile, Batchprogrammierung, JCL
verwendet. Batch-Dateien werden in verschiedenen Betriebssystemen (z. B. DOS,
Unix) häufig genutzt. Man spricht heute mehr von Skript-Dateien, vom Konzept
her ist es aber dasselbe. Eine Reihe von Befehlen, die die Betriebssystemfunktionen
nutzen, werden in einer Datei festgehalten und nach Starten des Skripts
abgearbeitet. Vorteile: einfach zu erstellen, Wiederverwendbarkeit, Zeitersparnis
(bei der Ausführung) (Wikipedia)
Schnittstellen:
- Anschluss peripherer Einheiten erfordert Schnittstellen: serielle
Schnittstellen, parallele Schnittstellen, Infrarot, Funk
- Serielle Schnittstellen: z. B. USB (Daten hintereinander übertragen)
- Parallele Schnittstellen: z. B. altes Druckerkabel (Daten gleichzeitig
übertragen – BUS)
- Infrarot: z. B. Fernbedienung, Sichtkontakt nötig, serieller Lichtstrahl
- Bluetooth: Funkvernetzung über kurze Distanz
- WLAN/UMTS/WiMax: Netzschnittstellen bzw. Mobiltelefonschnittstellen
Datenerfassung – Eingabegeräte:
Stichworte:
Dokumentenmanagement mit den Zielen:
- Einfache Verfügbarkeit und gleichzeitige Archivierung
- Hohe Verfügbarkeit (Datenbank) unabhängig vom Arbeitsplatz
- Schnellere, gesteuerte und überwachter Workflow („Durchlauf“ auf dem
Bearbeitungsweg)
- Awareness (Aufmerksamkeit) Mittelung bei Änderung
- Intelligente Suchmöglichkeiten (Stichworte, Volltext, Zusatzfelder etc.)
Technisches:
- Data Capturing als Sammelbegriff für Datenerfassung per Abtaster
- Schriftenerkennung als OCR (Optical Character recognition)
- Unified Messaging, einheitliche Dokumentenpräsentation und einheitlich
Bearbeitung von Papierdokumenten, Email, SMS, Fax
Texterkennung oder auch Optische Zeichenerkennung (Abkürzung OCR von
englisch Optical Character Recognition, selten auch: OZE) ist ein Begriff aus dem
IT-Bereich und beschreibt die automatische Texterkennung von einer gedruckten
Vorlage.
Ursprünglich wurden zur automatischen Texterkennung eigens entworfene
Schriftarten entwickelt, die zum Beispiel für das Bedrucken von Scheckformularen
verwendet wurden. Diese Schriftarten waren so gestaltet, dass die einzelnen
Zeichen von einem OCR-Lesegerät schnell und ohne großen Rechenaufwand
unterschieden werden konnten. So zeichnet sich die Schriftart OCR-A durch
einander besonders unähnliche Zeichen, besonders bei den Ziffern, aus. OCR-B
ähnelt mehr einer serifenlosen, nicht-proportionalen Schriftart, während OCR-H
handgeschriebenen Ziffern und Großbuchstaben nachempfunden wurde.
Die gestiegene Leistungsfähigkeit moderner Computer und verbesserte
Algorithmen erlauben inzwischen auch die Erkennung von "normalen"
Druckerschriftarten bis hin zu Handschriften (z. B. bei der Briefverteilung), wenn
jedoch Lesbarkeit durch Menschen nicht vorrangig ist, werden technologisch
einfacher handhabbare Strichcodes genutzt.
Moderne Texterkennung umfasst auch die Erkennung verschiedener Schriftarten
und -größen und des Seitenlayouts zur möglichst originalgetreuen Wiedergabe
einer Vorlage. (Wikipedia)
Datenspeicherung
Kriterien:
- Kosten (€ pro bit) und Kosten für Schreib-/Lesegeräte
- Zugriffszeit (Zeit von Datenanforderung bis Erhalt)
- Lese-, Schreibgeschwindigkeit (Byte pro Sekunde)
- Gesamtkapazität
- Zuverlässigkeit (lang-, kurzfristig) MTBF = Mean Time Before Failure
- Transportfähigkeit, Lagerfähigkeit
- Austauschbarkeit, Wiederbeschreibbarkeit
- Repräsentationsform (lesbar durch Mensch?
- Privatheit der Daten (Verschlüsselung/Zugriffsschutz)
Magnetische Speicher
Magnetstreifenkarte: 1-3 Spuren (1,2 für lesen, 3 für lesen und schreiben) ca. 1500
Byte
Bänder (Archiv): ½“-Technik, Kassetten. QIC (quarter inch cartridge) ; Video(8mm)-Technik, DAT-(4mm)-Technik, MB bis GB, je nach Ausbau, Bestrebungen
zur Vereinheitlichung
Aufzeichnung:
- Serpentinen-Aufzeichnung (Längsspur ------- ------- )
- Helical Scan-Aufzeichnung (Schrägspur / / / / / ) => wichtig!
Lineare Aufzeichnung: Das Magnetband wird in Vorwärts- und Rückwärtsrichtung
beschrieben.
Schrägspuraufzeichnung (Helical Scan): Das Magnetband läuft schräg am
Schreibkopf vorbei. (wikipedia)
Einsatz: Backup, Austausch
Vorteile: automatisierbar, billig, schnell, lange haltbar
Nachteile: langsamer Zugriff, empfindlich gegen Staub, Wärme, Feuchte, kein
Urbeleg
Disketten:
- 8“, 5.1/4“, 3.5“, 2“; austauschbar
- Programmaustausch, Datenaustausch
- Aussterbende Kategorie
Jumbodiskette: Zip-Drive, ca. 140 MB, Media-Branche
Festplatten:
- nicht austauschbar (i.d.R.)
- Schnittstellen zwischen Rechnerbus und Festplatte IDE= Integrated drive
electronics, SCSI = small computer system interface) bei Umrüstung zu
beachten
- Zusätzliche Anforderungen für Platten in mobilen Geräten (Laptop)
- RAID-Systeme (Redundand Array of inexpensive Disks), Raid 0-5
- Speichernetze (NAS = Network Attached Storage) als Speicherserver oder
SAN (Storage Area Network) als Speichernetz
- Wechselplatten bzw. transportable Platten (USB)
Ein RAID-System dient zur Organisation zweier oder mehrerer physikalischer
Festplatten eines Computers zu einem logischen Laufwerk, das eine größere
Speicherkapazität und/oder einen größeren Datendurchsatz erlaubt als eine
physikalische Platte. Während die meisten in Computer verwendeten Techniken
und Anwendungen darauf abzielen Redundanzen (das Vorkommen doppelter
Daten) zu vermeiden, werden bei RAID-Systemen redundante Informationen
gezielt erzeugt, damit beim Ausfall einzelner Komponenten das RAID als ganzes
seine Funktionalität behält.
Der Begriff wurde von Patterson, Gibson und Katz an der University of California,
Berkeley in dem Papier "A Case for Redundant Array of Inexpensive Disks
(RAID)" zum ersten Mal verwendet (frei übersetzt: Redundanter Verbund
kostengünstiger Festplatten). Das Papier untersuchte die Möglichkeit
kostengünstige Festplatten im Verbund als logisches Laufwerk zu betreiben, um die
Kosten für eine große (zum damaligen Zeitpunkt teure) Festplatte einzusparen.
Dem gestiegenen Ausfallrisiko im Verbund sollte durch die Speicherung
redundanter Daten begegnet werden, die einzelnen Anordnungen wurden als
RAID-Level diskutiert.
Die weitere Entwicklung des RAID-Konzepts führte zunehmend zum Einsatz in
Serveranwendungen, die den erhöhten Datendurchsatz und die Ausfallsicherheit
nutzen, der Aspekt der Kostenersparnis wurde dabei aufgegeben. Der Möglichkeit,
in einem solchen System einzelne Festplatten im laufenden Betrieb zu wechseln,
entspricht die heute gebräuchliche Übersetzung: Redundant Array of Independent
Disks (Redundante Anordnung unabhängiger Festplatten).
Der Betrieb eines RAID-Systems setzt mindestens zwei Festplatten voraus. Die
Festplatten werden gemeinsam betrieben und bilden einen Verbund, der unter
mindestens einem Aspekt betrachtet leistungsfähiger ist als die einzelnen
Festplatten. Mit RAID-Systemen kann man folgende Vorteile erreichen:
Erhöhung der Ausfallsicherheit (Redundanz)
Steigerung der Transferraten (Performance)
Aufbau großer logischer Laufwerke
Austausch von Festplatten und Erhöhung der Speicherkapazität während des
Systembetriebes
Kostenreduktion durch Einsatz mehrerer preiswerter Festplatten
hohe Steigerung der Systemleistungsfähigkeit
Die genaue Art des Zusammenwirkens der Festplatten wird durch den RAID-Level
spezifiziert. Die gebräuchlichsten RAID-Level sind RAID 0, RAID 1 und RAID 5.
Sie werden unten beschrieben.
Aus Sicht des Benutzers oder eines Anwendungsprogramms unterscheidet sich ein
logisches RAID-Laufwerk nicht von einer einzelnen Festplatte. (Wikipedia)
Optische Speicher – DVD:
- Größe einer herkömmlichen CD
- 4,7 GB/Seite und Layer = 3.200 Disketten = 7 CD-ROMs = 133 min.
Film
- Doppelseitig bespielbar (1 Layer) => 9,4 GB
- Zweischichttechnik 8,5 GB/Seite
- Max. Kapazität 17 GB = 8 Stunden MPEG2, 33 Stunden VHS-Standard
- 1-fach entspricht ca. 11 Mbit/s, also 1.375 Mbyte/s (= 8 x CD mit 150
kB/s)
Defragmentierung: schneller lesen, Festplatten halten länger
Unter Defragmentierung versteht man die Neuordnung von Datenblöcken
fragmentierter Dateien auf den Spuren und Sektoren der Festplatte, so dass Zugriffe
mit optimaler Geschwindigkeit durchgeführt werden können. (Wikipedia)
Elektronischer Speicher: Chipkarten, Flash-Speicherkarten, Transponder
Bildschirme:
Auflösung: Gesamtanzahl der Pixel (= Bildpunkte) die horizontal und vertikal
angeordnet sind, üblich etwa 1280 x 1024 als Standard bei 17-Zoll-Schirmen), je
mehr Punkte, desto schärfer das Bild
Bildwiederholfrequenz (= Vertikalfrequenz = Bilder/s):
- Gemessen in Hertz, gibt an, wie oft pro Sekunde das Bild komplett neu
aufgebaut wird
- Je größer, desto angenehmer fürs Auge, ergonomische Mindestanforderung
etwa 75 Hz
Kathodenstrahlröhre:
CRT (Cathode Ray Tube) – Technik (=Fernseh-Technik)
- Technik sehr ausgereift
- Maske bestimmt Qualität, richtungsunabhängig, Auflösung umschaltbar
aber:
- Groß, schwer, flimmern, Strahlung, Verzerrung am Rand
- Recycling-Probleme (Größter Anteil am Elektronik-Schrott)
- Markt wachsend, Produktion nicht mehr in Europa
Flach-Bildschirm:
LCD- und TFT-Technik:
Liquid Crystal Displays verwenden organische Substanzen (Flüssigkristalle), die
zwischen zwei Glasflächen eingeschlossen sind, eine angelegte Spannung ändert
die Ausrichtung der Kristalle und die Polarisierung des Lichts
Filter ermöglichen die Farbdarstellung.
Unterscheidung in:
- passive LCD-Bildschirme (nur reflektierend oder Durchlicht) und
- aktive (TFT = Thin film transistor) LCD-Bildschirme (einzelne Bildpunkte
werden mit aktiven Verstärkern versehen -> schneller, höherer Kontrast,
höhere Dicht der Bildpunkte -> höhere Auflösung)
Vorteile: Stromverbrauch, Qualität, Farbfähigkeit, Platz sparend, leuchtstark,
niedriger Energieverbrauch, flimmerfrei
Aber: winkelabhängig, teuer, „langsam“ keine Farbtonveränderung, Qualität
auflösungsabhängig, da diese fix ist, geringer Kontrast
Plasmabildschirme:
- flach, leicht
- sehr leuchtstark
- bis über 1m Bildschirmgröße möglich
- keine Emission
- Aber: hoher Preis, hoher Stromverbrauch, niedrige Auflösung, schwer,
geringe Bildwiederholfrequenz, Signaleingänge analog – digital
(Zwischen zwei Glasplatten befinden sich kleine gasgefüllte Zellen, deren Inhalt
„angezündet“ wird)
LCD-Bildschirm
1. weißes Licht wird durch einen Polarisationsfilter gelenkt. Dieser lässt nur
Licht durch, da in einer Ebene schwingt.
2. Die Flüssigkristalle drehen das Licht nach Anordnung der Moleküle. An der
mittleren Zelle liegt hier keine Spannung, dadurch dreht sich die
Schwingungsebene des Lichts um 90 Grad. Wird über die Elektroden eine
elektrische Spannung angelegt, ordnen sich die Moleküle waagrecht an. Die
Höhe der Spannung bestimmt den Drehwinkel.
3. Ein Farbfilter lässt das Licht in den drei Grundfarben austreten
4. Den zweiten Polarisationsfilter kann hier nur der gedrehte Lichtstrahl
passieren. Der rote und der blaue Lichtstrahl werden blockiert
5. Der Bildpunkt leuchtet grün. Durch die unterschiedliche Mischung der
Grundfarben können alle Farben erzeugt werden
100 % Grün + 100 % Rot + 100 % Blau ergibt weißes Licht
Drucker:
Kriterien:
- Kosten (Gerät und Betrieb)
- Geschwindigkeit (Seiten pro Minute)
- Qualität (dot per inch)
- Farbfähigkeit
- Geräuschentwicklung
- Entsorgung, Umweltbelastung
- Durchschreibfähigkeit / Papierformate / Einzelblatt-Endlospapier
- Spezialpapier / Etikettendruck
- Lebensdauer (Gesamtleistung in Blatt)




1 Bit = ja/nein
1 Byte = 8 bit = ein Buchstabe
1 kb (KiloByte) ist eine normal bedruckte DIN A4 Seite = 210 = 1024 Byte)
1 MB (MegaByte) = reine Text ohne Gestaltung und ohne Bilder des Buchs
EDV-Grundwissen. Er passt auf eine 3,5’’-Diskette = 220 = 1.048.576 Byte
 1 GB (GigaByte) = ca. 1,5 Musik-CDs = 230 = 1.073.741.824 Byte
 1 TB (TeraByte) = ca. 210 DVDs (SS/SL = 4,9 GB) = 240
Herunterladen