Antworten Nr. 1

Werbung
INFORMATIK
ÜBERSICHT
Rechnersysteme
Einführung in die Informatik..........................................................................................2
Rechnerarchitektur und
Betriebssysteme...........................................................................................................2
Kommunikationssysteme/Netze.................................................................................4
Systementwicklung
Programmierung........................................................................................................5
Systemanalyse............................................................................................................7
Projektmanagement...................................................................................................7
Informationssysteme
Bürokommunikation...................................................................................................7
Datenbanken.................................................................................................................8
Sonstiges................................................................................................................................9
1
Rechnersysteme
Einführung in die Informatik
1. Wie erfolgt die Qualitätssicherung bei Software?
Durch Testverfahren für Software
Beim sog. Blackbox Test wird das System als schwarzer Kasten betrachtet,
dessen innere Struktur und Funktionalität dem Tester verborgen bleibt. Es ist deswegen
auch kein Zugriff auf interne Operationen und Zustände von außen
möglich, so dass
sich der Tester auf die Betrachtung des Ein-/Ausgabeverhaltens beschränken muss.
Testfälle können somit nur anhand extern sichtbarer
Schnittstellen und der
Spezifikation des Testobjekts abgeleitet werden.
Beim WhiteBox Testverfahren stehen dem Tester, im Gegensatz zum Black Box
Verfahren, Informationen über den internen Aufbau des Testobjekts zur
Verfügung. In der Regel sind solche Informationen Codedokumente, so dass der
White-Box Test auch als sog. “codebasierter Test” bezeichnet wird.
2. Erläutern Sie die von – Neumann – Architektur!
Folgende drei Eigenschaften kennzeichnen das Modell:
1. Ein (zentralgesteuerter) Rechner besteht aus drei Grundbestandteilen:
o
o
o
Zentraleinheit (Central Processing Unit, kurz CPU)
Speicher
Ein-/Ausgabeeinheit (I/O)
Die Bestandteile sind durch sogenannte Busse verbunden.
2. Die Struktur des Rechners ist unabhängig von einem speziellen zu bearbeitenden
Problem. Für jedes Problem wird ein neues Programm in den Speicher geladen.
Diese Eigenschaft hat zu der Bezeichnung programmgesteuerter Universalrechner
geführt.
3. Programme sowie die Daten, die von den Programmen benötigt werden, sind im
gleichen Speicher abgelegt. Der Speicher besteht aus nummerierten Adressen,
denen jeweils eine bestimmte Anzahl von Bits (Wortlänge) zugeordnet ist.
3. Welche Klassen von Daten sind Ihnen bekannt?
2
Zu ungenau.
In der Programmierung gibt es:
Type
byte
short
int
long
char
float
double
boolean
array
•
•
•
•
•
•
•
•
Größe in
Bit
8
16
32
64
16
32
64
?
4. Welche Aufgaben hat der
Datenschutzbeauftragte eines
Unternehmens?
Die wesentlichen Aufgaben des
Datenschutzbeauftragten werden in § 37
Bundesdatenschutzgesetz
genannt. Zu ihnen zählen insbesondere folgende
Aufgaben:
• Schaffung von Transparenz in der
betrieblichen Datenverarbeitung
• Überwachung der ordnungsgemäßen
Anwendung der Datenverarbeitungsprogramme
Koordinierung und Überwachung der Maßnahmen für Datenschutz und sicherung
Beratung über technische und organisatorische Maßnahmen im Bereich der
Datenverarbeitung
Beratende Mitwirkung bei der Auswahl von Personal, welches im Bereich der
personenbezogenen
Datenverarbeitung tätig wird
Schulung der Mitarbeiter
Erteilung von Auskünften an die Betroffenen in Angelegenheiten des Datenschutzes,
sowie Benachrichtigung des Betroffenen über die Datenerhebung
Vertretung des Unternehmers in datenschutzrechtlichen Fragen
Verfassen eines Tätigkeitsberichts am Ende des Geschäftsjahres
5. Was ist Datenschutz?
Datenschutz - ein Grundrecht
Datenschutz, der Schutz der Privatheit oder "Privacy", ist ein Grundrecht unserer
liberalen Rechts- und Gesellschaftsordnung:
•
Die Europäische Menschenrechtskonvention (Art. 8 EMRK) und die
Bundesverfassung (Art. 13 BV) garantieren das Recht auf Datenschutz.
Die Informations- und Kommunikationstechnologie, die sich seit den sechziger
Jahren
des vergangenen Jahrhunderts entwickelt hat, ist am Ursprung des
Datenschutzes:
•
Datenschutz ist eine Reaktion auf die technologische Entwicklung.
Der Datenschutz hat dieses Grundrecht in der Informations- und
Kommunikationsgesellschaft zu schützen:
•
Das Datenschutzgesetz (DSG) setzt die Rahmenbedingungen für den Umgang mit
Personendaten.
Rechtliche Rahmenbedingungen und organisatorische und technische
Anforderungen
an die Sicherheit sind die Ausgangslage für den Schutz der
Personendaten:
3
•
Mit Recht und Technik wird ein umfassender Datenschutz erreicht.
Die Zunahme der Menge der Daten (Jede Benutzung von Informations- und
Kommunikationstechnologie hinterlässt "Datenspuren") und ihre zunehmende Sensibilität
(Von Finanzinformationen bis zu Geninformationen) ist eine wachsende
Herausforderung für den Schutz der Privatheit.
•
Der Datenschutz nimmt eine aktive Rolle in der Diskussion ein, wie mit diesen Daten
umzugehen ist.
Informationen und Daten werden für das Funktionieren unserer Gesellschaft immer
wichtiger:
•
Der Ausgleich zwischen Zugang zu Informationen und Schutz der persönlichen
Informationen ist ein wichtiger Bestandteil des Datenschutzes.
Mit dem Datenschutz werden Grundanliegen unserer liberalen Rechts- und
Gesellschaftsordnung verwirklicht.
•
Angesichts der rasanten technologischen und gesellschaftlichen Entwicklung muss
die Auseinandersetzung mit dem Datenschutz für jede datenbearbeitende Stelle
einen hohen Stellenwert haben
6. Welche Probleme können beim Outsourcing der EDV Abteilung auftreten?
Zu den Nachteile und Risiken zählen:
• Abhängigkeit von einem IT-Dienstleister
• Risiken in der Kooperation durch Konkurs des Hosting-Anbieters
• Gefahr des Verlustes von unternehmerischem Know-how im Bereich der
lnformationstechnik
• Infrastrukturen des Hosters können nicht gemäß dem Wachstum des Kunden
erweitert werden
• Sicherheitsbedenken
7. Wie erfolgt die Verschlüsselung von Daten?
Zur Verschlüsselung benötigt man eine Verschlüsselungsvorschrift, den Algorithmus.
Diese allgemeine Vorschrift/ Beschreibung wird durch eine für jeden
Verschlüsselungsvorgang einzeln spezifizierte "Arbeitsanweisung" - den Schlüssel ergänzt. Sowohl von der Qualität des Algorithmus, als auch von der Anzahl der
Möglichkeiten (Schlüssellänge) hängt die Güte ("Knackbarkeit") der verschlüsselten
Daten ab.
Mit dem Verschlüsselungsverfahren PGP (Pretty Good Privacy) können
Daten und
Emails verschlüsselt oder signiert (digital unterschrieben)
werden. Das
besondere an
einer mit PGP verschlüsselten email ist, daß Absender und Empfänger
kein gemeinsames Geheimnis, wie eine Code-Tafel, besitzen. Das Programm benutzt
zwei komplementäre
Schlüssel (Keys), ein sog. "Key Pair" bestehend aus
einem "Private Key" und einem "Public Key". Der Private Key ist ausschließlich dem
Benutzer selbst zugänglich und muß streng unter Verschluß gehalten werden. Der
Public Key hingegen wird auf verschiedenen Wegen verbreitet, vorzugsweise über
Keyserver.
Der Absender benutzt nun seinen Private Key zusammen mit einem
Passwort
(das unabhängig vom Zugang zu einem Rechner oder File System gewählt
werden kann) sowie den von einem Keyserver geholten Public Key des
Empfängers
zum Verschlüsseln und/oder
Unterzeichnen. Der Empfänger holt sich den Public
Key des Absenders und kann dann zusammen mit seinem Passwort
und seinem Private
Key die email entschlüsseln und/oder die Signatur prüfen.
4
8. Welche Krypthografieverfahren kennen Sie?
Symmetrische Verschlüsselung
Bei der symmetrischen Kryptographie kennen und benutzen Sender und Empfänger für
die Ver- und Entschlüsselung einer Nachricht den gleichen geheimen Schlüssel: Der
Sender benutzt den geheimen Schlüssel zum Verschlüsseln und der Empfänger benutzt
ihn zum Entschlüsseln. Das Hauptproblem hierbei ist, dass sich Sender und Empfänger
auf den gleichen geheimen Schlüssel einigen, ohne dass ihn ein Dritter erfährt. Jeder,
der den Schlüssel während der Übertragung abfangen oder mithören kann, kann danach
alle verschlüsselten Nachrichten lesen, ändern, fälschen oder unterschreiben, indem er
diesen Schlüssel verwendet. Die Schlüsselerzeugung, -übertragung und -speicherung
wird Schlüsselmanagement genannt; alle Kryptosysteme müssen sich damit befassen.
Da alle Schlüssel eines symmetrischen Kryptosystems geheim bleiben müssen, treten
schwer beherrschbare Sicherheitsprobleme auf, speziell in offenen Umgebungen mit
vielen Nutzern.
Asymmetrische Verschlüsselung
Das Konzept der asymmetrischen Kryptographie wurde 1976 von Whitfield Diffie und
Martin Hellman vorgeschlagen, um das Problem zu lösen, dass bei symmetrischer
Verschlüsselung der geheime Schlüssel zwischen den Kommunikationspartnern
ausgetauscht werden muss und somit auch in falsche Hände geraten kann. In ihrem
Konzept hat jeder Beteiligte zwei Schlüssel, einen öffentlichen und einen privaten. Jeder
öffentliche Schlüssel wird veröffentlicht und der private Schlüssel bleibt geheim. Die
Notwendigkeit eines gemeinsamen Geheimnisses zwischen Sender und Empfänger ist
damit verschwunden: Jede Kommunikation verwendet nur öffentliche Schlüssel, private
Schlüssel werden nie übertragen oder geteilt. Jeder, der eine wichtige Information
versenden will, chiffriert mit dem öffentlichen Schlüssel, das Chiffrat kann jedoch nur mit
dem privaten Schlüssel dechiffriert werden, der sich ausschließlich in der Hand des
Empfängers befindet. Darüber hinaus kann asymmetrische Kryptographie nicht nur zur
Geheimhaltung (Verschlüsselung) sondern auch zur Authentifikation (digitale
Unterschriften) verwendet werden.
Digitale Signatur
Zwei Kommunikationspartner erhalten jeweils ein individuelles Schlüsselpaar:
-
einen öffentlichen Schlüssel (public key)
einen komplementären geheimen Schlüssel (secret key)
Die öffentlichen Schlüssel sind beiden Partnern bekannt, den geheimen Schlüssel kennt
nur der jeweilige Besitzer. Wenn Partner A nun einen Text signiert an Partner B schicken
will, geht er wie folgt vor:
A erstellt einen Klartext. Mit einem Komprimierungsvorgang wird aus dem Text ein HashWert erzeugt. Dieser Hash-Wert ist eine Zeichenkette, die unabhängig von der Länge
des Ausgangstextes immer gleich lang ist. Der Komprimierungsalgorithmus stellt sicher,
dass für jeden beliebigen Text ein eindeutiger Hash-Wert erzeugt wird. Der Hash-Wert
wird nun mit dem geheimen Schlüsüssel von A verschlüsselt. Das Ergebnis ist die
digitale Signatur, die an den Klartext angehängt und mit diesem verschickt wird.
Nachdem Partner B die Nachricht plus Signatur erhalten hat, entschlüsselt er mit dem
öffentlichen Schlüssel von A die Signatur und erhält damit den Hash-Wert des Textes. Er
wendet nun ebenfalls den Komprimierungsalgorithmus auf den Klartext an. Falls die
beiden Hash-Werte übereinstimmen, ist die Signatur echt, das heißt, B kann sicher sein,
dass die Nachricht von A kam (Authentizität). Zudem ist sicher, dass der Text
unverändert übermittelt wurde (Integrität).
Algorithmus
Beschreibung
5
Rivest, Shamir,
Adleman (RSA)
Ein allgemeiner Algorithmus, der digitale Signaturen, verteilte
Authentifizierung, Geheimschlüsselvereinbarung mittels
öffentlicher Schlüssel und die Massendatenverschlüsselung
unterstützt, ohne dass vorher geheime Informationen f
reigegeben wurden.
DSA
Data Encryption
Standard-Cipher
Block Chaining
(DES-CBC)
Algorithmus für digitale Signaturen
Eine zufällige Zahl wird generiert und mit dem Geheimschlüssel
zur Blockweisen Datenverschlüsselung verwendet
9. Nennen Sie die Vor- und Nachteile von Standardsoftware!
Die Einführung von Standardsoftware bringt viele Vorteile mit sich.
Vorweg soll eine Auflistung der erhofften Vorteile aus Verwenderseite gegeben
werden.
1. Bessere Planung, Steuerung und Kontrolle der betrieblichen Geschäftsprozesse
2. Einheitliche und Konsistente Datenbasis
3. Verbesserte Flexibilität im Hinblick auf eine Anpassung von Informationssytem und
Geschäftsprozessen an geänderte Anforderungen
4. Verkürzte Durchlaufzeiten für betriebliche Geschäftsprozesse
5. Qualitative Verbesserung der betrieblichen Geschäftsprozesse
Aus dem von den Anwendern angegebenen erhofften Vorteile lassen sich die
Wettbewerbsvorteile gegenüber ihren Konkurrenten ableiten. Primär erhoffen sich die
Anwender ein verbessertes Geschäftsprozeßmanagement in Verbindung damit eine
verbesserte Planung, Steuerung und Kontrolle, eine höhere Flexibilität sowie kürzere
Durchlaufzeiten.
Es geht also bei der Einführung von Standardsoftware nicht hauptsächlich um
Kosteneinsparungen sondern vielmehr um einen verbesserten
Geschäftsablauf. Ein weiterer indirekter Vorteil einer Standardsoftwareeinführung liegt darin, daß die Einführung zum Anlaß genommen wird, eine
Organisationsumstrukturierung durchzuführen. Es stellt sich hierbei die Frage, ob es
besser ist die neue Software an den Betrieb, oder den Betrieb an die neue Software
anzupassen. Dieses Thema wird in Unterpunkt 5 kurz behandelt.
Als Nachteil kann gesehen werden, daß die Anschaffung eines Datenbanksystems
eine Unternehmung auf längere Zeit bindet. Da die aufgebauten Datenstrukturen in
viele Anwendungsprogramme eingehen ist ein Wechsel des Datenbanksystems oft
nur mit sehr hohen Änderungsaufwand möglich. Auch muß für jedes in der
Unternehmung eingesetzte Datenbanksystem spezielles Know-how aufgebaut
werden, das zu einer wesentlichen Kapazitätsbindung in Personalbereich führt.
Zusammenfassend können folgende Vor-, und Nachteile von Standardsoftware
aufgeführt werden.
Die Vorteile einer Standardsoftware
• Kosteneinsparungen
• Kompatibilität mit anderen Nutzern
• Netzeffekte
• Kurze Implementierungsdauer
• Erfahrung
• Schulung / Erlernbarkeit
• Erfahrung
• Indirekte Nutzeneffekte
• Freiwillige Programm Updates vom Hersteller
• Verschiedene Plattformen
• Innerbetriebliche EDV Ressourcen werden geschont
• Zwischenbetriebliche Integration
Nachteile einer Standardsoftware
• Anforderungen in verschiedenen Bereichen werden nicht erfüllt
6
•
•
•
•
Zu umfangreich, Betriebe nutzen nur einen geringen Anteil an
möglicher Softwarekapazitäten
Unaufgeforderte Änderungen durch den Hersteller
Flächendeckend oder nur für bestimmte Bereiche, wo die Funktionalität am Höchsten
ist
Heterogene betriebliche Informationssyteme können durchaus gewollt sein, denn
eine flächendeckende Standardisierung der Systemelemelemte führt zu einer nicht
optimalen Unterstützung der Systemanwender.
10. Vergleichen Sie Standardsoftware mit Individualsoftware!
Die zweite Grundsatzentscheidung, die vor Projektausführung getroffen werden
muss, betrifft die Frage nach der individuellen Entwicklung oder dem Einsatz einer
Standardsoftware. Auch hierbei gibt es wieder diverse Vor- und Nachteile, die der
Projektleiter kennen und mit seinem Team diskutieren sollte.
Bei der Individualentwicklung wird die Lösung sozusagen aus dem Nichts
geschaffen. Sämtliche Elemente der Lösung, seien es Ein- und Ausgabeseiten, die
Datenbank, die Funktionen und Klassen müssen neu erstellt werden, sofern sie nicht
durch die Programmiersprache oder etwaige Tools bereitgestellt werden.
7
Für die individuelle Entwicklung spricht:
• Die Lösung passt hundertprozentig auf das Unternehmen, die vorhandenen
Systeme, Anwendungen und Schnittstellen.
• Es müssen keine Prozesse innerhalb des Unternehmens umgestellt werden.
• Das Unternehmen begibt sich nicht in eine technologische Abhängigkeit vom
Hersteller, da es volle Kontrolle über den Quellcode und die
Weiterentwicklung besitzt.
• Änderungen und Erweiterungen können binnen kürzester Zeit erfolgen, man
muss nicht auf das nächste Update warten, um auf eine neue Funktion
zugreifen zu können oder einen Fehler zu beseitigen.
• Bei Änderungen und Erweiterungen fallen keine zusätzlichen Lizenzkosten
an.
• Es fallen keine jährlichen Kosten für Softwarepflegeverträge, Updatelieferung
oder Fehlerkorrekturen an.
• Bewährte Nummernschlüssel, Auftragsnummern etc. werden beibehalten.
• Die Software wächst mit dem Unternehmen mit.
• Die Bedienung und der Komfort kann durch das Personal mit beeinflusst
werden.
• Der Schulungsaufwand ist geringer, da die Lösung auf bisherige Prozesse
aufbaut und an die vorhandenen Anwendungen angepasst und intuitiv
gestaltet werden kann. Zudem versperren nicht unzählig viele Funktionen die
Sicht auf die für das Unternehmen wesentlichen Dinge der Anwendung.
• Die Kosten sind als Ausgaben für Dienstleistungen sofort absetzbar und
brauchen nicht aktiviert und abgeschrieben zu werden.
Standard-Softwarepakete sind komplett entwickelte Lösungen, die bereits nach der
Installation einsatzbereit sind. Hierzu zählen Standardprogramme der großen
Hersteller genauso wie Open-Source-Lösungen.
Für Standardanwendungen spricht:
• kürzer Projektzeiten, da schnellere Installation
• geringere Anschaffungskosten, da Lizenzkosten meist billiger
• langfristig kalkulierbarere Kosten und geringeres Planungsrisiko
• Vielfalt an Funktionen zu geringerem Preis
• Keine Abhängigkeit vom Dienstleister, der Rechte auf den Quellcode besitzt
• Die Erweiterung erfolgt vielfach nach Wünschen der Kunden, so dass
Updates die kreative Kraft vieler Kunden enthalten.
• Die Kosten für neue komplexe Funktionen (XML, UMTS etc.) verteilen sich
auf viele Kunden. Diese Funktionen erhält man, ohne das dafür notwendige
Entwickler-Know-how aufzubauen.
11. Was sind die Vorteile wenn man seine Software selbst entwickelt?
Kostenminimierung und Umsatzmaximierung sind die Schlagworte; daneben suchen
die Unternehmen nach Lösungen, um ihr jeweiliges Geschäft zu stabilisieren
beziehungsweise beizubehalten. Alles, was umständlich, zeitraubend oder
kostenintensiv ist, sollte möglichst mit Hilfe von Technologie abgekürzt, vereinfacht
und
preiswerter gestaltet werden.
Die Vorteile dieser maßgeschneiderten Lösungen sind vor allem, dass die Software
genau auf seine Bedürfnisse hin erstellen wird. Support im eigenem Haus.
12. Was versteht man unter einem Prototyp?
Eine ausführbare und evaluierbare Version eines Systems oder Systemteils
(evolutionärer Prototyp) oder eines Werkzeugs, um ausgewählte Merkmale des
späteren, operationellen Systems (explorativer oder experimenteller Prototyp) zu
evaluieren.
Bemerkung:
Für die Erstellung eines Prototyps wird nicht die Erfüllung der Regelungen des V8
Modells gefordert.
Bei der Integration der Prototypen in das operationelle System muss geklärt werden,
welche Nacharbeiten zur Erfüllung der relevanten Anwenderanforderungen
(insbesondere der Qualitätsanforderungen) notwendig sind.
13. Erläutern Sie Computer Viren! Welche Arten von Computerviren kennen Sie?
Definition Computerviren:
Ein Computervirus ist ein Programm, das zu seiner
Weiterverbreitung fremden Code infiziert.Dies können neben Anwender- und
Programmdateien auch Systembereiche aufSpeichermedien sein. Darüber hinaus
besitzt ein Virus meist eine Schadensroutine, die vonstörenden
Bildschirmanimationen bis zum Löschen von Dateien reichen
Computerviren sind – wie der Name vermuten lässt – in ihrer
Funktionsweise den Virenähnlich, die den menschlichen Körper befallen können: Es
handelt sich bei Ihnen zwar um einStück Software (in diesem Kontext wird auch
von "Malware" gesprochen), aber im Grundsatzgehen Computerviren auch so vor,
dass sie einen Wirt befallen, sich dort vermehren, meist denWirt manipulieren
und sich anschliessend auf weitere Wirte verbreiten
Computerviren bestehen denn auch aus den folgenden
Grundbausteinen:
• der Infektionsroutine
• dem Kopiermodul
• der Statusroutine
Generell lassen sich die Gruppe der Computerviren oder eben der Malware
nach verschiedenenKriterien klassifizieren. Die gängigste Einteilung sieht
allerdings die folgenden Gruppen vor:
• Bootviren
• Dateiviren
• MakrovirenAlle
anderen Typen sind entweder Mischformen oder Untergruppen davon
BootvirenBootviren können das Ladeprogramm im Bootsektor oder den
Master-Boot-Record (MBR)von formatierten Datenträgern infizieren. Der Virus
überschreibt entweder einen Teilbereich,ersetzt den gesamten Code oder lagert
weitere Codeteile in andere Bereiche der Festplatte aus.
Dateiviren befallen ausführbare Dateien
wie zum Beispiel Programmdateien mit den Endungen.com oder .exe sowie System(.dll) und Sktriptdateien (.vbs). Dabei kopiert der Virus sich
selbst oder eine Sprunganweisung auf sich an den Anfang der Datei und wird
immer dannausgeführt, wenn die Datei aufgerufen wird.
Makroviren infizieren Dokumente mit Makro-Eigenschaften. Unter anderem
befallen sie Word-Dokumente, Excel-Tabellen und PowerPointpräsentationen.
Mit den Befehlen einer mächtigen Skriptsprache kann einMakro beispielsweise
Dateien und andere Officedokumente manipulieren oder Applikationenfernsteuern.In
der Vorgehensweise unterscheiden sich Makroviren kaum von Dateiviren. Der
Viruscodewird am Anfang beim Laden des Makros ausgeführt, kopiert sich dann auf
andere Dokumenteund erfüllt unter Umständen noch eine einprogrammierte Aufgabe
14. Welche Möglichkeiten gibt es die Lebenszeit eines Softwareproduktes zu
verlängern?
Wartung
Aufgaben
• warten
o Fehler beheben ("corrective")
o anpassen ("adaptive")
9
•
•
•
o verbessern ("perfective")
Ergebnis:
(Fehlerbeschreibungen) software problem report (SPR)
(Veränderungsvorschläge)software change proposals (SCP)
neue Versionen ("release")
15. Erklären Sie das Magische Quadrat der Softwareentwicklung?
16. Rechenen Sie Dualzahl 1101111 in Dezimal bzw. Hexadezimaldarstellung um!
1*2^6+1*2^5+0*2^4+1*2+^3+1*2^2+1*2^1+1*2^0=111
Hexa:
0110|1111
5
F
Dezimal
Hexadezimal
Dual
0
0
0000
1
1
0001
2
2
0010
3
3
0011
4
4
0100
5
5
0101
6
6
0110
7
7
0111
8
8
1000
9
9
1001
10
A
1010
11
B
1011
12
C
1100
13
D
1101
14
E
1110
15
F
1111
17. Was ist ein Byte?
Maßeinheit für Informationseinheiten bei Datenverarbeitungsanlagen, umfasst 9 Bits
(8 Datenbits und ein Prüfbit). Mit jeweils einem Byte wird ein Zeichen aus dem ASCIIZeichensatz oder aus einem vergleichbaren Zeichensatz dargestellt
Ein Byte ist die kleinste adressierbare Speicherstelle. Es besteht aus 8 Bits. Da ein
Bit zwei Zustände einnehmen kann, ermöglicht ein Byte (2 hoch 8) 256 Kombination
und damit die Darstellung von 256 verschiedenen Zuständen oder Zeichen.
18. Softwareergonomie, was versteht man darunter?
Die Software-Ergonomie beruht auf der Basis des Grundverständnisses von
Ergonomie. Das heisst, der Anpassung von technischen Systemen an den Menschen und
nicht umgekehrt! Die Software-Ergonomie beschäftigt sich vor allem mit dem Verhältnis
von Software-Systemen und ihren Benutzern. Dieses Verhältnis (MenschComputerInteraktion) spielt bei der Analyse, Gestaltung und Bewertung interaktiver
Computersysteme eine wichtige Rolle.
19. Sie wollen einen PC zusammenbauen, wie soll dieser PC aufgebaut sein?
10
20. Warum nimmt man keinen Giga Hertz PC?
21. Was sind Kenngrößen?
Anzahl der Gleitpunktoperationen (floating point operations), die im Mittel pro
Sekunde ausgeführt werden. Die Einheit dieser Gleitpunktleistung ist
dementsprechend
flop/s (floating point operations per second) bzw. Mflop/s oder Gflop/s.
Festplatte: Umdrehung/min
CPU: Taktfrequenz, Bustakt, Cache
Arbeitsspeicher: Größe und Bauart
Motherboard: Front Side Bus
22. Was ist ein Bit, Byte, Wort, Langwort?
Bit:
Abkürzung für "Binary Digit" • die kleinste Informationseinheit im binäre
Zahlensystem, die einer Speicherzelle entspricht. Ein Bit kann entweder den Wert 0 oder
1 annehmen. 8 Bit werden zu einem Byte zusammengefasst
Wort:
Ein Word besteht meist 16 Bits (4 Nibbles = 2 Bytes). Ein Word kann die 65536
verschiedene Zustände annehmen. Es kann den Zahlenbereich von 0 bis 65535
repräsentieren. Mit Vorzeichen ist der Bereich -32768 bis 32767 üblich Früher wurde
das Word verwendet um die Breite des Datenbuses von Prozessoren zu
umschreiben. Es wurden auch andere Breiten als 16 Bit eingesetzt.
Langwort:
In Anlehnung an die in den meisten Programmiersprachen übliche Notation
bezeichnet man jedoch als Wort in der Regel eine aus 16 Bit bestehende Dateneinheit und ein aus 32 Bit bestehendes Datum als Langwort.
23. Was ist ein Datenfeld?
kleinste eigenständige Einheit eines Datensatzes und/oder einer Datenbank. Ein
Datenfeld ist gekennzeichnet durch den Feldnamen, den Datentyp (z. B. numerisch
oder alphanumerisch), die Länge des Feldes (in Zeichen oder Byte) sowie den
Feldinhalt. Beispiele für typische Datenfelder sind Name, Geburtsdatum, Postleitzahl und
Kundennummer.
24. Was sind Dateien und welche Arten gibt es?
Musik, filme, komprimierte, Bilder, batch, doc’s, pdf………
25. Was ist ein Parity-Bit?
Prüfbit, das an eine Bitfolge (sieben oder acht Bit) eines Übertragungscodes
angehängt wird, um Übertragungsfehler zu erkennen. Es gibt even-parity und oddparity. Bei even-parity wird die Anzahl der in der Bitfolge auftretenden 1-Bits durch
das
Paritätsbit zu einer geraden Anzahl 1-Bits ergänzt. Bei odd-parity wird entsprechend eine
ungerade Anzahl 1-Bits hergestellt. Mit Hilfe des Parity-Bits kann
der Empfänger
einen Einzelfehler in der Übertragung erkennen. Da nur Einzelfehler
bzw. ungerade
Mehrfachfehler erkannt werden und andererseits die Qualität der
Telefonleitungen
sehr gut ist, wird auf das Paritätsbit bei Modem-Übertragungen heute Vielfach zugunsten
von fehlerkorrigierenden Protokollen (z.B. Zmodem)
verzichtet
26. Was ist das Ziel von Groupware?
?????
Rechnerarchitektur und Betriebssysteme
Rechnerarchitektur
1. Beschreiben Sie die von – Neumann – Architektur!
Siehe Oben
11
2. Welche Rechnerarchitekturen gibt es außer dem von - Neumann - Konzept?
Single instruction stream, single data stream (SISD):
SISD Computer besitzen eine CPU, die eine Anweisung zu einer Zeit verarbeitet
(single instruction stream). Sie schreiben oder laden eine Information zeitgleich aus
dem Speicher (single data stream). Es ist unschwer zu erkennen, dass vonNeumann-Architekturen diesem Computertyp zugeordnet werden können.
Single instruction stream, multiple data stream (SIMD):
Computer dieser Klasse besitzen eine CPU, die genauso arbeitet wie die einer vonNeumann-Maschine (d.h. eine Anweisung zeitgleich), jedoch beinhalten sie mehrere
Verarbeitungseineinheiten, die zeitgleich mit verschiedenen Daten umgehen (mutiple
data streams). Ein Anwendungsbeispiel sind sogenannte Prozessorarrays.
Multiple instruction stream, single data stream (MISD):
Hierbei würden mehrere CPU-Anweisungen auf dieselben Daten ausgeführt. Bisher
gibt es keine realen Umsetzungen dieses Computertyps.
Multiple instruction stream, multiple data stream (MIMD):
Bei Rechnern, die der MIMD-Klasse zugeordnet werden können, handelt es sich in
der Regel um typische Multi\-pro\-zessor-System. Hierbei arbeiten mehrere CPUs
unabhängig voneinander an unterschiedlichen Daten. Es kann also jede CPU ein
anderes Programm ausführen.
3. Erläutern Sie CISC und RISC!
12
RISC und CISC stehen für die Begriffe Reduced Instruction Set Computer bzw.
Complex Instruction Set Computer
Bei dem CISC Modell hat die CPU üblicherweise wenige Register (Speicherplätze in
der CPU), wovon manche auch meist Spezialaufgaben haben. Dazu finden sich viele
Befehle, darunter auch sehr mächtige, die z.B. in einer Schleife gleich mehrere
Register bearbeiten. Die Befehle haben meist ungleiche Befehlslängen. Die am
häufigsten benutzten nur ein Byte, weniger häufige zwei oder drei Bytes. Dadurch
kann der Code kompakt gehalten werden.
RISC geht einen anderen Weg. Man beschränkt sich auf die wirklich notwendigen
Befehle. Als Ausgleich hat mehr erheblich mehr Register (bis zu 256) auf dem Chip,
so das man viel öfters schnelle Register-Register Operationen hat als langsame
Speicher-Register Operationen. Die wenigen Befehle machen das Design einfacher
und man kann den Prozessor billiger herstellen.
4. Erklären Sie die CIS Architektur?
Oben
5. Erläutern Sie das RAID System?
Oben
6. Beschreiben Sie RAID 1 bis RAID 5 und nennen Sie jeweils Vor – und
Nachteile!
RAID=Redundant Arrays of Inexpensive Disks
Bei RAID Level 0 handelt es sich - wie die Null im Namen schon andeutet - um kein
redundantes Speicherverfahren. Es dient lediglich zur Beschleunigung von
Plattenzugriffen. Dazu fasst RAID 0 zwei oder mehr Festplatten zu einem logischen
Laufwerk zusammen. Es verteilt die Daten in aufeinanderfolgenden Blöcken
("Stripes")
gleichmäßig über alle Laufwerke.
Das parallele Lesen respektive Schreiben auf mehreren Laufwerken steigert zwar
die Durchsatzrate, senkt jedoch die Sicherheit der Daten: Fällt eine
Platte des
Verbunds aus, sind alle Daten verloren
Bei RAID Level 0 handelt es sich - wie die Null im Namen schon andeutet - um kein
redundantes Speicherverfahren. Es dient lediglich zur Beschleunigung von
Plattenzugriffen. Dazu fasst RAID 0 zwei oder mehr Festplatten zu einem logischen
Laufwerk zusammen. Es verteilt die Daten in aufeinanderfolgenden Blöcken
("Stripes")
gleichmäßig über alle Laufwerke. Daher bezeichnet man RAID 0 auch als
Striping. Das
parallele Lesen respektive Schreiben auf mehreren Laufwerken steigert
zwar die
Durchsatzrate, senkt jedoch die Sicherheit der Daten: Fällt eine Platte des
Verbunds
aus, sind alle Daten verloren.
RAID Level 1 wird auch als Mirroring oder Spiegelung bezeichnet. Dieser Name
verdeutlicht, wie das Verfahren arbeitet: Alle Schreibzugriffe erfolgen parallel auf zwei
Laufwerke, so dass jede Platte quasi ein Spiegelbild der anderen darstellt. Alle Daten
stehen also doppelt zur Verfügung - sicherer geht es kaum noch. Auch wenn eines
der beiden Laufwerke komplett ausfällt, bleiben alle Nutzdaten erhalten.
Allerdings
steht bei RAID 1 nur die Hälfte der Plattenkapazität für die Speicherung
zur
Verfügung. Die Kosten der Datenhaltung verdoppeln sich also.
Durch eine Kombination von Mirroring und Striping lassen sich
Geschwindigkeitsgewinn und Datensicherheit verbinden: Ein RAID 0 erzielt durch
das
lineare Zusammenschalten mehrerer Festplatten sowohl beim Lesen als auch beim
Schreiben einen Geschwindigkeitsvorteil. Die zusätzliche Spiegelung des
Stripesets
auf weitere Platten sorgt für Datensicherheit. Je nach Hersteller wird
dieses Verfahren
als RAID 0+1, RAID 0/1 oder RAID 10 apostrophiert
13
RAID Level 2 bietet zusätzlichen Schutz gegen Fehler innerhalb der Festplatten,
wird aber aufgrund seiner aufwendigen Implementierung kaum eingesetzt. Es blieb
bis auf wenige Anwendungen auf den Großrechnerbereich beschränkt.
RAID 2 basiert auf einer bitweisen Aufteilung der Nutzdaten. Dabei implementiert es
nicht nur eine Fehlerkorrektur gegen den kompletten Ausfall einer Platte. Alle
anderen RAID-Levels versagen, wenn nicht eine komplette Platte ausfällt, sondern
die
Daten beispielsweise durch einen Schreibfehler inkonsistent sind. Ein Fehler wird
bei
ihnen zwar erkannt. Welche Platte jedoch falsche Daten liefert, ist nicht festzustellen, eine
Korrektur somit unmöglich.
RAID Level 3 setzt auf ein byteweises Striping der Daten. Zur Erkennung von
Schreib-/Lesefehlern setzt es im Gegensatz zu RAID 2 auf die integrierten
Funktionen der Festplatten. Dadurch kommt es mit einem einzelnen, dedizierten
Parity-Laufwerk aus. Um die Generierung der ECC-Daten zu erleichtern
synchronisiert RAID 3 die Kopfpositionen der Laufwerke. Das ermöglicht zwar
Schreibzugriffe ohne Overhead, da sich Parity- und Nutzdaten parallel auf den Laufwerken
speichern lassen. Viele Lesezugriffe auf kleine, verteilte Dateien erfordern dagegen die
synchrone Neupositionierung der Köpfe aller Platten im Verbund und kosten entsprechend
Zeit.
RAID Level 4 arbeitet anders als RAID 3 mit blockweisem Striping der Nutzdaten.
Um die Nachteile von RAID 3 bei der Verarbeitung kleiner Files zu umgehen,
verzichtet es dabei allerdings auf eine Synchronisierung der Kopfbewegungen aller
Laufwerke. Zur Speicherung der Parity-Informationen nutzt es dagegen wie RAID 2
und 3
ein dediziertes Laufwerk. Die Kombination aus blockweisem Striping und
unabhängigem Plattenzugriff ermöglicht RAID 4 das schnelle Lesen auch kleiner
Files.
Je nach Dateigröße kann hier jedes Datenlaufwerk eine unabhängige Leseoperation
vornehmen. Bei Schreiboperationen allerdings erweist sich RAID 4
aufgrund der
fehlenden Synchronisierung RAID 3 unterlegen: Bei jedem ECC Update muss
zunächst die passende Stelle auf dem Parity-Laufwerk gefunden und angesteuert
werden. Damit erweist sich hier das ECC-Drive als Flaschenhals.
RAID Level 5 arbeitet ebenso wie RAID 4 mit einer blockweisen Verteilung der
Nutzdaten. Aber es verzichtet auf ein dediziertes Parity-Laufwerk und verteilt die
ECC -Daten zusammen mit den Nutzdaten gleichmäßig über die Laufwerke. Damit
sinkt die Wahrscheinlichkeit, dass gleichzeitig zwei Schreiboperationen auf dieselbe
Platte erfolgen. Schreibzugriffe lassen sich also weitgehend parallelisieren. Zudem
verteilt sich die mechanische Belastung der Platten gleichmäßig, da keine eine
Sonderstellung als Parity-Laufwerk einnimmt
RAID 6 stellt einen Versuch dar, gegenüber RAID 3 bis 5 die Ausfallsicherheit
nochmals zu erhöhen. Bei diesen Verfahren darf nur eine Platte des Arrays ausfallen,
da sich sonst die Daten nicht mehr per XOR rekonstruieren lassen. RAID 6 umgeht
diese Einschränkung, indem es quasi ein RAID 5 um eine zusätzliches ParityLaufwerk ergänzt. Zwar dürfen nun zwei Platten des Verbunds ausfallen, ohne dass
Datenverluste auftreten. Die zusätzliche Sicherheit muss allerdings mit gegenüber
RAID
3 bis 5 deutlich langsameren Schreibzugriffen erkauft werden.
Auch das proprietäre RAID 7 ist ähnlich wie RAID 5 aufgebaut. Allerdings setzt der
Hersteller Storage Computer im Controller zusätzlich ein lokales
Echtzeitbetriebssystem ein. Schnelle Datenbusse und mehrere große Pufferspeicher
koppeln die Laufwerke vom Bus ab. Dieses asynchrone Verfahren soll Lese- wie
Schreiboperationen gegenüber anderen RAID-Varianten erheblich beschleunigen.
Zudem lässt sich, ähnlich wie bei RAID 6, die Paritätsinformation auch auf
mehrere
Laufwerke speichern.
7. Welche Speicherarten sind Ihnen bekannt?
14
DRAM
Früher wurden die RAM-Bausteine als einzelne Chips auf das Motherboard gesteckt,
wohingegen heute Module verwendet werden, die man auch als SIMMs (Single Inline
Memory Modules) bezeichnet. Zunächst waren dies 30polige SIMMs die inzwischen aber
durch 72polige SIMMs (PS/2-SIMMs) abgelöst wurden. Diese Module sind auf dem
Motherboard in Bänken organisiert, wobei zu beachten ist, daß die einzelnen Bänke immer
vollständig mit Modulen bestückt sind, und diese Module auch vom gleichen Typ sein
müssen. Leider gibt es eine ganze Reihe unterschiedlicher Ausführungen der Module, so
daß hier nur ein kurzer Überblick über die wichtigsten Unterschiede gegeben werden kann.
Bevor ein Rechner im Speicherbereich erweitert werden soll, muß man auf jeden Fall das
Handbuch des Mainboardes zu Rate ziehen, um feststellen zu können welche Module in
welchen Kombinationen verwendet werden können, da manche Bänke parallel geschaltet
sind.
Zugriffszeit, Single sided/Double sided
DRAMs unterscheiden sich zunächst schon einmal durch unterschiedliche Zugriffszeiten.
Typisch sind Zeiten von <70 ns, für Prozessoren mit höheren Taktraten (P100) sind Module
mit Zugriffszeiten von 60ns notwendig. Ein weitere Unterschied ergibt sich durch die
technische Ausführung der Module. So gibt es Single und Double Sided Module, die sich
durch die Anzahl der nach Außen geführten RAS-Leitungen (Row Address Strobe)
unterscheiden (zwei bzw. vier Leitungen). Dies ist von außen ohne weiteres nicht zu
erkennen (!!!), da es nicht darum geht, ob das Modul einseitig oder zweiseitig mit Chips
bestückt ist.
DDR (Double Data Rate)
Als die viel diskutierte und von INTEL unterstützte Rambus-Technik Mitte 1999 Probleme mit
der Marktreife bekam, setzten Chiphersteller wie Hitachi, Hyundai oder IBM wieder auf die
Weiterentwicklung von SDRAM in Form der DDR-Speichertechnik. Während "normale"
SDRAM-Module 1999 bei einem 133 MHz Front-Side-Bus (FSB) einen Datendurchsatz von
1,1 GByte pro Sekunde leisteten, waren DDR-Module doppelt so schnell. Möglich wird dies
durch einen relativ simplen Trick: Die Datenbits werden bei der ab- und aufsteigenden
Flanke des Taktsignals übertragen, statt wie bisher nur bei der aufsteigenden. Erste Boards
und Speicherchips kamen Ende 1999 auf den Markt.
Gegenüber der von INTEL favorisierten Direct-RDRAM-(Rambus)-Lösung hat DDR einige
Vorteile: Die Hersteller benötigen keine neuen Produktionsmaschinen und DDR ist ein
offener Standard, dessen Spezifikationen im Internet offenliegen; Lizenzgebühren an INTEL
oder Rambus werden also nicht fällig.
15
Der DDR-Nachfolger - DDR2 - soll Transferraten von 3,2 GByte pro Sekunde bringen.
DRAM (Dynamic RAM)
Beim dynamischen Schreib-/Lesespeicher (DRAM) müssen die Ladungen zyklisch mit einem
sogenannten Refresh-Impuls immer wieder aufgefrischt werden, um die Daten in den
Speicherzellen zu halten. Der Nachteil: Die Zugriffszeit durch Refresh-Vorgang und
Wartezeiten des Prozessors liegt höher als beim SDRAM. Der Vorteil: DRAM ist
kostengünstig, erwärmt sich weniger und hat durch seine einfachere Struktur eine höhere
Integrationsdichte.
Hochfliegende Pläne hat Samsung: Das Unternehmen will mit 0,13-Mikron-Technik 4-GBitDRAM-Chips fertigen. Die Chips mit 500 MB Speicherkapazität gehen zwar erst in zehn
Jahren in die Massenproduktion. Die Technik läßt sich laut Hersteller jedoch auch bei
bestehenden Produkten - etwa den preisgünstigen 16-MBit-DRAM-Chips einsetzen.
DRDRAM (Direct Rambus Dynamic RAM)
DRDRAM zeichnet sich gegenüber SDRAM dadurch aus, daß der Speichersystembus mit
einer Taktrate von mindestens 400 MHz betrieben werden kann - deutlich schneller als der
100- oder 133-MHz-FSB. Rambus soll laut unternehmensnahen Quellen sogar mit
Systembus-Taktraten von 600, 700 und 800 MHz angeboten werden.
EDO (Extended Data-Out) DRAM
Der EDO DRAM (oder Hyper PageMode DRAM) arbeitet ähnlich wie der FPM-Speicher, ist
aber schneller dank Änderungen des CAS (Column Address Signal) und des verlängerten
Data-Outputs. Diese Chips können Datenwerte noch zum Auslesen bereit halten, während
bereits die nächste Adresse angelegt wird. Das beschleunigt Lesevorgänge.
Im Vergleich mit SDRAM ist EDO-Speicher langsamer.
FC-RAM (Fast Cycle RAM)
Bei der sogenannten Fast Cycle (FC)RAM-Technik wird die interne Leistung des Chips
gesteigert - im Gegensatz zum Direct-Rambus-Verfahren, das die
Schnittstellengeschwindigkeit zwischen Chip und Prozessor erhöht. Die von Fujitsu und
Toshiba initiierten Bausteine sind zwei- bis dreimal schneller als DRAM.
FPM (Fast Page Mode) DRAM
FPM war lange der DRAM-Standard, ist aber mittlerweile veraltet und wird von EDO - noch
mehr von SDRAM - übertroffen. FPM DRAM optimiert den Zugriff auf Daten: Fragt der
Prozessor nach Daten, die in derselben Reihe einer Seite wie die der zuletzt angeforderten
liegen, muß der Speichercontroller nur noch die Spaltenposition adressieren.
MRAM (Speicherchips hoher Packungsdichte auf Magnetbasis)
Bevor das Silizium Einzug in die Speichermedien gehalten hat, basierten diese auf
magnetisierbaren Eisenkernen - mit dem Vorteil, daß auch bei einer Stromunterbrechung
gespeicherte Informationen nicht verlorengingen; das Booten war dadurch überflüssig und
wird durch MRAMs - auch FeRAMs genannt - wieder überflüssig werden, da sich das
gesamte System immer im Hauptspeicher befindet. Außerdem könnten diese Speicherchips
für wesentlich leichtere Notebooks sorgen, denn die heute (2001) verwendeten RAMs
benötigen in bestimmten Abständen energieaufwendige Refresh-Spannungsstöße (siehe
DRAM), um fit zu bleiben; diese entfallen bei den MRAMs.
Bis es soweit ist, wird allerdings noch etwas Zeit vergehen. Prof. Burkhard Hillebrands von
der Uni Kaiserslautern entwickelt diese Chips in Zusammenarbeit mit Siemens. Er glaubt,
dass serienreife MRAMs frühestens im Jahr 2005 auf den Markt kommen werden.
RDRAM (Rambus DRAM)
Rambus soll laut unternehmensnahen Quellen mit Systembus-Taktraten von 600, 700 und
800 MHz angeboten werden.
SDRAM (Synchronous DRAM)
Der Nachfolger von EDO synchronisiert sich mit dem Systemtakt, der den Prozessor
kontrolliert. Das verhindert Zeitverzögerungen beim Zugriff. Eine Datenserie (Burst) wird
16
zügig übertragen.
SDRAM hat eine völlig andere Architektur als klassisches DRAM und ist wesentlich
schneller. Diesen Speichertyp gibt es als 168-polige DIMM-Module für System mit 66MHz
und 100MHz Bustakt.
SLDRAM (Synchronous Link DRAM)
Im September 1998 wollte Mosaid erste Muster seiner Synchronous-Link-DRAM-Chips an
Compaq, Hewlett-Packard und IBM ausliefern. Diese 64-MBit-Chips schaffen laut Hersteller
Datenraten von bis zu 800 MB/s. SLDRAM soll hauptsächlich in High-End-PCs und Servern
eingesetzt werden.
SRAM
SRAMs kommen überall da zum Einsatz, wo es um maximalen Datendurchsatz geht. Dies
ist vor allem beim Second-Level-Cache und bei Grafikkarten der Fall. SRAMs haben kürzere
Zugriffszeiten als DRAMs, und sind deshalb auch teurer als diese. SRAM tritt als SecondLevel-Cache vor allem in drei Formen auf, und zwar onboard in DIL-Bauweise (Dual Inline)
(asynchron), als synchronous Pipliened Burst SRAM in Form eines Coast-Moduls (Cache on
a stick), oder bereits aufgelötet auf dem Mainboard (verringert Kontaktschwierigkeiten). Auch
hier muß unbedingt das Handbuch des Motherboard zu Rate gezogen werden, um
abzuklären welche Art von SRAM zum Einsatz kommt.
Was ist Level-0-Cache?
Entkoppelt den Datenstrom der unterschiedlichen Recheneinheiten innerhalb der CPU.
Seine Größe liegt bei etwa 1 Byte bis 128 Byte.
Was ist Level-1-Cache?
Entkoppelt den Datenstrom innerhalb der CPU von der Außenwelt, Größe von wenigen
Bytes (128) bis zu mehreren kBytes.
Was ist Level 2 Cache?
Entkoppelt den Datenstrom der CPU vom Memory Bus, an dem der Hauptspeicher
angeschlossen ist. Größe von 256 kBytes bis zu mehreren MegaBytes.
Was ist Level 3 Cache?
Entkoppelt ggf. bei Mehrprozessorsystemen den separaten Systembus vom Memory Bus.
Festplatten IDE= Integrated Drive Electronics, SCSI= Small Computer System Interface
CD-ROM, Diskette, Bandlaufwerk
8. Wie groß sind die Speichermedien?
Arbeitsspeicher 1-1024 MB
Festplatte bis 250 Gigabyte
Cache 256 KB-2 MB
9. Welche sequentiellen Datenspeicherungsmodelle kennen Sie?
Magnetbandspulen, -kassetten
10. Was machen sie, wenn sie eine Festplatte eingebaut haben?
Formatieren, BS- Installieren
11. Was muß man denn mit einer jungfräulichen Festplatte machen
Formatieren
12. Wie äußert sich das Geschwindigkeitsverhältnis vom RAM zu Festplatte?
Während Festplatten immer noch eine Zugriffszeit von 8-12 Millisekunden haben,
kommen moderne RAM-Bausteine auf unter 10 Nanosekunden.
13. Erklären Sie RAM und ROM?
RAM: (Random access memory)
17
Das RAM ist ein Schreib-Lese-Speicher, bei dem jede Speicherzelle einzeln
adressierbar und inhaltlich veränderbar ist. RAMs werden als Daten- und als
Programmspeicher eingesetzt. RAMs, die durch Halbleiter realisiert sind, verlieren bei
Stromausfall ihren Inhalt. Um dem vorzubeugen, rüstet man Computer und auch
Taschenrechner mit Schaltungen aus, die bei Stromausfall oder versehentlichem
Ausschalten die RAMs über Akkumulatoren oder Batterien mit Strom versorgen, so
daß
ihr Speicherinhalt erhalten bleibt. ROM: ( Read only memory)
Festwertspeicher; Speicher, dessen Inhalt bereits bei der Herstellung festgelegt wird
und nicht mehr verändert werden kann. ROMs werden vorwiegend als Speicher für
feste Programme (z.B. für Betriebssystemkomponenten) und für unveränderbare
Daten verwendet. Bei speziellen Anfertigungen des Festwertspeichers lassen sich die
Inhalte wieder löschen: EPROM (Erasable Programmable Read Only Memory) durch
Bestrahlung mit UVLicht EEPROM (Electrically Erasable Programmable Read Only
Memory) durch Stromstöße: Kommt bei Chipkarten und Flash-Speichern
(BIOS, etc.) vor
14. Was ist ein Virtueller Speicher?
Physikalisch nicht vorhandener Haupt-Speicher - der durch die vorübergehende
Auslagerung von Daten auf die Festplatte realisiert wird.
15. Was ist ein Halbaddierer ?
Der Halbaddierer ist eine spezifische Gatter-Schaltung (also ein Artefakt), mit welcher
zwei Signale nach folgender Regel in ein Signalpaar übergeführt werden:
0+0=0
0+1=1
1+0=1
1 + 1 = 10
Im letzten Fall wird eine zweite Signalleitung aktiviert.
Der Halbaddierer ist der elementare Bestandteil des Prozessors beispielsweise eines
Computer und erklärt als Konstruktion die Bedeutung von "to compute" oder
Rechnen
im engeren Sinne.Der Informatik-Duden schreibt volks"dümlich":
Der Halbaddierer berechnet aus zwei binären Ziffern ihre Summe.
16. Was ist Microcode?
Der Microcode ist die Summe der Mikroprogramme, die dem Prozessor die
Anweisungen zum Abarbeiten der Befehle übermitteln.
17. Erklären Sie die Begriffe SIMD, und MIMD!
Single instruction stream, multiple data stream (SIMD):
Computer dieser Klasse besitzen eine CPU, die genauso arbeitet wie die einer vonNeumann-Maschine (d.h. eine Anweisung zeitgleich), jedoch beinhalten sie mehrere
Verarbeitungseineinheiten, die zeitgleich mit verschiedenen Daten umgehen (mutiple
data streams). Ein Anwendungsbeispiel sind sogenannte Prozessorarrays.
Multiple instruction stream, multiple data stream (MIMD):
Bei Rechnern, die der MIMD-Klasse zugeordnet werden können, handelt es sich in
der Regel um typische Multi\-pro\-zessor-System. Hierbei arbeiten mehrere CPUs
unabhängig voneinander an unterschiedlichen Daten. Es kann also jede CPU ein
anderes Programm ausführen.
18. Wie ist die Architektur bei SAP?
In SAP R/3 wird eine dreistufige Client-Server-Architektur verwendet, nämlich eine
Trennung in Präsentationsschicht, Anwendungsschicht und Datenbankserver
19. Was ist ATM?
ATM steht für "Asynchronous Transfer Mode". Es handelt sich um ein asynchrones
Datenübertragungsverfahren für Hochgeschwindigkeitsnetze, bei dem die Daten in
winzige Pakete (cells, Zellen) von 53 Byte Länge (davon 48 Bytes Daten) zerhackt
18
werden. Es kann sowohl im WAN- (Wide Area Network) als auch im LAN- (Local
Network) eingesetzt werden. ATM wird im WAN-Bereich als verbindungsorientiertes
Protokoll geplant. Es ist aber auch verbindungsloser Service möglich, was für
bestimmte Anwendungen sehr günstig ist (z.B. Videokonferenzen über Multicasting
statt
vieler Verbindungen von Clients an einen Server). ATM erlaubt sehr hohe
Bandbreiten
- von 25 MBit/s über 155 MBit/s bis zu 622 MBit/s in naher Zukunft (und
möglicherweise auch 2 GBit/s).
Area
20. Welche Registerbreiten haben die jeweiligen Rechner u. welche Auswirkungen
haben sie?
Ein Register in der Computertechnik ist ein Speicherbereich innerhalb einer CPU
(Prozessor), in der ein Datenwort abgelegt wird. Es handelt sich hierbei um den
schnellsten und üblicherweise kleinsten (und manchmal auch einzigen) Speicher, der
direkt auf dem CPU-Chip sitzt. Die Größe der Register spezifiziert die CPU-Klasse (8,
16-, 32- oder 64 Bit-CPU). Eine CPU hat im allgemeinen mehrere Register, mit der
sie Rechenoperationen und Speicheroperationen durchführt. Es gibt aber auch CPUArchitekturen, die anstelle von Registern für Berechnungen einen Stack verwenden.
Die meisten Maschinenbefehle einer CPU nutzen diese Register.
21. Was versteht man unter einem 16 Byte Prozessor?
Bei dem von Intel 1978 vorgestellten 8086 handelt es sich um einen 16 Bit Prozessor
mit einem adressierbaren Arbeitsspeicher von 1 MB. Die logische Adressierung des
Arbeitsspeichers erfolgt dabei immer über ein Registerpaar, das aus Segment- und
Offsetadresse besteht. Bei beiden Adressen handelt es sich um 16 Bit Register.
22. Was ist der Unterschied zwischen Pentium II und Pentium III?
23. Unterscheiden Sie Pentium III und Celeron Prozessor!
24. Welche Modi gibt es beim Pentium III?
25. Warum ist Pentium III besser als Cache?
26. Unterscheiden Sie 386SX,DX und 486SX,DX!
27. Was ist die Superskalare Pipeline beim Pentium?
Prozessoren ab der fünften Generation sind mit mehreren internen Befehlspipelines
ausgestattet. Damit können Prozessoren pro Takt zwei Befehle gleichzeitig
ausführen. Diese Architektur gilt ab der fünften Generation der Prozessoren schon als
Standard. Zwei Pipelines statt nur eine.
28. Was ist der ALPHA-Chip?
Der Prozessor der regelmäßig die Krone in der Geschwindigkeit hält, ist Digital
Equipments Alpha Chip. Der Alpha Prozessor ist ein sehr kompromissloser RISC
Prozessor, es gibt keine Spezialregister, keine 8 oder 16 Bit Operanden. Die
gesamte
Architektur ist auf Erweiterung ausgelegt. So ist der erste (21064) mit nur
einer Integer und Fliesskommaeinheit ausgestattet, während das aktuelle Modell 21264
über 4 Integer, 2 Load/Store und 2 FPU Einheiten verfügt. Gegenüber dem aktuellen
Spitzenmodell von Intel dem Pentium 4 verfügt der Alpha nur über weniger als die
Hälfte der Transistoren (15.2 anstatt 42) und ist trotz nur halb so großen Takt, noch
um 25 % schneller. Der Alpha wurde gezielt entwickelt um bei Digital die alte
Architektur der MIPS und VAX zu ersetzen, und dabei war das Entwicklungsziel eine
Architektur zu schaffen die durch Taktsteigerungen, Superskalare Einheiten und
Multiprozessing um den Faktor 1000 steigerbar ist.
29. Kann ich das AIX von IBM auf einem IntelPC laufen lassen ?
Glaube nicht habe kein gefunden nur das hier:
RISC-Chips, PowerPC und POWER3 laufen mit einem AIX BS von IBM.
19
30. Was ist X.400?
Für den Austausch elektronischer Nachrichten gibt es ebenfalls einen von der ISO
genormten Standard. Dieser wird mit X.400 MHS (X.400 Message Handling System)
bzw. ISO MOTIS (Message Oriented Text Interchange System; ISO 10021)
bezeichnet. Er ist das funktionelle Pendant zum im Internet verwendeten SMTP.
X.400
wurde 1984 als X.400-X.430 Message Handling System von der CCITT
eingeführt
und 1988 deutlich in seiner Funktionalität erweitert. Der Begriff X.400 steht
stellvertretend für eine ganze Gruppe von Protokollen mit unterschiedlichen Aufgaben
31. Was ist ein Superchip?
Der Power4 bietet echtes Multiprozessing durch den Einsatz von zwei Prozessoren
auf einem einzigen 64-Bit-Chip. "Der Power4 ist im Hinblick auf die Taktrate mit
einem Pentium vergleichbar, tatsächlich ist er aber sehr viel leistungsfähiger", sagte
der Chef des Power4-Entwicklungsteams von IBM, Fred Ziebler
32. Was sind Parallele Prozessoren? Welche Vorteile bieten diese, welche
Nachteile?
Nix gefunden aber denke mal System wird schneller Nachteil das bs muss diese
Technologie unterstützen
33. Erläutern Sie die Entwicklung von Prozessoren!
Model
Transistore
n
Takt
Intel
4004
2.300
108 kHz
1973
Intel
8008
3.500
200 kHz
1978
Intel
8086
29.000
4,0-8,0
1989
Intel
80486
1.180.000
16-100
1991
AMD
386 DX
200.000
16-40
1993
AMD
486
930.000
33-100
1996
IBM
PowerPC
604e
5.100.000
166-250
1997
Intel
Pentium II
7.500.000
233-350
1997
AMD
K6
5.500.000
166-300
2000
Intel
Pentium
IIIe
2000
AMD
Duron
2000
Intel
Jahr
Hersteller
1971
28.000.000 700-1000
25.000.000
Pentium 4 42.000.000
600-950
>1400
Bemerkung
Erster Mikroprozessor; 4-Bit Datenbreite. Einsatz in
einigen Taschenrechnern sowie als Steuerbaustein für
elektronische Geräte.
Erste programmierbare CPU. 8-Bit Datenbreite, ist aber noch
nicht für höhere Programmiersprachen (Basic, Fortran, etc.)
geeignet.
Erste 16-Bit-CPU. Definiert die bis heute gültige "-x86"- Linie.
Kann mindestens 330.000 Befehle/ Sekunde abarbeiten.
Weiterentwickelte 80386-CPU mit integriertem
mathematischen Co-Prozessor und 4 mal so vielen
Transistoren wie beim 80386.
Erster AMD-Klon einer Intel-CPU. Trotz geringerer
Transistorenzahl und dank höherer Taktfrequenz dem
Original teilweise überlegen.
AMD-Klon des 80486-Mikro-Prozessors von Intel. Mikrocode
von Intel lizenziert (genehmigt).
Weiterentwickelte CPU der 6. Generation. Vergleichbar mit
dem Pentium Pro. Wird von IBM jedoch nicht in den eigenen
PC´s eingesetzt.
Zweite CPU der 6. Generation. Mit neuem MultimediaBefehlssatz (MMX). Neue Bauform-Platine statt Chip
erfordert neue Motherboards.
AMD-CPU der 6. Generation. Basiert auf dem Nx6x86,
jedoch mit MMX und Pentium-kompatibel. Teilweise
schneller als die Intel-CPU´s.
Zweite Version des P III; 3- fache Transistorenzahl
ermöglicht nahezu Verdoppelung der Taktfrequenz.
Die Sparvariante von AMD soll dem Intel Celeron
Konkurrenz machen. Im Gegensatz zu seinem großem
Bruder, der AMD Athlon, besitzt der Duron lediglich einen
L2-Cache von 64 KB.
Erste CPU der 8. Generation (64- Bit). Trotz neuer Features
kaum besser als der Pentium III. CPU, Mainboard und
Rambus-Speicher extrem teuer.
20
2000
AMD
2000
IBM
2002
AMD
2002
Intel
2002
AMD
2002
Intel
K7
Weiterentwickelte Variante des Athlon. Nun wieder in ChipThunderbir 29.000.000 800-1300 Bauform. Deutlich schneller und wesentlich billiger als der
d
Pentium 4.
IBM-CPU der 7. Generation. Weiterentwickelte IBM-Variante
PowerPC
21.500.000 500-700 der PowerPC 750-CPU. IBM und Motorola haben sich
750 Cx
wieder getrennt.
Weiterentwicklung des Athlon-Chips. Verfügt nun über
erweiterte Multimediafunktionen, unter anderem „SSE“.
Obwohl der Athlon um einiges weniger getaktet ist as ein
Athlon XP 37.500.000 1333-1733 Intel Pentium 4, ist der Athlon XP leistungsstärker. Daher
benennt AMD seine Prozessoren nicht nach der Taktzahl,
sondern nach seiner Leistung. So nennt sich ein Athlon XP
mit 1333 Mhz „AMD Athlon XP 1500+“.
Die Herstellung des Pentium 4 wurde von 0,18 Mikron auf
Pentium 4 55.000.000
>1500 0,13 Mikron reduziert, so dass nun Taktraten bis über 2 Ghz
möglich sind.
Der neue Prozessorkern "Thoroughbred" wird nun mit der
Athlon XP
>1466 0,13 µm-Technologie hergestellt. Dadurch sind höhere
Taktraten bei geringerer Temperatur möglich.
Intel führt die Hyperthreading-Technologie ein, welche ein
Pentium 4
Dual-Prozessor-System simuliert. So sollen Programme, die
>2800
"HT"
zwei Prozessoren unterstützen (z.B. mpeg rippen), einen
enormen Leistungsschub erhalten
Betiebssysteme
34. Was ist ein Betriebssystem?
Die Summe derjenigen Programme, die als residenter Bestandteil einer EDVAnlage für den Betrieb der Anlage und für die Ausführung der
Anwenderprogramme
erforderlich sind. Man unterteilt das Betriebssystem
üblicherweise in:
1. Steuerprogramme, das sind Programme für die
(a) Ausführungsvorbereitung (Job Management)
(b) Prozesskoordination (Task Management)
(c) Datenmanipulation (Daten Management) und für die
(d) Sicherung des Betriebsablaufs.
2. Arbeitsprogramme:
(a) Übersetzungsprogramme für die jeweils benutzte Programmiersprache,
wie
z.B. COBOL, FORTRAN, BASIC
(b) Standardisierte Dienstprogramme, wie z. B. das Sortieren, Mischen und
Laden von Dateien und für die Unterstützung des Testens von Programmen.
35. Welche Aufgaben übernimmt das BS
Ein Betriebssystem ist ein Programmpaket, das als Vermittler zwischen dem
Benutzer/Programmierer und der Hardware eines Computers fungiert. Die wichtigsten
Aufgaben sind:
•
Stellt dem Benutzer eine "Erweiterte Maschine" zur Verfügung, d.h. das BS
vereinfacht das Programmiermodell der Maschine durch Bereitstellung von
Funktionen auf höherem Abstraktionsniveau
•
Verwaltung von Ressourcen, d.h. effiziente Unterstützung von Hardware
36. Welche Betriebssysteme kennen Sie?
Microsoft Windows, Linux (SuSe. Mandrake, RedHat, Slackware), Unix, AIX
(IBM),
MAC(Apple).......
37. Was ist Multitasking?
21
Multitasking ist die Fähigkeit eines Betriebssystems, mehrere Aufgaben scheinbar
gleichzeitig auszuführen. Hierbei gibt es verschiedene Konzepte zur Handhabung
des
Multitasking. Die heutzutage am häufigsten angewendete Methode ist das
präemptive Multitasking, bei
dem der Betriebssystemkern die Abarbeitung der
einzelnen Prozesse steuert und jeden Prozess nach einer bestimmten Abarbeitungszeit zu
Gunsten anderer Prozesse anhält. Eine beliebte Umsetzung des
präemptiven
Multitaskings ist die Verwendung einer Priority Queue in Verbindung mit
der Round
Robin - Scheduling - Strategie.
38. Welche Arten von Betriebssystemen gibt es?
Single-User/Single-Tasking
Beispiel: MS-DOS (Microsoft Disk Operating System)
nur ein Benutzer kann aktiv sein
in einem Moment kann nur eine Anwendung auf dem PC laufen
Single-User/Multi-Tasking
Beispiel: Windows 98, Windows ME
nur ein Benutzer kann aktiv sein
in einem Moment können gleichzeitig mehrere Programm verwendet werden
Multi-User/Multi-Tasking
Beispiel: Linux, Windows 2000, Windows XP
mehrere Benutzer können aktiv sein
in einem Moment können gleichzeitig mehrere Programm verwendet werden
erfordert Zugriffsrechte und andere Schutzmechanismen
Frei Programmierbaren z.B. PC Betriebssystem im Privatenbereich
Keine Programmierbarkeit z.B. Handy
Ein Programmbetrieb(nur ein Programm im Hauptspeicher) z.B. MS-Dos
Mehr Programmbetrieb(mehrere Prgramme im Hauptspeicher) z.B.
Windows,Mac,Linux Unix
39. Wie kann man Betriebssysteme einteilen?
Systemumgebung und ihre Aufgabenstellung
Stapelbetrieb, Interaktiver Betrieb, Echtzeitbetrieb
Benutzerzahl
Einbenuntzerbetrieb, Mehrbenutzerbetrieb(Teilnehmerbertrieb)
Eingriffsmöglichkeiten des Benutzers
Off-Line-Betrieb
On-Line-Betrieb
Programmierbarkeit des Systems durch Benutzer
Frei programmierbar
Nicht programmierbar
Programm-/Speicherorganisation
Einprogrammbetrieb, Mehrprogrammbetrieb, Time-Sharing-Betrieb
40. Was sind proprietäre und offene Betriebssysteme?
Proprietäre Betriebssysteme
Betriebssysteme gelten als proprietär, wenn sie nur auf der Hardware des Herstellers
ablauffähig sind. Programmiersprachen und -systeme gelten als proprietär, wenn der
Befehlsumfang ausschließlich von einem einzigen Hersteller definiert
beziehungsweise weiterentwickelt wird.
Offenes System
In einem offenen System (engl.: open system) sind herstellerunabhängige
Spezifikationen für Schnittstellen, Dienste und unterstützende Formate
implementiert. Auf dieser Basis erstellte Anwendungssoftware gewährleistet
- Portierbarkeit (= Übertragbarkeit) auf verschiedene Systemplattformen,
- Zusammenspiel mit anderen Anwendungen und
- Durchgängigkeit von Benutzerinteraktionen mit konsistenter Benutzeroberfläche.
22
41. Was verbirgt sich hinter den Begriffen kooperatives und preemptives
Multitasking?
Kooperatives Multitasking: War die Bezeichnung für die erste Realisierung von
Multitasking unter Windows. Hierbei wurde das multitasking jedoch nicht vom
Betriebssystem verwaltet, sondern Windows war darauf angewiesen, dass sich die
einzelnen Programme an ganz bestimmt Konventionen halten. Die Programme
konnten selber bestimmen, wie lange sie den Prozessor nutzen wollten. Nach Ablauf
dieser Zeit wurde der Prozessor für andere Programme freigegeben. Der Nachteil war
natürlich, dass, wenn ein solches Programm abstürzte, der ganze Prozessor blockiert war
und Windows keine Möglichkeit hatte, diesen Konflikt zu lösen. Ein Neustart war
die
Folge, mit einem möglichen Datenverlust. Kooperatives Multitasking wird auch als
nonpreemptives Multitasking bezeichnen.
Preemptives Multitasking: Wird inzwischen von den meisten modernen
Betriebssystemen genutzt. Hierbei wird das Multitasking vom Betriebssystem verwaltet.
Das Betriebssystem bestimmt, wann welches Programm wieviel Rechenzeit bekommt. Ist
die zugewiesene Zeit abgelaufen, wird dem Programm der
Zugriff auf den Prozessor
entzogen und das nächste Programm bekommt den Zugriff.
Hierdurch ist völlig
unmöglich, dass die Programme selber bestimmen, wann sie den
Zugriff auf den
Prozessor abgeben. Ein wesentlicher Vorteil ist der, dass ein
abgestürztes Programm
den Prozessor nicht blockiert und damit das ganze System
wesentlich stabiler läuft
und abgestürzte Programme keinen Einfluss mehr auf andere Programme haben.
42. Warum brauche ich ein Betriebssystem?
Um die Hardware ansprechen zu können
43. Teilen Sie die verschiedenen BS nach Rechnerklassen ein!
Großrechner BS = IBM OS/390, Siemens BS2000.
Server BS = Apple Software Mac OS X, Microsoft Windows Server, Novell Netware,
Linux(SuSe, ReadHat, Slackware...), Unix(IBM, HP...)
Workstation, Clinet Rechner= Microsoft Windows, Apple Software Mac OS X,
Linux(SuSe, ReadHat, Slackware...)
44. Vergleichen Sie die beiden Betriebssysteme Windows und Unix!
45. Welche Vorteile bietet das Unix Dateisystem?
Rechtevergabe bei den Dateien oder Ordner. Der der die Datei erstellt hat kann sich
selber das recht nehmen diese auszuführen oder zu löschen. Erhöhte Sicherheit
dadurch das man erst rechte bekommen muss um dateien die einem nicht gehören
änder zu dürfen oder zu löschen.
46. Was ist Office?
Software von Microsoft zur Bearbeitung Büroübliche Arbeit wie z.B. Briefe schreiben,
Presentationen erstellen, Rechnungen in Tabellenschema erstellen usw.
47. Was ist ein Prozess und was ein Programm?
Ein Prozess ist eine durch ein Programm spezifizierte Folge von Aktionen, deren
erste begonnen, deren letzte aber noch nicht abgeschlossen ist. In manchen
Betriebssystemen wird anstelle von Prozess auch der Begriff Task oder Thread
verwendet.
Weitere mögliche Umschreibungen eines Prozesses:
Ein Programm in Ausführung Eine asynchrone Aktivität, Die Belebung einer
Prozedur, Wird manifestiert durch einen Prozess-Steuerblock (pcb),
Einheit der ein Prozessor zugewiesen werden kann, Zu bearbeitende Einheit
(dispatchable unit)
48. Wie werden Prozesse abgearbeitet?
Sobald ein Prozess zuvorderst in der Bereit-Liste steht, und der Prozessor verfügbar
wird, erhält dieser Prozess den Prozessor. Die Zuweisung des Prozessors wird durch
den Bearbeiter (= dispatcher) vorgenommen:
23
den
bearbeite(Prozessname):
bereit/ready
ausführend/running
Damit ein bestimmter Prozess den Prozessor nicht monopolisieren kann, gibt es in
vielen Betriebssystemen einen Timer der periodisch die Prozesse unterbricht, und
dem Betriebssystem (Bearbeiter) den Prozessor zurückgibt:
Timerende(Prozessname):
ausführend
bereit
Falls ein ausführender Prozess eine E/A Operation startet, so gibt dieser Prozess
Prozessor freiwillig frei bis zum Abschluss der E/A Operation:
blocken(Prozessname):
ausführend
blockiert
Sobald die E/A Operation beendet ist, wird der Prozess wieder aufgeweckt:
aufwecken(Prozessname):
blockiert
bereit
Nur der Übergang blocken wird vom Prozess selbst verlangt, alle übrigen Übergänge
werden durch das Betriebssystem gesteuert.
49. Erklären Sie die Phasen eines Prozesses?
Prozesszustände
ausführend (running):
Der Prozess besitzt im Augenblick den Prozessor.
bereit (ready):
Der Prozess könnte den Prozessor gebrauchen, falls dieser verfügbar wäre.
blockiert (blocked):
Der Prozess wartet auf ein bestimmtes Ereignis, bevor er weiterarbeiten kann.
50. Wie erkennt der Rechner welchen Prozess er abarbeiten soll?
Mit dem pcb wird ein Prozess einem Betriebssystem bekanntgemacht. Der pcb ist
eine Datenstruktur die nachstehendes enthält:
• aktueller Zustand des Prozesses
• eindeutige Identifikation des Prozesses
• Prozess Priorität
• Zeiger zum Speicher dieses Prozesses
• Zeiger zu den zugewiesenen Betriebsmitteln
• Bereich zum Retten der Register
Der pcb definiert den Prozess dem Betriebssystem gegenüber. Damit ein
Prozesswechsel schnell stattfinden kann, haben verschiedene Prozessorsysteme
spezielle Register die immer zum aktuellen pcb zeigen, oder Hardware Instruktionen die
einen Prozesswechsel durchführen können.
51. Unterscheiden Sie Batch- und Onlineprozess?
Batch =Abarbeitung am stück ohne weiter Enflußnahme von außen
Online= System ist interaktionsfähig
52. Wann lässt man Batchprozesse ablaufen?
Anwendung bei verarbeitungs- und datenintensiven Aufgaben(über nacht)
53. Wo liegt der Unterschied zwischen Batch-Verarbeitung und DialogVerarbeitung?
Batch-Verarbeitung (DV): Stapelverarbeitung. Sequentielle Abarbeitung eines
normalerweise sortiert auf Datenträgern gespeicherten Stapels von Vorgängen.
(Lochkarten Prinzip)
Dialogverarbeitung (DV): Durch den Bediener interaktiv ausgelöste und kontrollierte
Verarbeitungsprozesse. Normalerweise mit Bedienerführung über Hinweise auf dem
Bildschirm.(Mit Tastatur und Bildschirm, Terminal)
24
Kommunikationssysteme
1. Erläutern Sie das OSI Schichtenmodell?
Open Systems Interconnection. Auch ISO/OSI-Schichtenmodell, da es vom ISO
entwickelt wurde. Das OSI-Modell beschreibt den logischen Aufbau einer NetzwerkVerbindung zwischen zwei Computern, wobei die bei einer Verbindung anfallenden
Aufgaben verschiedenen Protokoll-Schichten zugeteilt werden.
Das OSI-Modell beschreibt einen theoretischen Ideal-Aufbau, so daß eine Zuordnung
in der Praxis, z.B. zum Internet, nicht ohne weiteres möglich ist. Die folgende
Gegenüberstellung ist daher nur ein Versuch.
07. Anwendung
FTP-Programm
06. Darstellung
FTP
05. Kommunikation z.B. FTP, HTTP, SMTP
04. Transport
z.B. TCP oder UDP
03. Vermittlung
IP, X.25, oder X.21
02. Sicherung
z.B. Ethernet oder Tokenring
01. Physikalisch
z.B. Ethernet oder Token-Ring
Die Kommunikation erfolgt immer nur zwischen zwei Schichten der gleichen Ebene.
Z.B. zwischen der Transportschicht von Computer A und Computer B, wobei sich
diese Schichten immer der Dienste der jeweils darunter liegenden Schichten
bedienen müssen, z.B. der Sicherungsschicht und der Physikalischen Schicht.
Für Programmierer hat das den Vorteil, daß ihre Anwendungen z.B. auf der
Transport-Schicht (z.B. dem TCP) aufbauen können. Der Programmierer muß sich
nur
um das Protokoll seiner Anwendung kümmern, den Rest erledigen die Programme der
unteren Schichten.
2. Was ist die Datenübertragungsgeschwindigkeit?
KBytes/s. Kann man sehen wie viele KBytes/s übertragen werden von einem
Rechner zum anderen. Mbits/s gib es auch schon
3. Was sind Datenautobahnen?
Highspeed Internet
4. Erklären Sie FDDI, ATM, Fast Ethernet, ADSL!
FDDI Fiber Distributed Data Interface
Durch ANSI (X3T9.5) genormtes Token-Passing-Glasfaser-Netz mit Doppel-RingTopologie. Zu den wichtigsten Definitionen von FDDI zählen PMD und PHY
(physikalische Ebene) und MAC (data link layer) sowie SMT. Die maximale Anzahl
der
Stationen beträgt 500, die maximale Ausdehnung 100 km. Zwischen zwei
benachbarten Komponenten ist ein maximaler Abstand von 2 km möglich. Es existiert
FDDI-I (Netz für reine Datenübertragung, 100 MBit/s) und FDDI-II, das Daten- und
Sprachübertragung (synchron/isochron) ermöglicht. FDDI-II wird auch als Hybrid Ring
Control (HRC) bezeichnet
Asynchronous Transfer Mode
Eine Technologie für vermittelte, verbindungsorientierte LANs und WANs. Sie
ermöglicht einer theoretisch unbegrenzten Anzahl von Netzbenutzern dedizierte
Hochgeschwindigkeitsfestverbindungen sowohl untereinander als auch mit Servern. Als
Vermittlungstechnik ("Cell-Relay") soll sie im Breitband-ISDN (B-ISDN) oder auch
im
Switched Multimegabit Data Service (SMDS-Netze) eingesetzt werden. Aber auch
im
LAN-Bereich macht ATM mit Hilfe von ATM-LAN-Emulationen mehr und mehr von
sich
reden. ATM basiert auf einem schnellen Zell-Switching (Pakete fester Größe: 48+5 Byte),
das variable Bitraten (je nach Anforderung) ermöglicht. Im
Zusammenhang mit ATM
spricht man nicht von Nachrichtenpaketen, sondern von Nachrichtenblöcken oder
Nachrichtenzellen (s.a. STM, DQDB).
Fast Ethernet
100BaseT wird auch als Fast Ethernet bezeichnet.
Es bezeichnet einen Standard für eine Ethernetverkabelung, die in Anlehnung an
25
10BaseT eine Übertragungsrate von 100 MBit/s ermöglicht. 100BaseT verwendet wie
10BaseT das Zugriffsverfahren CSMA/CD, ist also ein "richtiges" Ethernet.
Asymmetric Digital Subscriber Line
Digitales Übertragungsverfahren, das zu Beginn der 90er Jahre als
Weiterentwicklung von HDSL entwickelt wurde.
ADSL ist aber erst seit kurzer Zeit genormt, so daß es noch wenig verbreitet ist.
Es erlaubt auf den Kupferleitungen des Telefonnetzes relativ hohe
Übertragungsraten und läßt dabei die analoge Telefonübertragung unangetastet, weil es
erst im
Frequenzbereich ab 20 kHz arbeitet.
Während mit HDSL breitbandige Duplexverbindungen möglich sind, ist ADSL
unsymmetrisch ausgelegt.
So stehen upstream (vom Nutzer ins Netz) maximal 768 KBit/s und downstream
maximal 6,144 MBit/s zur Verfügung.
5. Unterschied FDDI/ATM
6. Nennen Sie eine typische Übertragungsgeschwindigkeit im Ethernet!
10Base Thin-Ethernet:
Geschwindigkeit = 10 Megabit/Sekunde
100Base Fast-Ethernet:
Geschwindigkeit = 100 Megabit/Sekunde
1000Base
Gigabit-Ethernet ist die Bezeichnung für die Standards IEEE 802.3z und IEEE
802.3ab, die Ethernet-Varianten mit einer Bandbreite von 1 GBit/s definieren
10GBase ist die Bezeichnung für eine Datenrate von 10 Gigabit/s im Basisband bei
10-Gigabit-Ethernet.
7. In welcher Größenordnung bewegt sich die
Datenübertragungsgeschwindigkeit beim Internet aus der Steckdose?
2,5 MBit/s
8. Welche Internetgremien gibt es damit das Internet funktioniert?
26
9. Wie unterscheiden sich Internet und Intranet?
Internet die ganze Welt im Cyberspace.
Intranet, abgeschottet vom Internet, beschränkt sich auf ein Unternehmen oder
Uni(beschränkte Fläche).Keine Möglichkeit nach außen zugelangen(ins Internet)
wenn kein Verbindungsstück vom Intranet zum Internet besteht.
10. Was ist HTTP, wozu, welche Eigenschaften? Wer hat's erfunden?
Tim Berners - Lee vom Cern in Genf war der Erfinder. 1994 gründete er am MIT das
World Wide Web Consortium (w3c), welchem seither die Entwicklung des WWW
(World Wide Web) obliegt. Das WWW basiert auf dem HTTP, ein Protokoll für die
Kommunikation zwischen einem Webserver und einem Client (Browser):
Der Client schickt dem Server einen Request auf seinen Port 80. Es gibt
verschiedene Typen von Requests (Methoden). Die gängigste Methode ist GET.
Diese
schickt einen URL (Universal Resource Locator), das was Sie im Browser als Adresse
eingeben. Ein URL ist eine eindeutige Adresse zu einer Ressource im Internet und besteht
aus mehreren Teilen:
protokoll://host:port/pfad
Zuerst steht das Protokoll, in unserem Fall http. Es folgt der Domain Name des Host
(oder auch einfach seine ip Adresse). Dann folgt die Portnummer unter welcher die
Applikation (der Dienst) auf dem Host erreichbar ist, in unserem Fall 80. Und zuletzt
wird der Pfad auf dem Host bis zum gewünschten Dokument angegeben. Lassen Sie
Teile des URL weg, setzt der Browser Standardwerte ein, also z.B. 80 bei http. Im
27
Normalfall schickt der Server dem Client als Antwort den Inhalt des gewünschten
Dokumentes zurück.
11. Was sind dynamische Webinhalte?
Es gibt keine html Seiten. Die html Seiten werden erst dann vom Rechner
erzeugt wenn ein Besucher auf diese Seite möchte. Durch ein einfachen
Programmier
Code wie z.B. PHP und mit einem Interpreter wie z.B. Apache lassen sich die Seiten
dynamisch generieren.
12. Was ist www?
World Wide Web= Internet auf der ganzen Welt.
13. Wie funktioniert ein Internetzugang?
Hardware
Das Internet ist ein weltweites Netz von Millionen von Rechnern. Sowohl
Computernetze als auch einzelne Rechner sind mit dem Internet verbunden bzw.
können für die Zeit einer Internet-Sitzung verbunden werden.
Netze und Computer gehören Universitäten, staatlichen Stellen, Institutionen, Firmen,
Privatleuten, Interessengruppen, Parteien u.v.a..
Die weltweite Vernetzung wird über verschiedene Kommunikationswege mit
unterschiedlicher Kapazität erreicht: Glasfaserkabel, Richtfunkstrecken, Telefon-,
ISDN- oder gar Satellitenverbindungen u.a.
Die Leitungen und Übermittlungseinrichtungen gehören in der Regel privaten oder
staatlichen Telekommunikatons-Unternehmen.
Es gibt also keinen, dem das Internet alleine gehört. Das Internet befindet sich
sozusagen im "kollektiven Besitz".
Software
Das Internet baut auf weltweite Standards. Nur so ist es möglich, dass
unterschiedliche Rechner mit unterschiedlichen Betriebssystemen miteinander verknüpfbar
sind. Die Software zur Internet-Kommunikation (Server oder ClientSoftware) ist zwar
plattformabhängig zum Rechner, auf dem sie läuft, die
übertragenen Daten sind jedoch
"neutral". Sie können von der Gegenseite empfangen und verarbeitet werden.
Alle Kommunikation geschieht auf Basis des TCP/IP-Protokolls. Darauf bauen
verschiedene Arten von Diensten (Servertypen) auf. Je nach Dienst sind
unterschiedliche Nachrichtenformate (Protokolle) definiert. Zu jedem Dienst existiert ein
entsprechender Client, der für Empfang, Senden, Darstellung und
Weiterverarbeitung
zuständig ist.
Browser wie der Netscape-Navigator vereinigen mehrere Clients in sich. Sie
verarbeiten sowohl WWW-Seiten (HTTP), können E-Mails und Nachrichten an Newsgroups
senden und empfangen oder Filetransfers (FTP) durchführen.
Beim Microsoft-Internet-Explorer werden ab Version 4 E-Mails über getrennte Clients
wie "Microsoft Exchange" oder "Microsoft Outlook" verwaltet und verschickt.
14. Welche Werkzeuge können bei der Internetseite eingesetzt werden?
Einen Editor für die HTML Sprache z.B. DreamWeaver
Ein Grafikprogramm für die Bilder z.B. Adobe Photoshop
15. Welche Arten von Online Katalogen kennen Sie?
Powershopping(lestbuyit.com), Versteigerungen(ebay), normale Kataloge(Quelle,
Neckermann)
16. Welche Suchverfahren bietet das Internet?
Roboterbasierte Suche / Suchmaschinen
Roboter, auch Spider, Wanderer oder Worm genannt, sind Programme, die entlang
von WWW-Hypertextstrukturen Dokumente automatisch verarbeiten. Dabei wird ein
Dokument geladen, der Inhalt analysiert und es werden referenzierte Dokumente
rekursiv weiterverfolgt. Einige große Suchdienste haben über ihre Roboter schon
große Teile des Webs abgearbeitet. Die zugehörigen Volltextindizes oder auch nur
28
Teilindizes der Dokumente wurden in Datenbanken gespeichert. Diese Datenbanken
bilden die Grundlage für die Suchmaschinen bzw. Such-Server, die inzwischen über
Benutzerschnittstellen mit diversen Abfrageformularen die Suche nach WWWDokumenten ermöglichen.
Katalog- und verzeichnisbasierte Suche
Zusammenstellungen von Verweisen zu bestimmten Sachgebieten kennzeichneten
den Beginn der globalen Suche im WWW. Die Entwickler des WWW bauten solch
eine Zusammenstellung aus, um das WWW zu verbreiten, aber auch um diese
Verbreitung mitzuverfolgen. Daraus entstand einer der umfangreichsten WWWKataloge, die WWW Virtual Library, die inzwischen auf mehrere Institutionen weltweit
verteilt ist. Parallel dazu entstanden auch andere Kataloge großen Umfangs und
dienten »lange« Zeit der WWW-Welt als beste globale Suchmöglichkeit.
Hybride Suchmaschinen
Der Begriff »Hybride Suchmaschinen« etabliert sich immer mehr für Suchdienste, die
mehrere Suchverfahren vereinen. Dabei wird meist der (roboterbasierte) Suchraum
mit einen Katalog kombiniert und die Suche durch Gateways zu anderen
Informationsquellen erweitert:
•
Roboterbasierter Index
•
Katalog
•
E-Mail-Verzeichnis
•
Telefon- / Adressbücher (meist nur USA)
•
Verzeichnisse von Unternehmen und Organisationen
•
Zugriff auf kommerzielle Datenbanken
Metasuchmaschinen (Multi-Search Engines)
Als Metasuchmaschine wird die Suche in mehreren Suchmaschinen, von einer
WWW-Seite aus, bezeichnet. Wichtig dabei ist, daß die Suchmaschinen nur über ein
einziges Suchformular angesprochen werden.
Fälschlicherweise werden aber auch WWW-Seiten mit einfachen Schnittstellen, d.h.
mehrere Suchmasken verschiedener Suchmaschinen, als Metasuchmaschinen
bezeichnet. Dies sind zwar keine »echten« Metasuchmaschinen, bringen aber
trotzdem gewisse Vorteile:
•
Suchformulare mehrerer Suchmaschinen werden auf einer WWW-Seite angeboten
•
Erspart das Laden der Home-Pages einzelner Suchmaschinen
•
Guter Überblick über verschiedene Suchmaschinen
17. Was sind Metasuchmaschinen?
18. Wie erfolgt der Schutz im Internet?
Firewall, Antivirensoftware
19. Was versteht man unter Business to Administration?
Zur Systematisierung wird das Gebiet des eBusiness unterteilt. So werden die
Beteiligten, die mittels elektronischer Mittel in Interaktion treten, zu Gruppen
zusammengefasst. Die häufigsten Gruppen sind hierbei Unternehmen (Business) und
Verbraucher (Consumer). Als weitere Gruppe könnte die öffentliche Verwaltung
(Administration) gebildet werden. Mit Business to Administration stehen folglich
29
Aktionen zwischen Unternehmen und Behörden (z.B. Zoll, Finanzamt,...) im
Vordergrund.
Der Begriff Business-to-Administration bezieht sich auf Transaktionen zwischen
Unternehmen und Behörden. Dazu gehört das stattliche Beschaffungswesen,
Steuererhebungen oder Ausschreibungen
20. Was ist die Digitale Signatur und welchen Sinn macht sie?
elektronischer Signaturen als Alternative zur handschriftlichen Unterschrift.
Warenbestellungen, Zahlungsanweisungen an Banken, Anträge oder Einsprüche bei
Behörden
21. Internet E-Commerce  Verschlüsselung
Digitale Signatur, Symmetrische Asymmetrische Verschlüsselung, SSl
128bit Verschlüsselung so gut wie nicht zu entschlüsseln
22. Wie erfolgt Online – Banking?
Alle Online-Transaktionen werden durch ein spezielles Sicherheitsprotokoll
geschützt,
das die Daten mit einer Verschlüsselung von 128 Bit überträgt. Ein weltweit
anerkannten Sicherheitsstandard, die SSLVerschlüsselung (Secure Socket
Layer).
Trojanische Pferde oder Viren sind nicht in
der Lage, dieses
Sicherheitsprotokoll direkt anzugreifen.
23. Was versteht man unter TDSL?
T-DSL ist die Marketingbezeichnung der Deutschen Telekom für xDSL-Leistungen.
x Digital Subscriber Line
xDSL ist die Sammelbezeichnung für ADSL, HDSL, SDSL, UDSL und VDSL. Dies
sind alles digitale Übertragungstechniken für den breitbandigen Anschluß von
Endkunden über Kupferkabel im Ortsnetz.
24. Wie kann man sich vor Mailbombing schützen?
Firewall, Spam-Schutz
25. Welche Funktionen erfüllt eine Firewall?
Funktionen einer Firewall:
- Schutz vor unzulässigen Netzwerkverbindungen vom Internet ins lokale LAN
- Schutz auf Portebene
TCP/IP z.B.: Telnetportnummer abstellen
- Schutz vor IP - Spoofing durch Prüfen der IP - Adresse
(eine eigene IP sollte nie von außerhalb kommen, sonst ist etwas faul)
- das lokale LAN wird abgeschirmt und liegt intransparent hinter der Firewall
26. Was ist ein Proxyserver?
Direkte Zugriffe ins Internet werden immer vom Proxy ausgeführt.
- nur dieser eine Rechner ist direkten Zugriffen aus dem Internet
ausgesetzt
- ein Proxy wird auch gleichzeitig als Cacheserver eingesetzt,
indem er Doppelanfragen auf dieselbe Resource mit Daten aus
dem Cache speist
27. Wie können Datenpakete geschützt werden?
Firewall
28. Sicherheit beim SSL Verfahren?
29. Was ist die Top Level Domain?
Top-Level Domain
Als Top-Level Domain (TLD) wird die höchste organisatorische Hierarchie einer
Adresse (URL) im Internet bezeichnet. Eine TLD dient von der Grundidee der
Klassifizierung von Domain-Namen (URL), wie z.B. ".de" (einer ccTLD für deutsche
30
Inhalte) oder ".com" (einer gTLD für kommerzielle Inhalte). Die weltweiten zentralen
Registrierungsstellen (NIC's) der jeweiligen Top-Level Domains verwalten und registrieren
auf Antrag die Second-Level Domains unterhalb ihrer eigenen Domaine.
Die
Registrierung einer Second-Level Domain der TLD ".de" erfolgt nach
Beantragung bei
der DENIC.
30. Was ist eine relative und was eine absolute Adressierung?
Absolute Links enthalten vollständige Pfadangaben einschließlich des
Domainnamens.
Der relative Link enthält keine vollständige Adresse. Enthalten sind nur die Angaben,
welche von der aufrufenden Datei mindestens benötigt werden, damit die andere
Datei eindeutig gefunden wird.
31. Was sind die Merkmale des Virtual Private Network?
nennt sich eine TCP/IP-basierte Verbindung über öffentliche Leitungen, die über
sicherere Protokolle hergestellt wird.
Über eine Punkt-zu-Punkt-Verbindung werden die zu transportierenden Pakete
verschlüsselt. Dadurch kann von jedem beliebigen Einwahlpunkt aus auf gesicherte
Bereiche zugegrifen werden, ohne dass eine Gefährdung der Sicherheit statt findet.
Anwendungen sind z. B. Home Office und mobile Rechner, wie PDA oder Laptop.
Ein VPN kann zwei Rechner (End-to-End-VPN), zwei Netzwerke (Site-to-Site-VPN)
oder ein Rechner mit einem Netzwerk (End-to-Site-VPN) verbinden.
32. Erklären Sie LAN!
Local Area Network. Mehrere Computer die zusammengeschlossen sind durch
Kabelverbindungen bilden ein LAN
33. Wie kann sich ein LAN vor Angriffe von außen schützen?
Firewall
34. Sie sollen ein LAN für die 15 Leute in ihrer Abteilung aufbauen. Was brauchen
Sie alles schnelle Möglichkeiten, Daten zu übertragen
Bustopologie, Sterntopologie, Ringtopologie, Vermaschung
35. Wie erfolgt die Absicherung der internen Kommunikation?
36. Welche Netzwerkarten kennen Sie?
PCMCIA =Personal Computer Memory Card International Association(für Notebook)
PCI = Peripheral Component Interconnect
ISA = Industry Standard Architecture(Von IBM durch PCI abgesetzt)
Wireless Bluetooth, Wireless PC Card
37. Was versteht man unter einem Leistungsverbund?
Datenverbund
Unabhängig vom Ort der Speicherung steht die Menge der Daten der
Gesamtheit der
Rechner zur Verfügung. Die Bearbeitung der Daten erfolgt
unabhängig von den unterschiedlichen Applikationen. Dadurch wird eine
Datenredundanz (Redundanz =
nicht notwendige Information) vermieden. Es
muss aber eine sorgfältige Pflege der Daten gewährleistet sein.
Funktionsverbund
Hierunter versteht man die Bereitstellung von erweiterten Funktionen für die
angeschlossenen Arbeitsplätze in Form von Spezialrechnern, Peripheriegerääten,
Speicherplatz etc., auf die mit Hilfe des Rechnernetzes zugegriffen werden kann.
Verfügbarkeitsverbund
Durch diesen Mechanismus wird die Verfügbarkeit des Gesamtsystems gesteigert
bzw. bei verminderter Leistungsfähigkeit des Gesamtsystems durch den Ausfall
mehrer Komponenten der volle Leistungsumfang im Rechnernetzwerk
aufrechterhalten.
31
Leistungsverbund
Mit Hilfe des Netzwerkes können komplexe oder aufwändige Probleme auf mehrere
Rechner verteilt werden. Voraussetzung hierfür ist natürlich, dass sich das Problem in
entsprechende Teilprobleme zerlegen lässt, die wiederum auf mehrere Rechner
verteilt werden können (verteilte Anwendungen).
38. Welche Protokolle kennen Sie!
TCP/IP
Das TCP/IP Protokoll ist das auf so ziemlich allen Rechnerplattformen verfügbare
Netzwerkprotokoll. In Abschnitt werden wir dieses Protokoll im Detail diskutieren.
DECnet
DECnet ist eine komplette Familie von Hard- und Softwareprodukten, welche die
Kommunikation zwischen digital-Rechnern (von DEC) ermöglicht. DECnet ist aber
nicht nur auf digital-Rechner beschränkt, es können auch PC in ein DECnet integriert
werden.
IPX/SPX
IPX steht für Internet Packages eXchange und ist das Netzwerkprotokoll des
Netzwerkbetriebssystems Netware von NOVELL. Mit den sogenannten Netware
Loadable Modules kann auf individuelle Anwenderspezifikationen eingegangen
werden.
AppleTalk
AppleTalk ist ein spezielles Protokoll, das zur Kommunikation von Macintosh Rechnern und Peripheriegeräten, die dieses Protokoll unterstützen, dient.
NetBEUI
NetBEUI steht für NETBios Extended User Interface und ist ein Standardprotokoll
zwischen Personal Computern, auf dem eine Vielzahl von netzwerkfähigen
Betriebssystemen aufsetzen (z.B. WINDOWS NT).
DNS, FTP, HTTP…….
39. Ordnen Sie jeder Schicht im OSI Referenzmodell ein Protokoll zu!
Schicht 1: Bitübertragungsschicht
Schicht 2: Sicherungsschicht
Schicht 3: Vermittlungsschicht
Ethernet, Token Ring
Schicht 4: Transportschicht
TCP - Transmission Control Protocol
UDP - User Datagram Protocol
Internet Protocol
OSPF - Open Shortest Path First
ARP - Address Resolution Protocol
RIP - Routing Information Protocol
ICMP - Internet Control Message Protocol
Schicht 5: Sitzungsschicht
Schicht 6: Darstellungsschicht
Schicht 7: Anwendungsschicht
DNS - Domain Name System
FTP - File Transfer Protocol
HTTP - Hyper Text Transfer Protocol
40. Welche Übertragungsmedien gibt es?
Koaxialkabeln(Yellow Cable)
Symmetrischen Kupferkabeln(UTP, STP)
Lichtwellenleitern
Drahtlos
41. Welche Netzwerktopologien kennen Sie?
Bustopologie, Sterntopologie, Ringtopologie, Vermaschung
32
42. Netze sollen gekoppelt werden, was ist dabei zu beachten und was benötigen
Sie dazu?
Router
Geräte, das unterschiedliche Netze auf der Ebene 3 des ISO/OSI-Modells verbindet.
Router sind nicht protokolltransparent, sondern müssen in der Lage sein, alle
verwendeten Informationsblöcke zu erkennen. Die logischen Adressen in einem
Netzwerk werden vom Router ausgewertet. Damit werden Routing-Tabellen angelegt, um
den optimalen Weg (Route) vom Sender zum Empfänger zu finden. Um die
RoutingTabellen auf dem Laufenden zu halten, tauschen die Router untereinander
Informationen mit Hilfe von Routing-Protokollen aus
Briges
Gerät zum Verbinden zweier gleichartiger Netze oder Netzsegmente. Sie werden
eingesetzt, um große Netze physikalisch zu entkoppeln. Man unterscheidet LocalBridges und Remote-Bridges. Remote-Bridges werden eingesetzt, wenn zwischen
den zwei Netzwerken größere Strecken über Datenfernverbindungen zu überbrücken
sind. Local-Bridges dienen hauptsächlich der Lasttrennung. Bridges arbeiten auf
Schicht 2 des ISO/OSI-Modells der offenen Kommunikation und sind von höheren
Protokollen unabhängig. Bridges übertragen Datenpakete anhand der MACAdressen. Über Filterfunktionen kann der Datenverkehr über das Netz eingeschränkt
werden, indem Datenpakete nur in die relevanten Netzsegmente gelangen.
Switch
Der Switch hat einen internen Cache "RAM - Speicher". In diesem Speicher merkt
sich ein Switch anhand des bisher gelaufenem Trafiks auf dem Netz, an welchen Port
welche IP und MAC Adressen liegen. Wenn nun ein IP Paket zu einem bestimmten
Rechner möchte. So weiß der Switch schon an welchem Port dieser Rechner zu
finden ist. Er wird dieses IP - Paket nicht mehr an alle seine Ports weiterleiten
sondern nur noch an den wo der Rechner zu finden ist
Hub
Ein Hub hat nun die Aufgabe das wenn er auf einem seiner Anschlüsse ein IP-Paket
erhält dieses an alle anderen Anschlüsse weiterzuleiten
43. Mehrere Subnetze sollen zu einem Netzwerk verbunden werden. Wie gehen Sie
vor?
44. Was ist eine Bridge?
Siehe oben
45. Was unterscheidet Router und Gateway?
Siehe oben
46. Erläutern Sie das dreistufiges Servermodell !(R3)
47. Was ist der Unterschied zwischen R2 und R3?
48. Was sind Unvollständigkeitsprotokolle?
Sowohl bei Test- als auch bei Echtläufen kann das System
Unvollständigkeitsprotokolle erstellen. Das Unvollständigkeitsprotokoll listet alle
Daten auf, die für die Meldung benötigt werden, aber in den selektierten Belegen
nicht
enthalten sind. Wenn es sich um eine simulierte Datenselektion handelt, können
Sie
Belege, in denen Daten fehlen, direkt vom Unvollständigkeitsprotokoll aus
aufrufen und
die fehlenden Daten ergänzen. Sie können diese Daten direkt in
den
Belegen
ändern. Wenn es sich um eine Datenselektion im Produktivlauf für eine Export- oder
Versendungsmeldung handelt, können Sie die Belege im
Unvollständigkeitsprotokoll
nur anzeigen, da sie bereits an das FI gebucht wurden. Bei einer Datenselektion im
Produktivlauf für Importe oder Eingänge hingegen
können Sie die Belege direkt vom
Unvollständigkeitsprotokoll aus aufrufen und die fehlenden Daten ergänzen.
49. Unterscheiden Sie Token Ring und BUS!
33
Ringstruktur
Bei einem Netzwerk mit Ring-Topologie sind die Geräte über eine einzige, ringförmig
verlaufende Leitung gleichberechtigt miteinander verbunden. Es gibt keinen zentralen
Rechner. Jedes Gerät verfügt über einen eigenen Netzanschluss und ist über diesen
mit seinem linken und rechten "Nachbarn" verbunden. Die Übertragung der
Informationen
erfolgt in einer Richtung von Station zu Station. Jede Station
untersucht bei einer empfangenen Nachricht die darin enthaltene Zieladresse und
nimmt die Nachricht entgegen, wenn diese Adresse mit der eigenen übereinstimmt.
Andernfalls regeneriert sie das Signal und leitet die Nachricht, wie ein Repeater,
zur
nächsten Station im Ring weiter. Der Ausfall eines Computers hat bei der
Ringstruktur
also Einfluss auf das gesamte Netzwerk.
Busstruktur
Die Bus-Topologie ist das einfachste und am häufigsten verwendete Grundmuster
für die Verkabelung. Auch hier gibt keine Zentrale, die Verbindung aller Geräte erfolgt
über eine gemeinsame Hauptkommunikationsleitung (Backbone). Die einzelnen
Stationen verstärken die Signale bei dieser Topologie nicht, dadurch kommt es zu
einer Dämpfung und Abschwächung. Die Länge der Bus-Topologie ist somit
begrenzt. Durch den Einsatz von Repeatern kann sie jedoch verlängert werden.
An
den beiden Kabelenden benötigen Bus-Netze einen Abschlusswiderstand, damit
keine
Echos auftreten, die zu Empfangsfehlern führen. In einem Bus-Netzwerk
beobachtet
jede Station die Aktivitäten auf der Leitung. Nachrichten werden von allen
Stationen
erkannt, aber nur von der oder den Stationen angenommen, für die eine
Nachricht
bestimmt ist. Zu einem Zeitpunkt kann immer nur eine Nachricht über den
Bus
transportiert werden. Daher hängt die Leistung des Netzwerkes davon ab, wie viele Geräte
angeschlossen sind und in welchem Umfang die angeschlossenen
Rechner das
Netzwerk nutzen. Falls ein Rechner ausfällt, kann er zwar nicht mehr mit
dem
Netzwerk kommunizieren, die Funktionsfähigkeit des Netzwerkes wird jedoch nicht
beeinträchtigt. Die Unterbrechung des Kabels an einer Stelle führt
jedoch zur
Unterbrechung des gesamten Netzbetriebs.
50. Was ist Token Ring und wie funktioniert es?
51. Erläutern Sie die Sicherheit im Token Ring ?
52. Wie kann verhindert werden, dass unbefugte Token Ring?
53. Der Datenserver bricht ab. Wie kann sichergestellt werden, dass die Daten
noch da sind?
Regelmäßiges Backup
54. Welches Übertragungsmedium für Backbone gibt es?
FDDI und ATM
55. Erklären Sie die Begriffe Switch – Bridge – Router!
56. Sagt ihnen der Begriff Broadcast und Point-to-.Point was?
Broadcast
Rundruf, Nachricht, die an alle am Netz angeschlossenen Stationen übertragen wird.
Point-to-.Point
Binden Sie Ihren Rechner mit PPP in das Internet ein, so wird er für die Dauer der
Verbindung ein Teil dieses Netzes. Das bedeutet, daß ebenso, wie Sie andere
Rechner mit den entsprechenden Tools erreichen können, auch Ihr Rechner für
andere erreichbar ist.
PPP ist das "Point-to-Point Protocol". Es definiert eine Methode, Datenpakete über
serielle Leitungen zu übertragen. Es ist in den beiden RFCs RFC 1171 und RFC
1172 näher beschrieben.
PPP schafft eine völlig transparente Verbindung zwischen Ihrem Computer zuhause
und dem Internet-Netzwerk der Universität und darüber mit dem weltweiten Internet.
34
Alle Programme, die Internet-Protokolle benutzen (Netscape, Internet Explorer, usw.)
laufen, als ob das Gerät an der Universität direkt angeschlossen wäre - lediglich
etwas langsamer.
57. Was bedeuten die Begriffe ISO/OSI, SNA, DNA, Transdata?
SNA
Systems Network Architecture
Von IBM definierte Architektur für den Aufbau eines Host-Terminal-Netzwerkes. Die
SNA-Architektur ist in Ebenen aufgebaut, die aber nicht mit dem OSI-Modell
gleichzusetzen sind, sondern eher als dessen Vorläufer gelten. SNA beinhaltet
außerdem die Beschreibung der SNA-Hardware (Host, Front End Prozessor, Cluster
Controller, Terminals, Peripherie) sowie der eingesetzten Protokolle (z.B.
SDLC).
Transdata ist eine hierarchielose Netzwerkarchitektur von Siemens, die als ^
Proprietäre Architektur für die Kommunikation in verteilten Systemen in den 70er
Jahren entwickelt wurde. Die in Transdata eingebundenen Datenstationen,
Stationsrechner, Netzknoten und Datenübertragungs-Vorrechner arbeiten mit »Data
Communication Methode« (DCM) als Zugriffsystem im Verarbeitungsrechner und mit
HDLC als Übertragungsprotokoll. Transdata bietet Schnittstellen hin zu öffentlichen
Netzen
58. Was ist Client Server Architektur?#
Unter der Client-Server-Architektur (engl.: client-server architecture) versteht man
eine kooperative Informationsverarbeitung, bei der die Aufgaben zwischen
Programmen auf verbundenen Rechnern aufgeteilt werden. In einem solchen
Verbundsystem können Rechner aller Art zusammenarbeiten. Server (= Dienstleister;
Backend) bieten über das Netz Dienstleistungen an, Clients (= Kunden; Frontend)
fordern diese bei Bedarf an. Die Kommunikation zwischen einem Client-Programm
und
dem Server-Programm basiert auf Transaktionen, die vom Client generiert und
dem
Server zur Verarbeitung überstellt werden.
59. Welche Vorteile bietet die Client Server Architektur?
Daten werden an einem Ort konsolidiert. Da auf Daten immer durch Anfrage am
Server zugegriffen wird, weiß jeder Anwender im Netzwerk, wo die benötigten Daten
zu finden sind.
Die Arbeit der Administratoren bei der Berichterstellung zu verfügbaren Daten sowie
beim Protokollieren und Überwachen der Datenverwendung wird erleichtert.
Die Speicherung von Sicherungskopien der Daten sowie die Wiederherstellung im
Falle eines Problems werden für Administratoren erleichtert.
Prozessorintensive Aufgaben werden auf einem leistungsstarken Server-Rechner
konzentriert ausgeführt, wodurch Prozessoren auf langsameren Client-Rechnern
nicht unnötig belastet werden.
60. Welche Servertypen kennen Sie?
FileServer, PrintServer, WebServer, ApplicationServer, FaxServer
61. Wie erfolgt die Gewährleistung des sicheren Datenaustauschs?
Durch Verschlüsselung(Kryptografie) z.B. SSL, PGP, Digital Signatur
62. Internet UML Aufbau
63. Was ist First Level Support?
Höchste Priorität für denn Kunden. In Kürzester Zeit den Fall notieren, weiterleiten
und eine schnelle antwort oder Lösung dem Kunden geben. Eventuell 24 h Hotline 7
Tage die Woche.
Systementwicklung
Programmierung
35
1. Kennen Sie ISO2000?
ISO 2000 ist der Spitzname für die neu überarbeitete Version der ISO 9000, die Ende
2000 erscheinen ist
2. Welche anderen ISO-Normen kennen Sie?
3. Erklären Sie den Softwareentwicklungszyklus?
Initialisierungsphase
Initiierung einer Systementwicklung. Der Anstoß für ein neu zu entwickelndes
betriebliches Informationssystem kann aus
unterschiedlichen Richtungen kommen
(Geschäftsleitung, Fachabteilung, von außen,...), wobei das Vorhaben zu begründen
ist. Entwurf eines ersten (groben, vorläufigen) Konzepts Wird für die Entscheidung
erstellt, ob die Systementwicklung und – einführung durchgeführt werden soll. Enthält
Angaben über Hardware, Systemstruktur, Veränderungen gegenüber dem Ist –
Zustand Mit den Informationen des Konzepts wird eine
durchführbarkeitsuntersuchung angefertigt
Entscheidung, gegebenenfalls
Projektauftrag Grobkonzept ist Grundlage für die Entscheidung. Bei positiver
Entscheidung wird der Projektauftrag formuliert und personell
zugeordnet
Analysephase
Ist – Analyse detaillierte Analyse des aktuellen Zustands der betroffenen
Anwendungsbereiche, einschließlich Schwachstellenanalyse
Anforderungsanalyse Ermittlung des angestrebten Soll – Zustands, sowie der
inhaltlichen und sonstigen Anforderungen an das System
Erstellung eines Pflichtenhefts die sich ergebenden Vorgaben und Anforderungen
werden in einem Pflichtenheft zusammengestellt, das die Grundlage für den
Systementwurf bildet Analyse des Standardsoftwaremarkts mit Hilfe des
Pflichtenhefts erfolgt eine Analyse des Softwaremarktes, um zu prüfen, ob eine
geeignete Standardsoftware am Markt verfügbar ist Durchführbarkeitsuntersuchung
und Entscheidung über das weitere Vorgehen
Entwurfsphase
Organisationsentwurf Entwurf eines organisatorischen Konzepts (organisatorische
Abläufe, Benutzerschnittstellen, Funktionen, Datenorganisation, ...)
SoftwareentwurfProgrammentwurf, Entwurf einer Modularisierung,
Schnittstellenentwurf,... Einholung von Angeboten, wenn Standardsoftware eingesetzt
wird soll Analyse, Bewertung, Auswahl der geeigneten Standardsoftware
Hardwarekonfiguration Festlegung von Einzelheiten zur Hardware / Basissystem
Entwurf von nötigen Hardwareerweiterungen und –modifikationen
Realisierungsphase
Programmierung und Test Umsetzung des Softwareentwurfs in Programme unter
Verwendung höherer Programmiersprachen und Softwareentwicklungswerkzeugen
Test des Programms auf Fehlerfreiheit und Funktionalität Reorganisation
Veränderung bzw. Anpassung von Arbeitsabläufen, Aufgabenverteilungen,
Stellenstrukturen, Aufbauorganisation Implementierung, Umstellung, Inbetriebnahme
Einführung des neuen Systems für die Nutzung Einstellung der Software auf die
individuellen Einstellungen (Customizing) Schulungsmaßnahmen
Nutzungsphase
Beginn des Systembetriebs Ein solches Phasenkonzept, wofür heute der
umfassendere Begriff Vorgehensmodell benutzt wird, soll durch folgendes Schaubild
erläutert werden.
4. Erläutern Sie das Phasenmodell bei der Softwareentwicklung!
5. Welche Sortierverfahren kennen Sie?
Der BubbleSort ist ein nicht besonders effizienter aber einfacher Sortieralgorithmus,
der durch das Vergleichen von benachbarten Elementen und deren Vertauschung es
schafft, eine Datenmenge in quadratisch ansteigender Laufzeit zu sortieren. Obwohl
36
er nicht besonders effizient ist, wird er oft auf kleine Datenmengen angewandt und
gehöhrt zu den Standardalgorithmen, die jeder Programmierer kennen sollte.
Wie der BubbleSort, so gehöhrt der InsertionSort zu den einfachsten
Sortierverfahren. Er arbeitet wie der Ansatz, den man benutzen würde, um eine
Menge von Visitenkarten zu sortieren. Man beginnt mit einem ungeordneten Stapel
von
Karten und mit Platz für einen zweiten Stapel, der frei bleibt. Man entfernt nun immer eine
Karte von dem ungeordneten Stapel und fügt sie an der richtigen Stelle in
den
sortierten Stapel ein.
Der QuickSort ist der mit am häufigsten angewandte Algorithmus zur Sortierung von
Daten, da er sehr effizient ist. Daher auch der Name QuickSort. Seiner
Vorgehensweise nach gehört er zu der Teile-und-Herrsche Algorithmenklasse. Dies
spiegelt sich in seiner Arbeitsweise wieder, die darin besteht eine Menge in
Teilmengen
zu zerlegen und diese unabhängig voneinander zu sortieren.
Der MergeSort ist ein Teile-und-Hersche Algorithmus. Er teilt die Datenmenge in
kleinere Teilmengen auf, bis diese jeweils nur aus einem Element bestehen.
Anschliessend fügt er diese zusammen, in dem er die Elemente zweier Teilmengen in der
richtigen Ordnung zu einer Menge ``mischt''.
Dem MergeSort wird nachgesagt, daß er gegenüber dem QuickSort zusätzlichen
Speicher benötigt, und dadurch schlechtere Performance erzielt. Dies ist auch
tatschächlich der Fall. Allerdings kann man mit ein bisschen Aufwand auch eine ``inplace'' Variante relasieren
Der ShellSort ist im Prinzip nur eine verbesserte Variante des InsertionSorts. Durch
Tauschen von Elementen bringt der InsertionSort diese an ihre endgültige Position in
der zu sortierenden Menge. Ist ein Elemente weit von seiner endgültigen Position
entfernt, sind sehr viele Tauschoperationen notwendig, bis das Element einsortiert
wird, und dadurch werden schlechte Laufzeiten erzielt. Genau hier setzt die Idee des
ShellSorts ein, um das ``Verschieben'' von Elementen über große Distanzen hinweg
effizienter zu gestallten.
http://sort4palmos.sourceforge.net/algorithmen/index.html
6. Erklären Sie den Quicksort!
7. Erklären Sie den Bubblesort!
8. Was ist XML?
XML ist eine Metasprache zur Definition von Markup-Sprachen.
XML hat eigene Datei-Strukturen für verschiedene Zwecke definiert und normiert,
die dann ebenfalls von vielen Personen mit vielen verschiedenen Programmen und
auf vielen verschiedenen Rechnern verwendet werden können
•
Mit XML kann man die logische Bedeutung von Daten, Informationen und Texten
definieren - ähnlich wie die Tabellen- und Spalten-Bezeichnungen in Datenbanken
und Tabellenkalkulationen.
•
XML ermöglicht im Gegensatz zu HTML die Definition eigener oder zusätzlicher
"Befehle" (Tags) - ähnlich wie bei der Definition von Macros in der Textverarbeitung
•
XML-Applikationen eignen sich als Plattform- und Software-unabhängiges
Austausch-Format für Daten zwischen verschiedenen Programmen und Rechnern ähnlich wie RTF für Texte, CVS für Tabellen, EDI für kommerzielle Anwendungen aber in einem einheitlichen, allgemein verwendbaren, Hersteller-unabhängigen
Format.
37
9. Welche Generationen von Programmiersprachen kennen Sie?
Man unterteilt die Programmiersprachen gemäss ihrem
Abstraktionsniveau bzw. der historischen Entwicklung:
Generation 1: Maschinensprache
Generation 2: Assembler
Generation 3: Höhere Programmiersprachen (prozedural) (FORTRAN,
ALGOL60,COBOL und C)
Generation 4: Deklarative bzw. problemorientierte Sprachen (SQL)
Generation 5: Natürlich-sprachlicher Ansatz; künstliche Intelligenz(PROLOG)
Generation 5: Objektorientierte Sprachen(JAVA, C++)
10. Welcher Generation von Programmiersprachen gehört ABAP an?
ABAP ist eine objektorientierte Programmiersprache zur Programmierung in SAP
R/3
11. Es soll eine neue Software entwickelt werden. Welche Programmiersprache
würden Sie nehmen?
C, COBOL, C++ oder Delphi für Programme, JAVA für Webprogramme
(C ist schneller als JAVA)
12. Welche Entscheidungsmöglichkeiten für eine Programmiersprache gibt es?
Was möchte man Programmieren für wenn und wie soll er es einsetzten.
Z.B. Kreditvergabe über Internet(dann Java). Auf was für Computertypen, bzw.
Betriebssystem soll es laufen.
13. Wie wird die Erweiterbarkeit einer Software gewährleistet?
Durch Verträge, Lizenzvereinbarungen
14. Was bedeutet Plattformunabhängigkeit einer Software?
Z.B. Java. Kann auf Linux Rechner, Windows Rechner, Unix Rechner und Mac
Rechner eingesetzt werden
15. Was ist Softwarevalidierung?
Qualitätsbeweisen einer Software durch einen solchen Anbieter.
16. Erklären Sie Blackbox – Whitebox – Test!
Siehe Frage 1 Rechnersysteme
17. Welche Gütefaktoren eines Programms gibt es?
von
18. Wann macht es Sinn in der Maschinensprache zu programmieren?
Vorteil der maschinennahen Programmierung liegt bis heute darin, dass diese Art
Programm direkt von einem Computer ausgeführt werden kann(ohne Compiler)
19. Wie erfolgt binäres Suchen?
Die Methode besteht darin, das mittlere Element zu bestimmen und mit dem
Suchschlüssel (key) zu vergleichen. Beim Treffer ist die Suche beendet, sonst wird je
nachdem, ob key größer oder kleiner als das Vergleichselement ist, die dieselbe
Suchmethode auf das linke oder rechte Teilfeld angewendet.
Ist das Element nicht enthalten, wird beendet, wenn nichts mehr zu teilen ist.
20. Was versteht man unter Vererbung und Polymorphismus?
38
Unter Vererbung versteht man die Möglichkeit, ein neues Objekt von einem
vorhandenen Objekt abzuleiten, wobei das neue Objekt alle Merkmale und
Fähigkeiten
des alten besitzt.
Die Polymorphie macht es möglich, dass verschiedene Unterklassen dieselbe
Botschaft verstehen, obwohl die technische Umsetzung der Reaktion auf diese
Botschaft völlig unterschiedlich sein kann. Auf die Botschaft »anfahren« können
sowohl Objekte vom Typ »Auto« als auch vom Typ »Lokomotive« reagieren, und das
Resultat ist bei beiden vergleichbar, nämlich, dass sie sich in Bewegung setzen
21. Was bedeutet der Begriff Mehrfachvererbung?
Beim Entwurf einer Klassenhierarchie stellt man des öfteren fest, daß eine Klasse im
Grunde die Eigenschaften verschiedener Klassen in sich vereinigt. Damit liegt es
nahe, die neue Klasse aus mehreren Vorgängerklassen abzuleiten. Dies nenn man
"Mehrfachvererbung".
22. Was ist eine Java Applikation?
Applikation: eigenständiges, allein mit dem Java-Interpreter ausführbares JavaProgramm:
Dieser Anwendungstyp ermöglicht es, auf Internet- und Intranetseiten
Anwendungsprogramme zu betreiben. Die Nutzung dieser Programme erfolgt über
Javafähige Clients, die als Desktop- oder Mobil-System ausgeprägt sind.
Auf dem Client (Desktop- oder Mobil-System) befinden sich keine Daten und
Anwendungsprogramme.
Aus Performance- oder Sicherheitsgründen können sich auch clientseitig
Applikationsteile befinden. Z.B. für Erfassungsdaten kann ein
Minidatenhaltungssystem
Vorteile bringen, das nur einmal am Tag seine Daten an die
Zentrale liefert.
Eine Stammdaten-/ Programm-Änderung wirkt sich automatisch auf alle Clients
aus.
Der neuerliche Start des Browsers führt eben auch zum Neuladen der Stammdaten
und Programme. Oder die Stammdaten sind mit einem Ablaufdatum versehen.
23. Was ist ein Java Applet?
Ein Java-Applet ist ein Computerprogramm, das in der Programmiersprache Java
verfasst wurde. Java-Applets wurden eingeführt, damit man Programme für WebSeiten schreiben kann, die auf der Client-Seite laufen können und direkt mit dem
Benutzer interagieren können, ohne Daten über die Leitung zum Server versenden
zu
müssen. Der Begriff Applet bedeutet soviel wie "Little Application".
24. Was sind Java Beans?
JavaBeans ist ein von der Firma Sun entwickeltes auf Java basierendes
Komponentenmodell zur Softwareentwicklung, d.h. eine Architektur für die Definition und
Wiederverwendung von Softwarekomponenten. Einzelne Beans dienen als
Basisbausteine aus denen man durch zusammensetzen größere Softwareteile erstellen
kann. Beans sind insbesondere für die Verwendung in graphischen
Entwicklungsumgebungen konzipiert.
25. was versteht man unter Streaming?
Durch "Streaming" können Audio- und Video-Dateien bereits während der
Übertragung (z.B. im Internet) angehört bzw. angeschaut werden
26. Wozu verwendet man Java Script?
JavaScript ist kein direkter Bestandteil von HTML, sondern eine eigene
Programmiersprache. Diese Sprache wurde jedoch eigens zu dem Zweck
geschaffen,
HTML-Autoren ein Werkzeug in die Hand zu geben, mit dessen Hilfe sich
Web-Seiten
optimieren lassen.
JavaScripts werden wahlweise direkt in der HTML-Datei oder in separaten Dateien
notiert. Sie werden zur Laufzeit vom Web-Browser interpretiert. Dazu besitzen
moderne Web-Browser entsprechende Interpreter-Software.
39
27. Was ist ein Algorithmus?
Ein Algorithmus ist eine Wohldefinierte Methode oder Prozedur, um ein Problem zu
lösen. Typischerweise wird ein Algorithmus durch eine Folge von Anweisungen
beschrieben, die nacheinander ausgeführt und oft in festgelegter Weise wiederholt
werden. Dadurch besteht die Möglichkeit, dass ein Algorithmus niemals beendet wird.
Algorithmen werden meistens als Computerprogramm implementiert. Möglich ist aber
auch die Implementierung als elektronischer Schaltkreis oder die (händische)
Ausführung durch Menschen.
28. Weg vom Programm zu den Ausführdaten?
Ein Programm wird in einer Programmiersprache geschrieben und später vom
Compiler zu einer Ausführdatei(*.exe) Codiert.
29. Wie finde ich heraus ob ein Programm benutzerfreundlich ist?
Wenn alles Übersichtlich ist und jeder weg selbst beschreibend ist.
30. Wie kann man ein Programm abbilden?
Durch ein Stukturgramm oder UML
31. Was versteht man unter Portabilität?
Portabilität:
Übertragbarkeit von offenen Betriebssystemen etc. auf eine beliebige andere
Systemumgebung (Hardware, Software).
Interoperabilität:
die Verwendbarkeit von offenen Betriebssystemen in beliebigen, insbesondere
heterogenen Rechnernetzen
32. Was macht ein Interpreter?
Ein Interpreter übersetzt Zeile für Zeile und moniert Fehler sobald er sie erkennt.
Zum ausführen wird der Interpreter und der Quellcode benötigt. Der Interpreter
erzeugt den auszuführeden Code zur Laufzeit !
33. Was bedeutet der Begriff Linker?
Linker sind Programme, welche die in Objektmodulen enthaltenen Befehle mit den
Programmbibliotheken der verwendeten Programmiersprache verknüpfen. Das
Ergebnis ist eine Datei, die in der Regel mit .EXE enden und recht lang sein können
34. Was ist ein Pointer?
Ein Pointer in C ist ein Verweiß auf eine Variable. Das heißt in einem pointer
speichert man die Adresse einer Variable, also die Stelle wo die Variable im Speicher steht.
35. Welche Gefahren gibt es bei Pointer?
Es besteht die Möglichkeit, dass Sie mit dem Pointer in einen Speicherbereich
kommen, in dem der Pointer schlicht nichts zu suchen hat, und in dem er auch keine
sinnvollen Ergebnisse liefert
36. Wie wurde die Gefahr mit Pointer in C gelöst?
37.
38. Was ist ein Garbage Collector?
JAVA verfügt über einen automatischen Garbage-Collector. Objekte werden
bekanntlich dynamich zur Laufzeit erzeugt. Hierzu wird Speicherplatz alloziert. Die
Freigabe dieses Speicherplatzes kann erfolgen, sobald ein Objekt nicht mehr verwendet
wird. Dies muß der Programmierer nicht explizit codieren, vielmehr führt
das
Laufzeitsystem Buch über alle Objekt, die noch referenziert werden
39. Unterscheiden Sie abstrakte und konkrete Klasse!
Eine Abstrakte Klasse
40
ist eine Klasse, die mindestens eine abstrakte Methode enthält. Abstrakte Klassen
müssen mit dem zusätzlichen Attribut abstract versehen werden!
Eine Konkrete Klasse
ist eine Klasse, die keine abstrakten Methoden hat (weil alle abstrakten Methoden
überschrieben wurden).
40. Was versteht man unter statischem und dynamischem Binden?
Beim statischen Binden werden alle von der jeweiligen Anwendung benötigten
Funktionen aus der statischen Bibliothek (LIB) geholt und innerhalb der ausführbaren Datei
(EXE) gespeichert
Beim dynamischen Binden werden nur die Informationen (Referenzen) in der
ausführbaren Datei gespeichert, die erforderlich sind den ausführbaren Code einer
DLLFunktion
beim Programmstart oder zur Laufzeit in den Hauptspeicher zu laden
41. Welche Kennzeichen bietet die Objektorientierung?
Widerverwendbarkeit: Funktionalität wird nur einmal codiert (beim Objekt). Die
Funktionalität eines Objektes wird in Methoden ausgedrückt. Diese Methoden werden von
außen (von anderen Objekten) verwendet.
Datensicherheit: Daten werden nur durch das ihm zugehörige Objekt geändert.
Dieses Objekt kennt die Regeln, nach denen seine Daten verändert werden
.
Übersichtlichkeit: als Entwickler muss ich die Funktionalität anderer (nicht meiner)
Objekte nicht kennen. Ich muss nur ihre Methoden kennen. Die Gesamtfunktionalität
entsteht nicht durch erneuten monolithischen Programmcode, sondern durch die
Verwendung der einzelnen Methoden und Beziehungen der Objekte untereinander.
42. Wie hat denn das mit den Programmiersprachen so angefangen
Die ersten Ideen der Programmierung von Rechnern gehen zurück auf Charles
Babbage (1792-1871). Die erste Programmiersprache der Welt für Rechner wurde
von 1942-1945 von Konrad Zuse entwickelt. Er nannte sie den Plankalkül(zum
Schach spielen). Im zweiten Weltkrieg wurden Computer und Programmiersprachen
entwickelt und benutzt um die Genauigkeit von Waffen(Raketen und Bomben)zu
berechnen.
43. Wie wird aus dem ASCII Code ein ausführbares Programm?
44. Wie läuft dies ab, wenn das Programm in BASIC geschrieben wurde?
Basic wie andere Programmiersprachen. Auch Visual Basic in Excel eine Richtige
Programmiersprache. Eventuell Makros Programmieren(einfache Bedienungen die
erfüllt sein müssen für komplexe Rechnungen die Automatisiert laufen sollen)
Systemanalyse
1. Erklären Sie den Softwareentwicklungszyklus!
Siehe Frage 3 Programmierung
2. Wann muss ein System gegen ein anderes abgelöst werden?
Wenn das Programm durch seine Architektur mit neuen Komponenten nicht
Kompatibel mehr sein kann und eine Neuentwicklung einfacher wäre als eine Schnittstelle
zu entwickeln.
3. Was kann ausschlaggebend für die Einführung eines neuen Systems sein?
Stand der Technik, Kostenminimierung, Stabilität, Support läuft ab für das alte
System…
4. Was sind Casetools? Welche kennen Sie?
41
CASE-Tools bieten für frühen Phasen der Entwicklung eine transparente und visuelle
Vorgehensweise an, die es den Entwicklern ermöglicht, das zu realisierende System
als Ganzes zu betrachten. Sie werden sich nicht in frühen Phasen der Entwicklung in
Implementierungsdetails verlieren. Die hier vorgestellten CASE-Tools setzen Unified
Modelling Language (UML) zur Notation von Software-Modellen ein. UMLDiagramme bilden die Zusammenhänge objektorientierter Systeme visuell nach und
fördern damit das Systemverständnis gerade vor der eigentlichen Implementierung
5. Wie erfolgt die Softwarequalitätssicherung?
Siehe Frage 1 Rechnersysteme
6. Wie wird die Erweiterbarkeit der Software gewährleistet?
Durch Verträge, Lizenzvereinbarungen
7. Was bedeutet plattformunabhängige Software?
Software für jeden Computer egal ob CISC oder RISCH Prozessor, Linux, Windows,
Unix oder MAC
8. Was ist ein Struktogramm?
Eine visuell Verdeutlichung des Programms.
9. Was bedeutet Softwarengineering?
Alle schritte die nötig sind um eine Software oder System zu Planen, zu Erstellen,
Prüfen und bereitstellen.
Beschreibt die Folge aller Aktivitäten, die zur Durchführung eines Projektes
erforderlich sind. Sie geben an, wie die Prinzipien, Methoden, Verfahren und
Werkzeuge der Software- Entwicklung eingesetzt werden.
Phasenkonzept (Initialisierung, Analyse, Entwurf = Design, Realisierung, Einführung)
Wasserfallmodell (Planungsphase, Definitionsphase, Entwurfsphase,
Implementierungsphase, Abnahme- und Einführungsphase)
Spiralmodell (Leistungsbeschreibung DV - Feinkonzept, Prototypentwicklung,
Validierung, Anforderungen)
10. Was sagt ihnen der Begriff Tom de Marco?
Schreibt Bücher über Projekte, insbesondere über SW-Projekte. Zeigt
Managern, wie Sie ihre Organisationen mit etwas weniger Effizienz weitaus effektiver
führen können, und noch vieles mehr.
11. Was beinhaltet das Pflichtenheft?
Stehen alle Anforderungen die eine Software haben soll, bzw. vom Kunden
erwünscht wird.
12. Wie erfolgt die Analyse zur Softwareentwicklung?
Ist eine Methode, die vom Erstellen der fachlichen Anforderungen des Anwenders bis
hin zur Dokumentation der System/ Verfahrenslösungen in Form der
Leistungsbeschreibung durchgehend alle Teilschritte des fachlichen Entwerfens
unterstützt.
13. Welche Methoden können zur Analyse der Software angewendet werden?
Datenflussdiagramm (dynamisch), Datenlexikon (statisch), Beschreibung
Datenflüssen (Kanal, durch den Informationen mit
bekanntem Aufbau fließen), Datenspeicher (temporäre Ablagen für Informationen),
Knoten (Eingangsdaten werden in Ausgabedaten transformiert), Datenquellen/senken (Außenwelt)
Datenlexikon enthält Struktur und Definition der Datenflüsse und Datenspeicher
Kurze Beschreibung der im Datenflußdiagramm dargestellten Knoten auf unterster
Ebene
42
14. Definieren Sie Algorithmus!
Ein Algorithmus ist eine Wohldefinierte Methode oder Prozedur, um ein Problem zu
lösen. Typischerweise wird ein Algorithmus durch eine Folge von Anweisungen
beschrieben, die nacheinander ausgeführt und oft in festgelegter Weise wiederholt
werden. Dadurch besteht die Möglichkeit, dass ein Algorithmus niemals beendet wird.
Algorithmen werden meistens als Computerprogramm implementiert. Möglich ist aber
auch die Implementierung als elektronischer Schaltkreis oder die (händische)
Ausführung durch Menschen.
15. Was versteht man unter fehlertoleranten Systemen?
Unter Fehlertoleranz versteht man ganz allgemein die Fähigkeit einer DV-Anlage,
trotz einer begrenzten Anzahl fehlerhafter Subsysteme (z.B. bei Ausfall von
Prozessoren oder bei Speicherdefekten) die vorgegebene Funktion korrekt zu erfüllen.
16. Was ist UML?
Die Unified Modelling Language ist eine Sprache zur Spezifikation, Visualisierung,
Konstruktion und Dokumentation von Modellen für Softwaresysteme,
Geschäftsmodelle und andere Nicht-Softwaresysteme. Sie bietet den Entwicklern die
Möglichkeit, den Entwurf und die Entwicklung von Softwaremodellen auf einheitlicher Basis
zu diskutieren
17. Erklären Sie das Magisches Quadrat der Softwareentwicklung?
Projektmanagement
1. Welche DV-Tools werden im Projektmanagement verwendet? Producttyping
MS-Projekt
2. Wie wird der Zeitbedarf eines Projekt bestimmt?
Projektstrukturplan, Risikoanalyse, Mitarbeiterbefragung, Schwachstellenanalyse
3. Wie erfolgt Netzplantechnik?
Vorgänger und Nachfolger müssen klar definiert sein, die Zeit der zu bearbeiteten
aufgaben muss dort stehen, am besten zwei Zeiten(Frühster punkt und spätester
punkt)
4. Was ist der Kritische Pfad?
Der Kritische Pfad ist der wo die Bearbeitungspuffer zwischen Vorgänger und
Nachfolger gleich null ist. Dort darf es keine Zeitverzögerungen geben.
5. Erläutern Sie den Aufbau der Ablauforganisation?
Die traditionelle Ablauforganisation beschreibt „den Ablauf des betrieblichen
Geschehens, den Vollzug, die Ausübung oder Erfüllung von Funktionen,
derentwegen
Bestände geschaffen wurden. Im Vordergrund steht der Prozess der
Nutzung von in der
Aufbauorganisation geschaffenen Potentialen“. Dies führte in der
klassischen
Organisationslehre zu einer Dominanz der Aufbauorganisation
6. Was ist ein Projektportfolio? Wie wird es erstellt?
IT-Projektportfolio-Management nutzt ein von ENTERPRISE entwickeltes Verfahren,
das die Priorisierung aller anstehenden IT-Projekte ermöglicht und Projekte
identifiziert, bei denen sich Umsetzungssynergien realisieren lassen. Dadurch lässt
sich
mit einem gegebenen Budget ein maximaler Projektnutzen erzielen. Die
Transparenz
des Vorgehens erläutert den Fachabteilungen und Endanwendern das Kalkül hinter den
Entscheidungen und sorgt damit für die Akzeptanz der
Konsolidierung. Es werden zwei
grundsätzliche Ziele verfolgt: Zum einen sollen
vorrangig Projekte durchgeführt werden,
die den höchsten Return on Investment
(ROI) in einem vorgegebenen
43
Betrachtungszeitraum erzeugen. Zum anderen werden
synergetisch kombiniert.
Projekte inhaltlich analysiert und
7. Was bedeutet Belegflussprinzip?
8. Erklären Sie den Begriff Meilensteine!
Ein Meilensteine ist ein definiertes zwischen ziel eines Projektes(erreichtes projekt in
Prozent 25%, 50% oder ein Teilprodukt des Projektes, demoversion) welches in einer
bestimmten zeit erreicht werden soll
9. Erläutern Sie die Phasen des Projektmanagement in der Softwareentwicklung!
Projektplanung
-Lastenheft/Pflichtenheft
-Terminplan
-Personalplan
Teambildung
-Nach Truckman: Forming, Storming, Norming, Performing
Mitarbeiterführung
-Motivation
-Organisation
-Information
Projektsteuerung
-Koordination
-Delegation
-Abstimmen
Projektcontrolling
-Datenermittlung
-Soll-Ist-Vergleich
Projektabschluss
-Abnahme
-Kundengespräch
-Feier
-Projektdokumentation abschließen
Informationssysteme
Bürokommunikation
1. Was ist ein Marktplatz?
Auf einem Wissensmarktplatz treffen Anbieter und Nachfrager von know-howintensiven Dienstleistungen, z.B. F&E, aufeinander. Neben dem Austausch von
Dienstleistungen sind persönliche Kontakte sowie Wissens- und Erfahrungsaustausch von
zentraler Bedeutung.
2. Wie gestaltet man einen Marktplatz sicher?
Homepage, Onlineshop als aktive Präsenz oder die Teilnahme an OnlineAktionen, und Ausschreiben als passive Teilnahme
3. Was ist der Unterschied zwischen einem Marktplatz und einem Portal?
Bei einem Portal gibt es immer 3 Personen die. Der der Anbietet, der der Sucht und
der der das Portal betreibt z.B. Monster.de
Unternehmen müssen dann wenn sie denn bewerber haben wollen an dieses Portal
eine gebühr bezahlen. Beim Marktplaz sind es nur 2 Personen Anbieter und der der
Sucht.
4. Erläutern Sie die Begriffe Marktplatz – Käufer – Verkäufer – Dienste!
44
5. Was versteht man unter Datenschutz?
Die Datenschutzrichtlinien sollen dafür sorgen, dass die Persönlichkeit des Kunden
geschützt ist und das Recht auf informationelle Selbstbestimmung gewahrt
bleibt. So
ist es Unternehmen unter anderem untersagt, personenbezogene
Daten und
Nutzerprofile ohne die Zustimmung der Kunden zu speichern und
auszuwerten. Damit soll auch der Angst vor dem gläsernen Kunden begegnet
werden. Allerdings gelten im Ausland zum Teil weniger strenge
Datenschutzbestimmungen
6. Was ist ein Portal?
Monster.de, Arbeitsamt und andere Internetseite wo Firmen Personen suchen oder
Personen Firmen Suchen
7. Kennen Sie optisches Archivierungstechniken?
CD-ROM, DVD,
8. Welche Arten von Kommunikationssystemen kennen Sie?
Telefon, Fax, Email, Videokonferenz
Datenbanksysteme
1. Wie definiert sich die Größe einer Datenbank?
Hängt vom Datenbanksystem ab. Vielleicht begrenzt durch maximale
Speicherverwaltung eines Betriebssystems. Oder Summer aller Dateien in
Binärgröße.
2. Welche Aufgaben hat ein Datenbankmanagementsystem?
„Ein Datenbankmanagementsystem ist ein Softwarepaket, das die Daten verwaltet,
die auf der Festplatte gespeichert sind. Dies sind z.B. Datenbankfunktionen wie
Suchen, Lesen und Schreiben. Andere Programme können nur über die
Schnittstelle des Datenbankmanagementsystems auf die gespeicherten Daten
zugreifen.“
http://www.phludwigsburg.de/mathematik/lehre/ws0203db/skript/021017/slides/PrintSlides1.htm
Verwaltet den Zugriff von Daten mittels query language (=Abfragesprache)
3. Erläutern Sie den Unterschied zwischen Datenbanksystem und DBMS?
„Ein Datenbanksystem besteht aus Datenbanken, in denen Daten physisch
gespeichert sind und einem Datenbankmanagementsystem, das die Daten der
Datenbank verwaltet.“
http://www.phludwigsburg.de/mathematik/lehre/ws0203db/skript/021017/slides/PrintSlides1.htm
Datenbanksystem umfasst alle Programme zur Speicherung und zur
Verfügungsstellung von Daten. (Application – Datei – Datenbanksoftware –
Datenbank) Eigenschaften sind: zentral erreichbar, redundante Speicherung, variabel
in Datenstruktur, skalierbar in Datenvolumen, kann relational, OR oder OO sein.
Ein DBMS verwaltet die Datenbestände und regelt den Zugriff.
4. Was sind relationale Datenbanken?
Daten werden in Tabellen mit Relationen zwischen den Tabellen gespeichert. 5
Normalformen, in der Praxis jedoch nur 2. Identifizierung über Schlüssel
(Schlüsselattribute), Fremdschlüssel sind Assoziationen/Relationen.
5. Erläutern Sie die Prozesspunkte relationaler Datenbanken!
?? BEGIN – COMMIT –ROLLBACK (eher Transaktion)
DBMS empfängt Programmbefehl (etwas zu lesen)
DBMS besorgt Definition des Entity-Typs
Transformationsregeln, was wird benötigt, welche Relationen
45
Welche physischen Sätze sind zu lesen
BDMS übergibt BS die Nummer der zu lesenden Blöcke
BS liest Blöcke aus Speicher
BS übergibt verlangte Blöcke an DBMS speicher
DBMS stellt Anfrage zusammen, Formatierung von Feldern etc
DBMS übergibt Daten an Anwendungsprogramm
Anwendungsprogramm verarbeitet Daten
6. Warum hat sich das relationale Datenbankmodell durchgesetzt?
Weshalb "relational"? Im relationalen Modell werden die Daten in Tabellen
organisiert, wobei mehrere Tabellen miteinander verknüpft werden können. Ziel ist
es, jede Information nur ein einziges Mal zu speichern, und durch die Verknüpfung in
unterschiedliche Kontexte setzen zu können. Also haben die Tabellen untereinander
Beziehungen (=Relationen).
http://www.perlunity.de/perl/datenbanken/db01.shtml
7. Erklären Sie den Normalisierungsprozess!
Die Daten werden in Tabellen eingetragen. Durch den Normalisierungsprozess
werden übersichtliche Relationen ermittelt. Das Ziel ist es , redundanzfreie
Datenbeziehungen zu finden / zu gestalten. Üblicherweise werden 3
Normalisierungen durchgeführt:
Bezeichnung Erklärung
1.
Ein Datenfeld in einer Tabelle darf nur einen Wert beinhalten. Es treten nur noch
Normalform: atomare Attribute auf. Mehrfachzuweisungen sind nicht erlaubt.
2.
Die Tabelle, die bereits in der 1. Normalform sein muss, wird thematisch aufgeteilt und so
Normalform: gestaltet, dass jedes Attribut vollständig abhängig wird vom Primärschlüssel
Die Tabelle muss bereits in der 2. Normalform sein. Es dürfen keine trasitiven
3.
Abhängigkeiten vorliegen; d. h. abhängig sollen alle Datenfelder nur direkt vom Schlüssel
Normalform:
sein.
8. Wie erfolgt die Normalisierung im Entity Relationship Modell?
Relationale Tabellenstrukturen, die aus einem ER-Modell abgeleitet wurden sind den
Normalformen anzupassen.
9. Erklären Sie die Non First Normalform!
Unnormalisierte Relation: Non-First Normal-Form (NF2):
Relation enthält „Attribute“, die wiederum Relationen sind
10. Was bedeuten die Begriffe Primärschlüssel und Sekundärschlüssel?
Primärschlüsselbedingung: Eindeutigkeit, keine Nullwerte!
Fremdschlüsselbedingung: Zugehöriger PS (SK) muß existieren
Primärschlüssel Definition: ein Primärschlüssel einer Relation ist ein Attribut, welches
jeden Tupel eindeutig identifiziert
Sekundärschlüssel Definition: Ein Fremdschlüssel ist ein Attribut, welches in einer
anderen Relation ein Primärschlüssel ist.
11. Wie können Daten verschlüsselt werden?
Kryptograhpy
12. Wie erfolgt die Dokumentation einer Datenbank? (Inhalt - Funktion)
13. Was ist das Data Dictionary?
Eintrag der Tabellenstrukturen im Data Dictionary
Ablegen der externen Schemata im Data Dictionary
14. Welche Ansätze zum Sperren von Schreibrechten kennen Sie?
46
Sperrprotokolle, Benutzerrechte
15. Was versteht man unter dem Rucksack-Problem?
Was kann ich Gegenstände in einen „Behälter“ einlagern, wenn ich mehr habe als
reinpasst mit unterschiedlichem Wert, sodass der Inhalt im Wert maximal wird.
16. Nennen Sie Beispiele für Datenbanken?
Adressbuch im Handy
Kundendatenbank
Einwohnermelderegister
Kontobewegungsdatenbank
World Wide Web
Domain Name System
17. Was ist eine Datenbankanwendung?
Eine Anwendung die auf eine Datenbank zugreift und Steuert.
18. Die Ableitung des Schlüssel erfolgt wie ?
19. Wie wird eine Datenbank implementiert?
20. Was sind Anomalien?
Treten solche Probleme auf, dann spricht man von Modifikations-Anomalien
(modification anomalies), d.h. unerwünschten Folgen für die Datenbank, wenn Daten
in einer Tabelle hinzugefügt, geändert oder gelöscht werden. Solche Anomalien
treten dann auf, wenn eine Tabelle Einträge enthält, die sinnvollerweise auf zwei oder
mehr Tabellen verteilt werden sollten. Das Aufspalten einer Tabelle in zwei oder
mehrere Tabellen, um solche Anomalien zu beseitigen, nennt man Normalisierung
(normalization).
Lösung : Normalformen
21. Erklären Sie „n zu n Beziehung“!
Mit Zwischentabelle (Beispiel: Firmen - Produkte)
22. Welche Aufgaben erfüllt eine Datenbank?
23. Was ist ein Tupel?
Tupel: ein Datensatz bzw. eine einzelne Zeile in der Tabelle; enthält alle auf ein
Objekt bezogenen Feldwerte bzw. Merkmalsausprägungen
24. Erklären Sie Entity-Relationship-Modell!
Mit dem Entity-Relationship-Modell kann die grundlegende Tabellen- und
Beziehungsstruktur einer Datenbank
strukturiert entworfen und visualisiert werden.
Das fertige ER-Modell kann dann ganz einfach in das Relationen-Modell überführt
werden (das RelationenModell ist die tabellarische Darstellung des ER-Modells und die theoretische
Grundlage für das relationale Datenbankmodell),
welches fast direkt in Access implementiert werden kann: das fertige RelationenModell muß
u.U. einem Normalisierungsprozeß unterworfen werden, um Redundanzen und
Dateninkonsistenzen zu vermeiden.
Schließlich müssen die Integritätsregeln überprüft werden, ebenfalls um
Dateninkonsistenzen zu vermeiden.
25. Was sind Entitäten?
Eine Entität kann ein Objekt, eine Person, ein Begriff oder ein Ereignis sein.
Entitäten unterscheiden sich
47
durch ihre jeweiligen Eigenschaften. Später entspricht eine Entität einem Datensatz
in Access.
Entitäten werden graphisch durch Rechtecke dargestellt.
Beispiel: Abteilung Forschung, Mitarbeiter Schmitz, Projekt 1009
26. Welche Beziehungstypen kennen Sie?
1:n, n:n, 1:1
27. Wie erfolgt die Verknüpfung von Tabellen?
Über Relationen, Fremdschöüssel
28. Was ist eine Transaktion ?
Eine T. ist eine logische Einheit an Verarbeitungsschritten
ACID, BEGIN, COMMIT, ROLLBACK, 2 PHASEN Sperrprotokoll, Deadlocks, Dirty
Read, zugriff auf Ressourcen
29. Was ist eine Rolle?
Datenbank-Benutzer brauchen jetzt nur den gewünschten Datenbank-Rollen
zugeordnet werden und erhalten dann die Berechtigungen der Datenbank-Rollen
denen sie zugeordnet wurden. Die Datenbank-Rollen erleichtern so ganz wesentlich
die Administration großer Benutzergruppen, da jetzt die Möglichkeit besteht, ein
Unternehmen mit den Abteilungen wie Einkaufsabteilung, Geschäftsleitung, Lager,
Marketing usw. als Datenbank-Rollen abzubilden. Die Mitarbeiter sind in dem Fall die
Benutzer, die den entsprechenden Rollen angehören.
30. Welche Datenbanken werden bei in Ihrem Unternehmen verwendet?
ORACLE
31. JOIN – UNION, erklären Sie diese SQL Statements!
In einer Abfrage können mehrere Tabellen miteinander durch Bedingungen verknüpft
werden. Die Spaltennamen müssen eindeutig sein.
Eine UNION Abfrage verbindet 2 Abfragen, deren Ergebnismengen die gleiche
Struktur haben
32. Wozu dient ODBC?
Als standardisierte Schnittstelle zu Datenbanken
ODBC (open database connectivity)
•
entwickelt von der Microsoft Corporation
•
war vorerst nur für die Microsoft Betriebssysteme verfügbar (MS-Windows,
NT, Win32)
•
VISIGENIC lizensierte den Sourcecode und portierte ODBC auf UNIXSysteme
Das ODBC Interface wir definiert durch
•
Bibliotheken mit ODBC Funktionen (C-Funktionen), die es einer Applikation
erlauben, sich mit einer Datenbank zu verbinden, SQL-Befehle abzusetzen
und die Abfrageergebnisse zu empfangen
•
die SQL-Syntax, basierend auf der Spachspezifikation der X/OPEN und SQL
Access Group (1992)
48
•
eine Standardmenge von Errorcodes
•
eine definierte Art und Weise eine Verbindung zum DBMS (Data Base
Management System) herzustellen
•
eine standardisierte Menge von Datentypen
ODBC besteht aus vier Schichten:
•
ODBC - Applikation
•
ODBC - Driver Manager
•
ODBC - Treiber
•
Datenquelle (Data Source)
33. Stellen Sie das Konzept des Data Warehouse dar!
Daten haben nur Bedeutung, wenn sie geeignet verknüpfbar, hinreichend schnell
bereistellbar und vom Manager interpretierbar sind. Das Data Warehouse erfüllt die
speziellen Bedürfnisse von Führungskräften dem Controlling und der
Unternehmensplanung:
Marketing (21%)
Finanzberichte (18%)
Kundeninformationssysteme (17%)
Verkaufsanalysen (16%)
Produktanalysen (14%)
Bestandteile des Data Warehouses
Interne Daten
Sammlung von Daten aus heterogenen Datenbanken
Externe Daten
z.B. Konkurrenzdaten (Produkte, Service, Preise,...)
Wirtschaftsdaten (Währungsschwankungen, Aktienkurse)
Industriedaten (Marketingtrends, Handelsinformationen,...)
Zeitungen
Online-Datenbanken
CD-ROM-Datenbanken
Internet (Intranet)
Metadaten
Daten über Daten des gesamten Data Warehouses
Kommentare
Beschreibungen von Datenformaten und des Datenmodells
49
Strukturdaten und Inhaltverzeichnis des Data Warehouses selbst
Das Repository enthält auch die Informationen, welche Daten aus welchen
extrahiert werden und wie sie in das Datenmodell des Datawarehouses transformiert
werden
34. Was ist SQL?
SQL steht für Structured Query Language und stellt eine standardisierte und weit
verbreitete Sprache dar. Allgemein gesprochen ist mit SQL der Zugriff auf und die
Manipulation von relational strukturierten Daten wie z.b. SAS-Dateien, Views
oder auch Tabellen aus Data Base Mangagement Systemen (DBMS) möglich.
SQL = DDL – DCL – DML
DDL – definiert Objekte
DCL – legt Berechtigungen fest
DML – Arbeitet auf den Daten der Datenbank
35. Was versteht man unter Rollback?
Das verwerfen einer Transaktion
36. Wie setzt man einen Index und was bewirkt er?
Er sortiert Spalten in Tabellen für ein schnelles Auffinden der Datensätze
CREATE {UNIQUE} INDEX <indexname> ON <tabellenname> (<spaltenname(n)>);
37. Was ist ein Hash?
38. Was muss man tun um eine DB zum laufen zu bringen?
39. Wie bekommt man eine Ausfallsicherheit?
Serverraum-Konzeptionierung
Clustering der MS Backoffice Produkte
Load Balancing und Serverfarm für Terminal Server (mittels Citrix MetaFrame)
Spiegelserverraum mit Clustering von Servern und EMC²-Storagelösungen
Datensicherungskonzepte
WAN-Verbindungen mittels VPN
Hardware Replikation, RAID
40. Was bedeutet Replikation?
• Replikation bedeutet das Halten einer oder mehrerer Kopien eines Datums
• Ein Prozess, der auf dieses Datum zugreifen will, kann auf jede beliebige Replika
zugreifen.
• Im Idealfall erhält er immer das gleiche Ergebnis.
• Was also erreicht werden muss, ist die Konsistenz der Kopien – wobei
unterschiedliche Anwendungen unterschiedliche Anforderungen an die Striktheit der
Konsistenz haben.
• Zwei große Ziele
– Steigerung der Verlässlichkeit eines Dienstes bzw. der Verfügbarkeit eines Datums
• Wenn ein Replikat nicht mehr verfügbar ist, können andere verwendet
werden.
• Besserer Schutz gegen zerstörte/gefälschte Daten: gleichzeitiger Zugriff auf
mehrere Replikate, das Ergebnis der Mehrheit wird verwendet
– Steigerung der Leistungsfähigkeit des Zugriffs auf ein Datum
• Bei großen Systemen: Verteilung der Replikate in verschiedene
Netzregionen oder einfache Vervielfachung der Server an einem Ort
41. Was ist das Spark Modell?
42. Erklären Sie OCTP!
43. Was bedeutet OLAP?
50
44. Unterschied OLTP – OLAP
OLTP-Anwendungen
• viele Benutzer, die vordefinierte SQL-Anweisungen ausführen
• kurze Transaktionen
• Anwendungsbeispiele: Auftragsverwaltungssystem, Reservierungssystem
• Produktbeispiele: mySAP, Oracle Applications, Peoplesoft
• OLTP-Anwendungen greifen auf operative Datenbestände zu (d.h. Daten für den
täglichen operativen Betrieb)
Decision Support-Anwendungen (OLAP):
• wenige Benutzer
• komplexe Abfragen mit vielen Joins
• Zugriff auf historische Daten notwendig
• Anwendungsbeispiel: Kaufverhalten der Kunden eines Einzelhandelskaufhauses
• Decision Support wird meist nicht auf der OLTPDatenbank, sondern auf einer
separaten Datenbank durchgeführt, dem sogenannten Data Warehouse.
45. Liegen die Daten im OLAP System in normalisierter Form vor?
Das Datenschema eines Data Warehouses ist nicht wie das Schema einer
operativen Datenbank aufgebaut, sondern ist für die schnelle Abarbeitung der
komplexen Anfragenoptimiert:
• bewusste Redundanz
• Sternschema (wenige große Fact-Tabellen und mehrere kleine
Dimensionstabellen,
• Ein Ausschnitt aus einem Data Warehouse, das in einer separaten
Datenbank für bestimmte Benutzer(gruppen) bereitgestellt wird, wird Data
Mart genannt.
• Die gezielte Suche nach Informationen in einem Data Warehouse wird
Decision Support oder Online Analytical Processing (OLAP) genannt.
46. Erläutern Sie die dritte Normalform!
Die Tabelle muss bereits in der 2. Normalform sein. Es dürfen keine trasitiven
Abhängigkeiten vorliegen; d. h. abhängig sollen alle Datenfelder nur direkt vom
Schlüssel sein.
Transitiv, b ist von a abhängig und c von b, dann ist c transitiv von a abhängig
47. Was geschieht beim Überschreiben bzw. Überdefinieren?
48. Was ist ein dynamisches Sperrprotokoll?
49. Erläutern Sie den Begriff referentielle Integrität!
Besitzt eine Tabelle einen Fremdschlüssel, der auf einen Primärschlüssel einer
referenzierten Tabelle zeigt, muß jeder Wert im Fremdschlüssel einen
enstprechenden
Eintrag in der referenzierten Tabelle besitzen. Dann besteht
referentielle Integrität
50. Was passiert wenn eine Bestellposition gelöscht wird?
51. Wie kann der Zugriff auf Datenbanken optimieren werden?
Durch eine Optimierung der Abfrage
Durch redundante Daten, Zugriff auf die gleiche Datei an mehreren Orten
Sonstiges
1. Was bedeutet DES?
DES (Data Encryption Standard)
Norm für das Verschlüsseln von Daten, von National Bureau of Standards (NBS)
1977 entwickelt. DES benutzt einen 56-Bit-Schlüssel und eine Blocklänge von 64 Bit.
Ab 1977 war DES der nationale amerikanische Verschlüsselungsstandard für nichtklassifizierte Daten, wurde dann aber von AES abgelöst.
51
DES (Data Entry Sheet), DES (DEScription), DES (Device Echo Suppressor)
2. Wie erfolgt die Auswertung eines Controllingberichts?
Kosten und Zuschläge eines Kaufes oder Auftrag werden mit dem Gewinn oder
Ersparnisse in verbindung gesetzt. Kommt am Ende eine Positive Zahl, lohnt sich
der Kauf oder der Auftrag.
3. Wie kann man des Erfolg des Help Desk messen?
An Hand der Bearbeitungszeit, wie lange der Kunde auf seine Antwort warten muss,
kann der Erfolg gemessen werden.
4. Was sagt Ihnen der Begriff SCM?
SCM - [1] Station Configuration Management
SCM - [2] Station Class Mark
SCM - [3] Software Configuration Management
SCM - [4] Scramble Coder Multiplexer
SCM - [5] Sub Carrier Multiplexing
SCM - [6] Service Command Module (->"IEEE Standard Dictionary")
SCM - [7] Small Core Memory (->"IEEE Standard Dictionary")
SCM - [8] Singnal Conditioning Module (->"IEEE Standard Dictionary")
SCM - [9] SuperConducting Magnet (->"IEEE Standard Dictionary")
SCM - [10] System Control Module (->"NASA Acronym List")
SCM - [11] Subsystem Configuration Management (->"NASA Acronym List")
SCM - [12] Subsystem Configuration Monitoring (->"NASA Acronym List")
SCM - [13] Subsystem Configuration Monitoring (->"NASA Acronym List")
SCM - [14] Site Configuration Message (->"NASA Acronym List")
SCM - [15] Supply Chain Management - Lieferkettenverwaltung, Buzzword aus dem
Bereich der Logistik
SCM - [16] Scammon Bay, AK, USA - international Airport IATA TLA {Luftfahrt}
5. Was versteht man unter EDIFACT?
EDIFACT - Electronic Data Interchange for Administration
Standardisierung beim elektronischen Austausch von Handelsdokumenten und
Geschäftsnachrichten
6. Was bedeutet call by reference?
Bei Call By Reference wird nicht mit Kopien von Werten gearbeitet, sondern mit den
aktuellen Parametern selbst. Der aufgerufenen Funktion wird dabei die Adresse des
aktuellen Parameters, unter welcher der Ausdruck im Speicher steht, übergeben.
Man arbeitet also mit den Variablen des aufrufenden Programms über Zeiger
7. Wo liegt der Nachteil der asynchronen Verschlüsselung
Nachteil gegenüber der synchronen Kryptographie: Die Algorithmen wie z.B. RSA
sind sehr langsam. Daher eignet sich eine direkte Anwendung nicht für größere
Dokumente, da Ver- und Entschlüsselung mehrere Minuten oder gar Stunden dauern
können. Man behilft sich daher bei den verbreiteten Programmen wie z.B. PGP mit
einer Kombination aus synchroner und asynchroner Kryptographie.
52
53
Herunterladen