EinfIV-1213

Werbung
Einführung in die Informationsverarbeitung
Teil Thaller
Stunde I: Der Informationsbegriff
Köln 18. Oktober 2012
I. Häufige Missverständnisse 1
2
Wissensexplosion
Print, film, magnetic, and optical storage media
produced about 5 exabytes of new information
in 2002. Ninety-two percent of the new
information was stored on magnetic media,
mostly in hard disks.
3
Wissensexplosion
How big is five Exabytes? If digitized, the
nineteen million books and other print collections
in the Library of Congress would contain about
ten terabytes of information; five Exabytes of
information is equivalent in size to the
information contained in half a million new
libraries the size of the Library of Congress print
collections.
4
Wissensexplosion
University of California at Berkely, School of
Information Management and Systems: How
much Information? 2003
http://www.sims.berkeley.edu/research/projects/h
ow-much-info-2003/printable_report.pdf
"Executive Summary" auf Seite 1
5
Wissensexplosion
19 Millionen Bücher
1 Buch
1 Seite
1 Buch
10 TB
40
10 x 2 Bytes
10 000 000 000 000 Bytes
10 000 000 000 000 /
19 000 000
526,315.79 Bytes
3000 Zeichen
175 Seiten
6
Wissensexplosion
7
Wissensexplosion
8
Wissensexplosion
1 Seite
1 Buch
19 Millionen Bücher
128 000 000 Bytes
22 400 000 000 Bytes
22 400 000 000 x
19 000 000
425 600 000 000 000 000 B
425 Petabyte
9
Wissensexplosion
Print, film, magnetic, and optical storage media
produced about 5 exabytes of new information in
2002. Nintey-two percent of the new information
was stored on magnetic media, mostly in hard
disks.
10
Wissensexplosion
How big is five exabytes? If digitized, the nineteen
million books and other print collections in the
Library of Congress would contain about 0.5
exabytes of information; five exabytes of
information is equivalent in size to the information
contained in ten new libraries the size of the Library
of Congress print collections
11
Wissensexplosion
Seite 17: Ein gedrucktes Buch aus rezenter
Produktion wird mit 7,8 MB bewertet (ca. 10 mal so
gross, wie bei der Abschätzung der Größe der
Library of Congress).
*
12
Information
1.
2.
3.
4.
5.
Es ist schön in Köln zu Ihnen zu sprechen.
Es ist schön in Kln zu Ihnen zu sprechen.
Es ist schön in Kön zu Ihnen zu sprechen.
Es ist schn in Kön zu Ihnen zu sprchen.
S'is schö in Kölle zu Ihnen zu sprchen.
13
Information
Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist
es eagl in wcheler rhnfgeeloie die bstuchbaen in
eniem wrot snid. Das eniizg whictgie ist, dsas der
etrse und der lztete bstuchbae am rtigeichn paltz
snid. Der rset knan tatol deiuranchnedr sien und man
knan es ienrmomch onhe porbelm lseen. Das legit
daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen,
srednon das wrot als gzanes.
14
Information
Claude Shannon: "A Mathematical Theory of
Communication", Bell System Technical Journal,
1948.
Enthält eine quantitative Definition von Information.
Zweck: Wie kann ein Signal zwischen einem Sender
und einem Empfänger mit dem geringstmöglichen
15
Aufwand "korrekt" übertragen werden.
Information
Shannon hat also eine technische Definition von
"Information", die die Bedeutungsebene völlig
ausklammert. Er betont, dass "die semantischen
Aspekte der Kommunikation für die
ingenieurwissenschaftliche Seite irrelevant sind".
16
Information
Nahezu alle mir bekannten Lehrbücher der
Informatik beginnen mit Shannons Definition der
Information.
Räumen aber ein, dass die
ingenieurwissenschaftliche Definition von
Information defizitär sei. Insbesondere:
17
Information
(1) Bildet sie nur einen Teil des intellektuellen
Umfanges des Konzepts "Information„
(syntaktisch, semantisch, pragmatisch) ab.
(2) Gibt es dagegen keine operable Definition die
dieses Konzept in seiner vollen Breite abdeckt.
Aber: Die vorhandenen Konzepte reichen aus, um
Information auf einem Digitalrechner so
darzustellen, dass man sie sinnvoll verarbeiten kann.
*
18
II. Begriffe rund um die
“Information”
19
Informationsebenen
Syntax: Beziehungen der „Zeichen“
untereinander.
Semantik: Beziehungen zwischen „Zeichen“
und „Gegenständen“.
Pragmatik: Beziehungen zwischen „Zeichen“
und ihren „Benutzern“.
20
Information und Wissen
Bernard Favre-Bulle
Information und Zusammenhang. Informationsfluß
in Prozessen der Wahrnehmung, des Denkens und
der Kommunikation.
Springer: 2001
21
Information und Wissen
Daten sind speicherbare Angaben - 22°C.
Information stellt Daten in einen Kontext:
"In diesem Hörsaal herrscht eine Temperatur von
22°C".
Dieser Kontext ist jedoch noch fest (und für alle
Informationsempfänger identisch).
22
Information und Wissen
Wissen ist das Ergebnis von Erkenntnisprozessen.
Es bezieht die praktische Anwendung der Daten und
Informationen ein. Es muss nicht "absolut wahr"
sein, sondern adäquates Handeln zu ermöglichen.
Z.B. die Entscheidung einen Pulli (nicht)
auszuziehen, um sich angenehm zu fühlen, ohne
sich zu erkälten.
23
„Ladder of Knowledge“
Weisheit
Wissen
Information
Daten
*
24
III. Häufige Missverständnisse 2
… und was heisst “Information
darstellen?”
25
Wahrheit
George Bool (1815-1864), "The Laws of Thought".
Formales Rechnen mit logischen Ausdrücken, die
nur die Zahlenwerte "1" (wahr) und "0" (falsch)
kennen.
Aussage: Computer kennen nur wahr oder falsch,
keine "Zwischentöne".
26
Wahrheit
Umgesetzt in Programmiersprachen als:
if (aussage == 1) nimm an, dass Aussage wahr.
else nimm an, dass Aussage falsch.
27
Wahrheit
… aber auch als:
if (aussage == 0) nimm an, dass Aussage
falsch.
else nimm an, dass Aussage wahr.
28
Wahrheit
Z.B. in folgendem Programm:
int aussage;
aussage=bewerteZustandDerWelt();
if (aussage == 0) nimm an, dass Aussage
falsch.
else nimm an, das Aussage wahr.
29
Wahrheit
Z.B. in folgendem Programm:
int aussage;
"int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 232
-1 annehmen kann.
aussage=bewerteZustandDerWelt();
if (aussage == 0) nimm an, dass Aussage
falsch.
else nimm an, das Aussage wahr.
30
Wahrheit
Z.B. in folgendem Programm:
int aussage;
"int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 232
-1 annehmen kann.
aussage=bewerteZustandDerWelt();
if (aussage == 0) nimm an, dass Aussage
falsch.
else nimm an, das Aussage wahr.
Es gibt also genau eine Art "falsch" auszudrücken, aber 4.294.967.294
Varianten von "wahr"?
31
Wahrheit
Unabhängig von dem, was George Bool gesagt hat,
gilt also in Wirklichkeit nicht
"0" = falsch.
"1" = wahr.
32
Wahrheit
... sondern in Wirklichkeit:
"0" = falsch.
"1" bis "4.294.967.295" = wahr.
33
Wahrheit
dann könnte aber genau so gut gelten:
"0" = falsch.
"1" bis "4.294.967.294" = unklar.
"4.294.967.295" = wahr.
34
Wahrheit
oder genauso willkürlich:
"0" bis "255" = falsch.
"256" bis "4.294.967.039" = unklar.
"4.294.967.040" bis "4.294.967.295" = wahr.
35
Wahrheit
oder auch:
"0" = sicher falsch.
"20.000" = ziemlich sicher falsch.
"100.000" = ziemlich sicher falsch, aber mit fünfmal
größerer Wahrscheinlichkeit richtig als "20.000".
"4.000.000.000" = ziemlich sicher richtig.
"4.294.967.295" = sicher wahr.
36
Wahrheit - Begriffe
Binäre Logik
Kennt nur "wahr" und "falsch".
n-äre oder mehrwertige Logik
Kennt n Wahrheitswerte.
Kontinuierliche Wahrheitsfunktionen
Nehmen unendlich viele Wahrheitswerte an.
37
IV. Häufige Missverständnisse 3
… oder: Die Mystik des Digitalen
38
Digital - Analog
Das korrekte Begriffspaar in der Informatik:
„diskret“ v. „kontinuierlich“.
39
Digital - Analog
1,00134… +
0,48723… =
1,48857…
Eine Addition kontinuierlicher Zahlenwerte.
40
Digital - Analog
Nach diesem Prinzip – heute nur mehr für
Spezialanwendungen – verwendete Computer, die
z.B. Spannungen oder Stromstärken „addieren“
heißen „Analogrechner“.
41
Digital - Analog
4,00000
+
2,00000
=
Eine Addition diskreter Zahlenwerte.
6,00000
42
Digital - Analog
0,00004
+
0,00002
=
0,00006
Ebenfalls eine Addition diskreter Zahlenwerte. 43
Digital - Analog
0,00004
+
0,00002
=
0,00006
Auch eine Addition diskreter Zahlenwerte.
44
Digital - Analog
0,00004
+
0,00002
Kontinuierlich oder diskret?
=
0,00006
45
Digital - Analog
Ob eine Darstellung „analog“ oder „digital“ ist,
hängt in erster Linie von der Meßgenauigkeit ab.
Merke: Digitaluhren sind analoger als analoge
mechanische Uhren!
*
46
V. Repräsentation von Information
47
Der Informationsbegriff
Shannon, C.E.: A Mathematical Theory of Communiction.
The Bell Systems Technical Journal, 27 (1948), 379-423
Informationsgehalt als Wahrscheinlichkeit dass eine
bestimmte Angabe zufällig zustande kommt.
Wird in der Signaltheorie verwendet um beispielsweise das
korrekte Übertragen von Bildern zu beurteilen.
48
Der Informationsbegriff
Problem: Bezieht sich ausschließlich auf syntaktischen Aspekt von
Zeichen. (= Beziehung zwischen Zeichen.) Zeichen stehen aber nicht
nur zu anderen Zeichen in Beziehung, sondern auch:
• zu ihren Bedeutungen. (Semantischer Aspekt.)
• zu den bezeichneten Objekten. (Sigmatischer Aspekt.)
• zu den Systemen / Teilsystemen (zu deren Zielen, Zwecken, etc.)
zwischen denen Zeichen übermittelt werden.
So schon: Wörterbuch der Kybernetik, hrsg. v. G. Klaus / H.
Liebscher, Berlin, 41976, Artikel "Information", p. 281.
49
Der Informationsbegriff
Daher in der Informatik "Information" meist als nicht weiter
definierter Grundbegriff.
Z.B.: U. Rembold / P. Levi: Einführung in die Informatik für
Naturwissenschaftler und Ingenieure, München etc., 3 1999.
Informatik als Wissenschaft, die sich damit beschäftigt, wie dieser
"Rohstoff" in Rechnern
• dargestellt (Strukturen) und
• verarbeitet (Algorithmen) wird.
50
„Arten“ von Information
1. "Selbstabbildende Information".
Es kann "gerechnet" werden.
Bilder.
2. "Kodierte Information".
Zeichenketten und Teilketten können verglichen werden.
Texte.
3. "Symbolische Information".
Terme können verglichen werden.
Terminologien, "Ontologien" u.ä.
*
51
Danke für heute!
52
Herunterladen