Übung zur Einführung in die Wirtschaftsinformatik noll

Werbung
Übung zur Einführung in die
Wirtschaftsinformatik
2006 - 04 - 26
Fragen zur Vorlesung
unter Angabe der betreffenden
Seiten im Buch (vierte Auflage)
bitte an:
[email protected]
1
Termine und Dateiabruf unter:
http://alpar.uni-marburg.de
Lehre
Übung zur Einführung in die Wirtschaftsinformatik
Wert von Information
2
Information
Definition:
Problem:
Daher:
Problem:
Daher:
Information ist zweckorientiertes Wissen. (Wittmann)
Was ist Wissen?
Information ist zusätzliches zweckorientiertes Wissen.
(Wessling)
Nicht quantifizierbar
Informationen sind Mittel zur Reduktion
von Unsicherheit
Shannons Postulate
• Der Wert einer Information ist abhängig vom Neuigkeitsgrad des der Information zugrunde liegenden
Ereignisses. Je unwahrscheinlicher ein Ereignis ist,
umso höher ist der damit verbundene Informationsgehalt.
• Die Einzelinformationen voneinander unabhängiger
Nachrichten, Daten oder Signale addieren sich.
3
Shannon und Weaver (1949)
• Information als Mittel zur Reduktion von Unsicherheit.
• Das Reduktionspotenzial wird mit der Entropiefunktion gemessen:
n
H = −∑ pi log 2 pi
i =1
• wobei p
i
die Wahrscheinlichkeit des Eintritts eines Ereignisses ist.
∑ p =1
n
•
i
i =1
Informationsgehalt
=
-log2p
10
9
8
7
6
5
4
3
2
1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
p
4
Eigenschaften von H
• Je größer H, desto größer ist die Unsicherheit und
damit die Möglichkeit, mithilfe von Informationen die
Unsicherheit zu reduzieren.
• Ist p1 = 1 und pi = 0 für i≠ 1, dann besteht keine
Unsicherheit, d.h. H = 0.
• Sind alle Ereignisse gleich wahrscheinlich, d.h. pi = 1/n,
dann ist H = -log2 1/n.
Beispiel
für n=2 und
p1=p2=1/2
gilt:
H=-(-0,5x1-0,5x1)=1
5
Folgerungen
• Informationsgehalt einer Nachricht steigt nicht proportional (d.h.
linear) sondern lediglich logarithmisch an.
• Umgekehrt erfordert ein lineares Wachstum des Informationsgehalts ein exponentielles Wachstum des Datenvolumens.
Shannons Theorie schaffte u.a. die Grundlage für
Komprimierungsalgorithmen und Fehlerkorrektur-Systemen.
Aber: Keine Aussage über den ökonomischen Informationswert!
Beispiel:
Der Informationsgehalt der Nachricht „WINTERSEMESTER“
Zeichen
W
I
N
T
E
R
S
M
Summe
p
1/14
1/14
1/14
2/14
4/14
2/14
2/14
1/14
1,0
- log2 p
3,8
3,8
3,8
2,8
1,8
2,8
2,8
3,8
---
H
0,271
0,271
0,271
0,4
0,514
0,4
0,4
0,271
2,798
6
Attribute von Informationen
•
•
•
•
•
•
Aktualität
Korrektheit
Genauigkeit
Aggregationsgrad
Darstellungsart
Kosten
Entscheidungsprozess-Phasen
mêçÄäÉãÉêâÉååìåÖ
^äíÉêå~íáîÉåÖÉåÉêáÉêìåÖ
^äíÉêå~íáîÉå~ìëï~Üä
fãéäÉãÉåíáÉêìåÖ
hçåíêçääÉ
7
Dimensionen des Entscheidens I
Problemstruktur
• wohlstrukturiert (für alle Phasen ist geeignetes Vorgehen bekannt)
• unstrukturiert (zu keiner Phase ist geeignetes Vorgehen bekannt)
• semistrukturiert (für einen Teil der Phasen ist geeignetes Vorgehen bekannt)
Sicherheitsgrad
• Entscheidung unter Sicherheit
• Entscheidung unter Risiko
• Entscheidung unter Unsicherheit
(Ereignis bekannt)
(Wahrscheinlichkeit für Ereignisse bekannt)
(keine Wahrscheinlichkeit bekannt)
Dimensionen des Entscheidens II
Risikoeinstellung des Entscheiders:
• risikoscheu
• risikofreudig
• risikoneutral
Zielerreichungsgrad
• optimale Lösung
• zufriedenstellende Lösung
8
Wert von Informationen
• Subjektiver Wert: Der Benutzer einer Information wird befragt,
wie viel ihm die Information wert ist. Der ermittelte Wert hängt
dabei vom Informationsstand des Benutzers ab, ist subjektiv, und
seine Korrektheit ist nicht nachprüfbar.
• Objektiver Wert: Es wird das Ergebnis eines Entscheidungsprozesses zweimal beobachtet: Einmal ohne die zu bewertende
Information und einmal mit ihr. Da hierfür die Information bereits
beschafft worden sein muss, macht eine solche Betrachtung nur
Sinn, wenn sich das gleiche Problem wiederholt. Die Ergebnisdifferenz entspricht bei unveränderten Bedingungen (!) dem
Informationswert. Die Wertermittlung ist nur ex post möglich.
Wert von Informationen (Forts.)
• Normativer Wert: Es wird der Gewinn aus einer Entscheidung
mit und ohne die zu bewertende Information berechnet. Die
Differenz stellt den Informationswert dar. Zur Berechnung des
erwarteten Gewinns ohne Information und mit Information
werden Wahrscheinlichkeiten über mögliche Umweltzustände
herangezogen. (objektiv, aber ex ante)
9
Exkurs:
Wahrscheinlichkeitsrechnung
• Betrachte ein bel. Experiment, bei dem n
gleichmögliche Fälle unterschieden werden können.
Dabei treffe
– in k Fällen ein Ereignis A ein,
– in l Fällen ein Ereignis B ein und
– in m Fällen das Ereignis AB ein.
• Also:
P( A) =
k
l
m
, P ( B) = , P ( A ∩ B ) =
n
n
n
Exkurs (Forts.)
• Ermittle nun die Wahrscheinlichkeit von B unter der
zusätzlichen Bedingung, dass insgesamt nur noch die
Fälle betrachtet werden, in denen A eintrifft.
• Diese Wahrscheinlichkeit bezeichnen wir als bedingte
Wahrscheinlichkeit P(B | A).
• Von den n Fällen bleiben nur k übrig. Unter diesen sind
m Fälle in denen außer A auch noch B eintritt.
⇒ P(B | A) = mk =
m
k
n
n
=
P( A ∩ B )
P ( A)
10
Exkurs (Forts.)
P(B|A) = Wahrscheinlichkeit, dass Ereignis B eintritt, unter
der Bedingung, dass A eingetreten ist.
Es gilt:
P( B | A) =
P( A ∩ B)
P( A)
⇒ P( A ∩ B) = P(B | A) × P( A)
P( A ∩ B)
P( B)
⇒ P ( A ∩ B) = P ( A | B ) × P( B)
also ist
P( A | B) =
Exkurs (Forts.)
Multiplikationssatz: Haben zwei Ereignisse A und B bei
einem Experiment die Wahrscheinlichkeit P(A) bzw. P(B),
so beträgt die Wahrscheinlichkeit des gleichzeitigen Eintretens von A und B bei diesem Experiment:
P( A ∩ B) = P ( B | A) × P( A) = P( A | B ) × P( B)
Satz: Sei A1,A2,...,An eine vollständige Ereignisdisjunktion.
Dann gilt: P(B) = n P(B | A ) × P( A )
∑
i
i
i=1
11
Beispiel I
40% aller Klausurteilnehmer sind Frauen (F) und 60%
Männer (M). 80% der (aller) F schreiben leserlich (L), wohingegen
dies nur bei 30% der M der Fall ist.
Beispiel:
Damit ist: P(L|F) = 0,8 und P(L|M) = 0,3.
W., dass Klausur L ist und von einer F geschrieben wurde:
P(L ∩ F) = P(L | F) × P(F) = 0.8 × 0,4 = 0,32
W., dass Klausur L ist und von einem M geschrieben wurde:
P(L ∩ M) = 0.3 × 0,6 = 0,18
W., dass Klausur leserlich ist:
P(L) = P(L|F)P(F) + P(L|M)P(M) = 0,32 + 0,18 = 0,5
Aufgabe I
In einer Schachtel liegen 10 Verschlusskappen, darunter 3
defekte. Wie groß ist die Wahrscheinlichkeit, dass man
lauter brauchbare Kappen erhält, wenn man 2 Kappen
nacheinander ganz zufällig und ohne Zurücklegen
herausnimmt?
12
Lösung zu Aufgabe I
A = Brauchbare Kappe beim 1. Zug
B = Brauchbare Kappe beim 2. Zug
Es sind 10 Kappen in der Schachtel, von denen 7 brauchbar sind.
P(A) = 7/10
Ist das Ereignis A eingetreten, so sind noch 9 Kappen in der
Schachtel, von denen 6 brauchbar sind.
Also ist P(B|A) = 6/9
7 6 7 2
P ( A ∩ B ) = ⋅ = ⋅ ≈ 0,47
10 9 10 3
⇒
13
Zugehörige Unterlagen
Herunterladen