Übung zur Einführung in die Wirtschaftsinformatik 2006 - 04 - 26 Fragen zur Vorlesung unter Angabe der betreffenden Seiten im Buch (vierte Auflage) bitte an: [email protected] 1 Termine und Dateiabruf unter: http://alpar.uni-marburg.de Lehre Übung zur Einführung in die Wirtschaftsinformatik Wert von Information 2 Information Definition: Problem: Daher: Problem: Daher: Information ist zweckorientiertes Wissen. (Wittmann) Was ist Wissen? Information ist zusätzliches zweckorientiertes Wissen. (Wessling) Nicht quantifizierbar Informationen sind Mittel zur Reduktion von Unsicherheit Shannons Postulate • Der Wert einer Information ist abhängig vom Neuigkeitsgrad des der Information zugrunde liegenden Ereignisses. Je unwahrscheinlicher ein Ereignis ist, umso höher ist der damit verbundene Informationsgehalt. • Die Einzelinformationen voneinander unabhängiger Nachrichten, Daten oder Signale addieren sich. 3 Shannon und Weaver (1949) • Information als Mittel zur Reduktion von Unsicherheit. • Das Reduktionspotenzial wird mit der Entropiefunktion gemessen: n H = −∑ pi log 2 pi i =1 • wobei p i die Wahrscheinlichkeit des Eintritts eines Ereignisses ist. ∑ p =1 n • i i =1 Informationsgehalt = -log2p 10 9 8 7 6 5 4 3 2 1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 p 4 Eigenschaften von H • Je größer H, desto größer ist die Unsicherheit und damit die Möglichkeit, mithilfe von Informationen die Unsicherheit zu reduzieren. • Ist p1 = 1 und pi = 0 für i≠ 1, dann besteht keine Unsicherheit, d.h. H = 0. • Sind alle Ereignisse gleich wahrscheinlich, d.h. pi = 1/n, dann ist H = -log2 1/n. Beispiel für n=2 und p1=p2=1/2 gilt: H=-(-0,5x1-0,5x1)=1 5 Folgerungen • Informationsgehalt einer Nachricht steigt nicht proportional (d.h. linear) sondern lediglich logarithmisch an. • Umgekehrt erfordert ein lineares Wachstum des Informationsgehalts ein exponentielles Wachstum des Datenvolumens. Shannons Theorie schaffte u.a. die Grundlage für Komprimierungsalgorithmen und Fehlerkorrektur-Systemen. Aber: Keine Aussage über den ökonomischen Informationswert! Beispiel: Der Informationsgehalt der Nachricht „WINTERSEMESTER“ Zeichen W I N T E R S M Summe p 1/14 1/14 1/14 2/14 4/14 2/14 2/14 1/14 1,0 - log2 p 3,8 3,8 3,8 2,8 1,8 2,8 2,8 3,8 --- H 0,271 0,271 0,271 0,4 0,514 0,4 0,4 0,271 2,798 6 Attribute von Informationen • • • • • • Aktualität Korrektheit Genauigkeit Aggregationsgrad Darstellungsart Kosten Entscheidungsprozess-Phasen mêçÄäÉãÉêâÉååìåÖ ^äíÉêå~íáîÉåÖÉåÉêáÉêìåÖ ^äíÉêå~íáîÉå~ìëï~Üä fãéäÉãÉåíáÉêìåÖ hçåíêçääÉ 7 Dimensionen des Entscheidens I Problemstruktur • wohlstrukturiert (für alle Phasen ist geeignetes Vorgehen bekannt) • unstrukturiert (zu keiner Phase ist geeignetes Vorgehen bekannt) • semistrukturiert (für einen Teil der Phasen ist geeignetes Vorgehen bekannt) Sicherheitsgrad • Entscheidung unter Sicherheit • Entscheidung unter Risiko • Entscheidung unter Unsicherheit (Ereignis bekannt) (Wahrscheinlichkeit für Ereignisse bekannt) (keine Wahrscheinlichkeit bekannt) Dimensionen des Entscheidens II Risikoeinstellung des Entscheiders: • risikoscheu • risikofreudig • risikoneutral Zielerreichungsgrad • optimale Lösung • zufriedenstellende Lösung 8 Wert von Informationen • Subjektiver Wert: Der Benutzer einer Information wird befragt, wie viel ihm die Information wert ist. Der ermittelte Wert hängt dabei vom Informationsstand des Benutzers ab, ist subjektiv, und seine Korrektheit ist nicht nachprüfbar. • Objektiver Wert: Es wird das Ergebnis eines Entscheidungsprozesses zweimal beobachtet: Einmal ohne die zu bewertende Information und einmal mit ihr. Da hierfür die Information bereits beschafft worden sein muss, macht eine solche Betrachtung nur Sinn, wenn sich das gleiche Problem wiederholt. Die Ergebnisdifferenz entspricht bei unveränderten Bedingungen (!) dem Informationswert. Die Wertermittlung ist nur ex post möglich. Wert von Informationen (Forts.) • Normativer Wert: Es wird der Gewinn aus einer Entscheidung mit und ohne die zu bewertende Information berechnet. Die Differenz stellt den Informationswert dar. Zur Berechnung des erwarteten Gewinns ohne Information und mit Information werden Wahrscheinlichkeiten über mögliche Umweltzustände herangezogen. (objektiv, aber ex ante) 9 Exkurs: Wahrscheinlichkeitsrechnung • Betrachte ein bel. Experiment, bei dem n gleichmögliche Fälle unterschieden werden können. Dabei treffe – in k Fällen ein Ereignis A ein, – in l Fällen ein Ereignis B ein und – in m Fällen das Ereignis AB ein. • Also: P( A) = k l m , P ( B) = , P ( A ∩ B ) = n n n Exkurs (Forts.) • Ermittle nun die Wahrscheinlichkeit von B unter der zusätzlichen Bedingung, dass insgesamt nur noch die Fälle betrachtet werden, in denen A eintrifft. • Diese Wahrscheinlichkeit bezeichnen wir als bedingte Wahrscheinlichkeit P(B | A). • Von den n Fällen bleiben nur k übrig. Unter diesen sind m Fälle in denen außer A auch noch B eintritt. ⇒ P(B | A) = mk = m k n n = P( A ∩ B ) P ( A) 10 Exkurs (Forts.) P(B|A) = Wahrscheinlichkeit, dass Ereignis B eintritt, unter der Bedingung, dass A eingetreten ist. Es gilt: P( B | A) = P( A ∩ B) P( A) ⇒ P( A ∩ B) = P(B | A) × P( A) P( A ∩ B) P( B) ⇒ P ( A ∩ B) = P ( A | B ) × P( B) also ist P( A | B) = Exkurs (Forts.) Multiplikationssatz: Haben zwei Ereignisse A und B bei einem Experiment die Wahrscheinlichkeit P(A) bzw. P(B), so beträgt die Wahrscheinlichkeit des gleichzeitigen Eintretens von A und B bei diesem Experiment: P( A ∩ B) = P ( B | A) × P( A) = P( A | B ) × P( B) Satz: Sei A1,A2,...,An eine vollständige Ereignisdisjunktion. Dann gilt: P(B) = n P(B | A ) × P( A ) ∑ i i i=1 11 Beispiel I 40% aller Klausurteilnehmer sind Frauen (F) und 60% Männer (M). 80% der (aller) F schreiben leserlich (L), wohingegen dies nur bei 30% der M der Fall ist. Beispiel: Damit ist: P(L|F) = 0,8 und P(L|M) = 0,3. W., dass Klausur L ist und von einer F geschrieben wurde: P(L ∩ F) = P(L | F) × P(F) = 0.8 × 0,4 = 0,32 W., dass Klausur L ist und von einem M geschrieben wurde: P(L ∩ M) = 0.3 × 0,6 = 0,18 W., dass Klausur leserlich ist: P(L) = P(L|F)P(F) + P(L|M)P(M) = 0,32 + 0,18 = 0,5 Aufgabe I In einer Schachtel liegen 10 Verschlusskappen, darunter 3 defekte. Wie groß ist die Wahrscheinlichkeit, dass man lauter brauchbare Kappen erhält, wenn man 2 Kappen nacheinander ganz zufällig und ohne Zurücklegen herausnimmt? 12 Lösung zu Aufgabe I A = Brauchbare Kappe beim 1. Zug B = Brauchbare Kappe beim 2. Zug Es sind 10 Kappen in der Schachtel, von denen 7 brauchbar sind. P(A) = 7/10 Ist das Ereignis A eingetreten, so sind noch 9 Kappen in der Schachtel, von denen 6 brauchbar sind. Also ist P(B|A) = 6/9 7 6 7 2 P ( A ∩ B ) = ⋅ = ⋅ ≈ 0,47 10 9 10 3 ⇒ 13