Skriptum

Werbung
Mathematische Methoden der
Zuverlässigkeitstheorie
Christiane Takacs, Dmitry Efrosinin
Institut für Stochastik
3. Auflage, 2005
Inhaltsverzeichnis
1 Einleitung
3
2 Grundlagen
2.1 Begriffe . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Wichtige Lebensdauerverteilungen . . . . . . . . . .
2.2.1 Exponentialverteilung . . . . . . . . . . . . .
2.2.2 Weibullverteilung . . . . . . . . . . . . . . . .
2.2.3 Erlangverteilung . . . . . . . . . . . . . . . .
2.2.4 Potenzverteilung . . . . . . . . . . . . . . . .
2.2.5 Logarithmische Normalverteilung . . . . . . .
2.2.6 IFR- (DFR-) Verteilungen . . . . . . . . . . .
2.3 Lebensdauerschätzungen . . . . . . . . . . . . . . . .
2.3.1 Maximum-Likelihood-Schätzer . . . . . . . .
2.3.2 Maximum-Likelihood-Schätzer für zensurierte
2.3.3 Graphische Methoden . . . . . . . . . . . . .
2.4 Strukturierte Systeme . . . . . . . . . . . . . . . . .
2.4.1 Seriensystem . . . . . . . . . . . . . . . . . .
2.4.2 Parallelsystem . . . . . . . . . . . . . . . . .
2.4.3 Redundante Systeme . . . . . . . . . . . . . .
2.5 Spezielle Modelle . . . . . . . . . . . . . . . . . . . .
2.5.1 Competing Riscs . . . . . . . . . . . . . . . .
2.5.2 Mischungen . . . . . . . . . . . . . . . . . . .
2.5.3 Einfluss unterschiedlicher Lebensbedingungen
3 Boolesche Zuverlässigkeitsmodelle
3.1 Boolesche Funktionen . . . . . . . . . . . . . .
3.2 Ermittlung der Strukturfunktion . . . . . . . .
3.2.1 Pivotzerlegung . . . . . . . . . . . . . .
3.2.2 Pfad- und Schnittdarstellungen . . . . .
3.2.3 Verfahren zur Ermittlung der minimalen
3.2.4 Orthogonalformen . . . . . . . . . . . .
3.3 Systemverfügbarkeit . . . . . . . . . . . . . . .
3.4 Importanz . . . . . . . . . . . . . . . . . . . . .
3.5 Ereignisbäume . . . . . . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
9
10
11
12
12
13
13
15
15
17
22
22
23
23
24
24
24
26
26
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
Pfade und Schnitte
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
30
33
33
34
36
37
38
40
42
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
Daten
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
INHALTSVERZEICHNIS
4 Markovsche Systeme
4.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Homogene Markov-Ketten mit diskreter Zeit . . . .
4.1.2 Homogene Markov-Ketten mit kontinuierlicher Zeit .
4.1.3 Graphische Veranschaulichung von Markov-Ketten .
4.1.4 Die eingebettete Markov-Kette . . . . . . . . . . . .
4.2 Langzeitverhalten . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Markov-Ketten mit diskreter Zeit . . . . . . . . . . .
4.2.2 Markov-Ketten mit kontinuierlicher Zeit . . . . . . .
4.2.3 Existenz und Eindeutigkeit stationärer Verteilungen
4.2.4 Konvergenz ins Gleichgewicht . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
45
46
47
49
50
50
50
51
52
5 Grundbegriffe der Erneuerungstheorie
54
5.1 Langzeitverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Literaturverzeichnis
[1] Aggarwal, K.K.: Reliability Engineering, 1993, Kluwer, Mathbibl. 13265
[2] Beichelt, F.: Zuverlässigkeits- und Instandhaltungstheorie, 1993, Teubner, Mathbibl.
13006
[3] Gertsbakh, I.: Reliability Theory, With Applications to Preventive Maintainance,
2001, Springer, Mathbibl. 15598
[4] Leemis, L.M.: Reliability, Probabilistic Models and Statistical Methods, 1995, Prentice Hall, Mathbibl. 14936: Besonders interessant das Kapitel über Lebensdauerverteilungen mit vielen Zitaten weiterführender Arbeiten
Das vorliegende Skriptum gehört zur gleichnamigen Spezialvorlesung an der Universität Linz aus dem Sommersemester 2005.
Das Skriptum selbst ist als Gedächtnisstütze gedacht. Daher werden die letzten Details
mancher Argumente nicht ausgeführt.
Viel Spaß beim Lesen und beim Kennenlernen der Materie!
Christiane Takacs und
Dmitry Efrosinin
Kapitel 1
Einleitung
Die Zuverlässigkeitstheorie beschäftigt sich mit der Messung, Vorhersage, Erhaltung und
Optimierung der Zuverlässigkeit technischer Systeme.
Dabei versteht man unter der Zuverlässigkeit eines Systems seine Eignung, während vorgegebener Zeitspannen und Anwendungsbedingungen vorgegebene Forderungen zu erfüllen.
Zuverlässigkeitskenngrößen, die auch quantitativ messbar sind, sind etwa die Überlebenswahrscheinlichkeit, die Verfügbarkeit oder auch die mittlere Lebensdauer eines Systems.
Demnach werden in der Zuverlässigkeitstheorie folgende Problemkreise behandelt:
• Schätzung der Zuverlässigkeitskenngrößen von Systemen,
• Zusammenhang zwischen Zuverlässigkeitskenngrößen eines Systems und seiner Komponenten,
• Modellierung des Ausfallsverhaltens und der Abnutzung von Systemen,
• Entwicklung und Optimierung von Maßnahmen zur Erhaltung, Verbesserung bzw.
Wiederherstellung der Zuverlässigkeit von Systemen (Instandhaltungstheorie).
Methoden der Zuverlässigkeitstheorie werden in der Design-Phase (Vergleich von Systementwürfen, Prognose der Zuverlässigkeit im Hinblick auf Garantieleistungen) und in
der Produktionsphase (Ermittlung von Schwachstellen, quantitativer Sicherheitsnachweis),
aber auch bei der Wartung von Systemen im laufenden Betrieb gebraucht, sie sind stets
mit Kostenüberlegungen verbunden.
Das theoretische Fundament der Zuverlässigkeitstheorie ist die Wahrscheinlichkeitstheorie,
da die Zuverlässigkeit eines Systems naturgemäß etwas Zufälliges ist. Systemausfälle oder
Unfälle wird man nie mit Sicherheit ausschließen können. Man wird aber danach trachten,
das Risiko für ihr Auftreten durch materielle und personelle Aufwendungen hinreichend
klein zu halten.
3
Kapitel 2
Grundlagen
2.1
Begriffe
Ein einfaches System ist die kleinste Einheit in einem System. Es wird hinsichtlich seiner Zuverlässigkeitseigenschaften nicht weiter differenziert. Typischerweise handelt es sich
bei einfachen Systemen um Bauelemente (Komponenten). Ein einfaches System kann
ausschließlich intakt (=1) oder defekt (=0) sein. Der Systemzustand zum Zeitpunkt t
wird dann durch eine Boolesche Variable
1 falls das System zur Zeit t intakt ist
z (t) =
0 falls das System zur Zeit t defekt ist
beschrieben. Den Übergang vom Zustand 1 in den Zustand 0 nennen wir Ausfall (Sprungbzw. Totalausfall) des Systems. Wir bezeichnen die Zeit X von der Inbetriebnahme des
Systems bis zu seinem Ausfall als Lebensdauer des Systems. Die Lebensdauer ist eine
Zufallsvariable, die nur positive Werte annimmt. Wir nehmen überdies an, dass sie eine stetige Zufallsvariable1 ist. Damit ist auch der Systemzustand zum Zeitpunkt t eine
Zufallsvariable
1 falls t ≤ X
Z (t) =
.
0 falls t > X
Die stetige (!) Verteilungsfunktion der Lebensdauer
FX (t) = P [X < t]
bezeichnen wir als Ausfallwahrscheinlichkeit. In der Zuverlässigkeitstheorie hat sich
auch der Begriff der Überlebenswahrscheinlichkeit
F̄X (t) = P [X ≥ t] = 1 − FX (t) = R (t)
eingebürgert, sie wird häufig auch Zuverlässigkeitsfunktion oder auch nur Zuverlässigkeit
(reliability) genannt und mit R (t) bezeichnet. Die Dichtefunktion fX (t) (der stetigen
1
Wir treffen diese Annahme, weil meistens dieser Fall vorliegt. Die Verallgemeinerung auf diskrete oder
gemischte Zufallsvariablen geschieht in der üblichen Weise.
4
5
KAPITEL 2. GRUNDLAGEN
Verteilungsfunktion FX (t)) wird als Ausfalldichte oder Lebensdauerdichte bezeichnet.
Die erwartete Lebensdauer E[X] läßt sich mittels
Z ∞
F̄X (t) dt
E[X] =
0
aus der Überlebenswahrscheinlichkeit berechnen. (Beweis als Übung)
Beispiel: Lebensdauerverteilungen
Eine typische Lebensdauerverteilung ist die Weibullverteilung We (λ, β) mit
0
falls t ≤ 0
0
falls t ≤ 0
FX (t) =
und fX (t) =
.
β
β
−λt
β−1
−λt
1−e
falls t > 0
λβt
e
falls t > 0
Für β = 1 ergibt sich die Exponentialverteilung, für β = 2 die Rayleighverteilung.
Die Überlebenswahrscheinlichkeit ist
β
F̄X (t) = e−λt ,
die mittlere Lebensdauer2 einer Weibullverteilten Zufallsvariablen X ist
Γ β1 + 1
E[X] =
.
λ1/β
Eine weitere häufig gewählte Lebensdauerverteilung ist die logarithmische Normalverteilung LN (µ, σ) mit
(
(
0
falls
t
≤
0
falls t ≤ 0 ,
0
FX (t) =
und fX (t) =
(log t−µ)2
log t−µ
1
√
Φ
falls t > 0
falls t > 0
exp − 2σ2
σ
2πσt
wobei Φ die Verteilungsfunktion3 der Standard-Normalverteilung bezeichnet. Ist X logarithmisch normalverteilt, so ist log X normalverteilt mit denselben Parametern.
Die mittlere Lebensdauer einer logarithmisch normalverteilten Zufallsvariablen X ist
σ2
E[X] = exp µ +
.
2
2
Zur Erinnerung
Γ (x) =
Für x ∈ N gilt Γ (x) = (x − 1)!
3
Wir bezeichnen mit
Z
∞
tx−1 e−t dt.
0
Z t
x2
1
φ (t) := √
e− 2 dx
2π −∞
die Verteilungsfunktion der Standard-Normalverteilung.
6
KAPITEL 2. GRUNDLAGEN
Neben der Verteilung der Lebensdauer X interessiert uns auch die bedingte Ausfallwahrscheinlichkeit (bedingte Verteilung), das ist die Verteilungsfunktion
FX (t, τ ) = P [X < t + τ |X ≥ t]
für die Restlebensdauer τ ≥ 0 nach t ≥ 0, d.h. die Verteilung der restlichen Lebensdauer,
wenn das System bereits eine Zeitspanne t überlebt hat. Für die Ausfallwahrscheinlichkeit
gilt
FX (t + τ ) − FX (t)
.
FX (t, τ ) =
1 − FX (t)
Für die bedingte Überlebenswahrscheinlichkeit gilt
F̄X (t, τ ) = 1 − FX (t, τ ) =
F̄X (t + τ )
.
F̄X (t)
Ein Systemmit Lebensdauer X heißt im Intervall [t1 , t2 ] alternd, wenn für beliebiges
aber festes τ > 0 die bedingte Überlebenswahrscheinlichkeit F̄X (t, τ ) in t ∈ [t1 , t2 ] streng
monoton fallend ist.
Beispiel: Alternde Systeme
Für eine Weibull-verteilte Zufallsvariable gilt
F̄X (t, τ ) = e−λ((t+τ )
β
−tβ )
.
Mit β > 1 kann sie die Lebensdauern alternder Systeme beschreiben. Für β = 1 (Exponentialverteilung) stimmt die bedingte Überlebenswahrscheinlichkeit mit der unbedingten
überein, d.h. es gilt
F̄X (t, τ ) = F̄X (τ ) .
Systeme mit einer exponential verteilten Lebensdauer altern also nicht. Umgekehrt kann
man zeigen, dass eine Lebensdauer, deren Verteilung die obige Funktionalgleichung erfüllt,
exponentialverteilt ist. Im Fall β < 1 nimmt die bedingte Überlebenswahrscheinlichkeit mit
wachsendem t zu, damit lassen sich etwa Ausfälle durch Anlaufschwierigkeiten modellieren.
Unter der Ausfallrate λX (t) (auch als hazard rate h (t) oder Hazard function - Risikofunktion - bezeichnet) versteht man die bedingte Dichtefunktion
P [X < t + τ |X ≥ t]
.
τ →0
τ
λX (t) = lim
Wenn man weiß, dass das System zum Zeitpunkt t intakt ist, so ist die Wahrscheinlichkeit,
dass es im Intervall [t, t + dt[ ausfällt, ungefähr gleich λX (t) dt. Für die Ausfallrate gilt
λX (t) =
fX (t)
.
1 − FX (t)
7
KAPITEL 2. GRUNDLAGEN
Beachtet man, dass
fX (t)
d
= − ln (1 − FX (t))
1 − FX (t)
dt
gilt, so folgt aus der Definition für λX sogleich
FX (t) = 1 − e−
Rt
0
λX (τ )dτ
als Darstellung für die Ausfallwahrscheinlichkeit aus der Ausfallrate. Jede der Größen
• Ausfallwahrscheinlichkeit,
• Überlebenswahrscheinlichkeit,
• Ausfalldichte,
• Ausfallrate
kann aus jeder anderen dargestellt werden. (Man fertige als Übung eine Umrechnungstabelle an.) Manchmal wird auch die kumulative Ausfallfunktion
ΛX (t) =
Z
t
λX (τ ) dτ
0
als Kenngröße für die Lebensdauer verwendet.
Satz 2.1 Ein System altert im Intervall [t1 , t2 ] genau dann, wenn seine Ausfallrate dort
streng monoton wächst.
Beweis Alterung bedeutet, dass für τ > 0
0>
−fX (t + τ ) F̄X (t) + F̄X (t + τ ) fX (t)
d F̄X (t + τ )
d
=
F̄X (t, τ ) =
2
dt
dt F̄X (t)
F̄X (t)
gilt, was mit fX (t + τ ) F̄X (t) > F̄X (t + τ ) fX (t) und damit
λX (t + τ ) =
fX (t)
fX (t + τ )
>
= λX (t) ,
F̄X (t + τ )
F̄X (t)
also Monotonie der Ausfallrate, gleichbedeutend ist.
In der Praxis wird die Ausfallrate λX (t) häufig die Gestalt einer Badewannenkurve haben. Die Abnahme für kleine t repräsentiert die anfängliche Auftreten von Kinderkrankheiten, die Konstanz für mittlere t repräsentiert eine gewisse Zeitspanne des Nichtalterns, die
Zunahme für große t repräsentiert das Auftreten von Alterserscheinungen. Denkbar sind
aber auch periodisch schwankende Ausfallraten als Folge saisonbedingter Störeinflüsse.
8
KAPITEL 2. GRUNDLAGEN
Beispiel: Ausfallrate
Eine Weibullverteilte Lebensdauer mit
0
falls t < 0
FX (t) =
β
−λt
falls t ≥ 0
1−e
hat als Ausfallrate
λX (t) =
und fX (t) =
0
β
λβtβ−1 e−λt
falls t < 0
.
falls t ≥ 0
fX (t)
= λβtβ−1 ,
1 − FX (t)
die für β < 1 streng monoton fällt, für β = 1 konstant ist und für β > 1 streng monoton wächst. Eine Weibullverteilte Lebensdauer mit β > 1 beschreibt daher ein alterndes
System.
Für elektronische Bauteile ist die Ausfallrate ein Qualitätsmerkmal und wird in Tabellen angegeben.
Beispiel: Schocks
In der Praxis gibt es häufig besondere Umstände, unter denen besonders leicht Ausfälle
eintreten, so genannte Schocks. Wir nehmen nun an, dass ein Schock unabhängig von
allem anderen mit Wahrscheinlichkeit p einen Systemausfall verursacht und je Zeiteinheit
im Mittel s Schocks eintreffen, die einem Poissonprozess gehorchen. Dann ist die Zeit bis
zum Systemausfall durch einen Schock exponentialverteilt mit Parameter sp. Wenn λ (t)
die Ausfallrate durch andere Systemausfälle ist, so ergibt sich als Ausfallrate insgesamt
λ (t) + sp (Beweis siehe unten).
In der Geschichte der Zuverlässigkeitstheorie war die folgende Erkenntnis eine wichtige
Grundlage für das Design zuverlässiger Systeme.
Ist ein System, das aus n unabhängigen Komponenten besteht, genau dann intakt, wenn
alle n Komponenten intakt sind (So ein System heißt Seriensystem.), so ist seine Ausfallrate die Summe der Ausfallraten der Komponenten.
Beweis Bezeichnen X1 , X2 , . . . , Xn die Lebensdauern der Komponenten und Y die Lebensdauer des Systems, so folgt aus
F̄Y (t) = P [Y > t] =
n
Y
P [Xi > t] =
i=1
n
Y
F̄Xi (t)
i=1
durch Logarithmieren und Ableiten nach t
n
X
fY (t)
fXi (t)
−
=−
,
F̄Y (t)
F̄ (t)
i=1 Xi
was die Aussage beweist.
Wird ein System, nachdem es ausgefallen ist, wieder instandgesetzt bzw. erneuert, so
ist auch diese Instandsetzungszeit eine Zufallsvariable. Im Verlauf der Zeit wechseln sich
9
KAPITEL 2. GRUNDLAGEN
die Systemzustände Intakt und Defekt ab. In diesem Zusammenhang ist die Wahrscheinlichkeit, dass das System zum Zeitpunkt t intakt ist, die so genannte Verfügbarkeit des
Systems zum Zeitpunkt t
P [Z (t) = 1] = E[Z (t)],
eine interessante Kenngröße. Für lange Betriebsdauern verwendet man der Einfachheit
halber die stationäre Verfügbarkeit
lim P [Z (t) = 1] ,
t→∞
falls dieser Grenzwert existiert. Ist ein System in einem langen Intervall T1 Zeiteinheiten
intakt und T0 Zeiteinheiten defekt, so ist seine stationäre Verfügbarkeit ungefähr gleich
T1
.
T0 + T1
2.2
Wichtige Lebensdauerverteilungen
Eine Familie von Verteilungen nennen wir skalierungsinvariant, wenn daraus, dass die
Verteilung von X zu der Familie von Verteilungen gehört, folgt, dass für σ > 0 auch die
Verteilung von σX dazugehört. Eine Familie von Verteilungen nennen wir lageinvariant,
wenn daraus, dass die Verteilung von X zu der Familie von Verteilungen gehört, folgt, dass
auch die Verteilung von X + µ dazugehört.
Skalierungs- und lageinvariante Familien sind günstig, weil es bei ihnen nicht darauf
ankommt, in welchen Einheiten gemessen wird. Die Familie der Normalverteilungen ist
skalierungs- und lageinvariant.
Zuerst werden die Kenngrößen der wichtigsten Lebensdauerverteilungen, wie
• Exponentialverteilung E (λ),
• Weibullverteilung W (λ, β),
• Erlangverteilung ER (n, λ),
• Potenzverteilung4 PT (β, δ) auf [0, δ[ und
• Logarithmische Normalverteilung5 LN µ, σ 2
zusammengestellt. (Umfangreichere Tabelle siehe etwa [4] S. 95)
4
Die unten angegebenen Formeln gelten für t ∈ [0, δ[.
Wir bezeichnen mit
Z t
x2
1
e− 2 dx
φ (t) := √
2π −∞
die Verteilungsfunktion der Standard-Normalverteilung.
5
10
KAPITEL 2. GRUNDLAGEN
F̄X (t)
e−λt
E (λ)
−λtβ
W (λ, β)
PT (β, δ)
LN µ, σ 2
λe−λt
Pn−1 (λt)k
e−λt k=0
k!
t β
1− δ
1 − φ ln t−µ
σ
λX (t)
−λtβ
n−1
−λt
λ (λt)
(n−1)! e
β
t β−1
δ 1− δ
√ 1 e−
2πσt
(ln t−µ)2
2σ 2
E[X]
1 2
V [X]
1
λ
Γ β1 +1
λ
2
Γ β2 +1 −Γ β1 +1
ր
t→∞ λ
β
δ−t
n
λ
n
λ2
nicht
monoton
eµ+
λ
λβtβ−1 e
e
ER (n, λ)
fX (t)
λβtβ−1
λ1/β
λ2/β
βδ 2
(β+1)2 (β+2)
δ
β+1
σ2
2
e2µ+σ
2
2
eσ − 1
Häufig werden auch Verteilungen verwendet, die um einen Parameter t0 mehr enthalten, wenn man z.B. weiß, dass ein Ausfall mit Sicherheit erst nach einer gewissen Zeit t0
auftritt, und X − t0 die entsprechende Verteilung hat.
2.2.1
Exponentialverteilung
Die Exponentialverteilung hat viele schöne Eigenschaften (vgl. [4], 4.2).
1. Nichtalterungseigenschaft: Sei X negativ exponentialverteilt, dann gilt
P [X ≥ t + h | X ≥ t] = P [X ≥ h]
t ≥ 0, h ≥ 0
2. Die Exponentialverteilung ist die einzige stetige Verteilung mit der Nichtalterungseigenschaft.
3. Sei X negativ exponentialverteilt mit Parameter λ, p
dann gilt E[X s ] = λ−s Γ (s + 1),
−1
−2
also E[X] = λ , V[X] = λ , Variationskoeffizient V[X] / E[X] = 1
4. Skalierungsinvarianz: X ∼ E (λ) ⇒ λ X ∼ E (1)
Die Familie der zweiparametrigen Exponentialverteilungen ist sogar skalierungs- und
lageinvariant.
5. Seien X1 , X2 , . . . , Xn vollständig unabhängig und Xi ∼ E (λi ) , dann gilt (für die
Lebensdauer eines Seriensystems)
!
n
X
min {X1 , X2 , . . . , Xn } ∼ E
λi .
i=1
6. Seien X1 , X2 , . . . , Xn vollständig unabhängig und Xi ∼ E (λ) , dann gilt
2λ
n
X
i=1
n
X
i=1
Xi ∼ χ2 (2n) ,
Xi ∼ ER (n, λ)
Man beachte, dass es sich beim letzteren um die Verteilung der Lebensdauer eines
Systems mit einer Komponente im Betrieb und n − 1 Reservekomponenten handelt.
11
KAPITEL 2. GRUNDLAGEN
7. Seien X1 , X2 , . . . , Xn vollständig unabhängig und Xi ∼ E (λ) und X(1) , X(2) , . . . ,
X(n) seien die zugehörigen Ordnungsstatistiken (X1 , X2 , . . . , Xn der Größe nach
sortiert), dann gilt X(1) , X(2) −X(1) , . . . , X(n) −X(n−1) sind vollständig unabhängig
und exponentialverteilt, wobei
P X(k) − X(k−1) ≥ t = e−(n−k+1)λt
t ≥ 0, k = 1, 2, . . . , n.
Man beachte, dass diese Zufallsvariablen bei einem Lebensdauertest auftreten.
8. Seien X1 , X2 , . . . , Xn vollständig unabhängig und Xi ∼ E (λ) und X(r) sei die r-te
Ordnungsstatistik mit X(0) = 0, dann gilt für r = 1, . . . , n
r
E[X(r) ] =
V[X(r) ] =
1X
1
,
λ
n−k+1
k=1
r
X
1
λ2
1
.
(n − k + 1)2
k=1
9. Seien X1 , X2 , . . . , Xn vollständig unabhängig und Xi ∼ E (λi ) , dann gilt
2
n
X
i=1
2.2.2
λi Xi ∼ χ2 (2n) .
Weibullverteilung
Die Weibullverteilung6 wurde Ende der 40er Jahre vom schwedischen Ingenieur Weibull
zur Beschreibung der Lebensdauern von Verschleißteilen vorgeschlagen. Sie war jedoch
schon vorher von Wissenschaftern der Universität Freiberg entdeckt worden und ist daher
in der montanwissenschaftlichen Literatur als Rosin/Rammler-Verteilung bekannt.
1. Die Familie der Weibullverteilungen ist skalierungsinvariant. Ist etwa X W (λ, β)
verteilt, so ist λ1/β X W (1, β) verteilt. Der Parameter β ist der eigentliche Formparameter, die Größe λ1/β ist lediglich ein Skalenparameter.
2. Mit Hilfe der Weibullverteilung können alternde (β > 1) und ”verjüngende” (β < 1)
Systeme beschrieben werden.
3. Besteht ein System aus sehr vielen unabhängigen hochzuverlässigen Komponenten
mit negativ exponentialverteilten Lebensdauern und braucht es zu seiner Funktion
eine vorgegebene Anzahl von intakten Komponenten, wobei defekte nicht ersetzt
werden, so ist seine Lebensdauer näherungsweise Weibullverteilt mit β > 1, siehe [3]
Seite 36.
6
Achtung: Die Angabe der Parameter (Reihenfolge, λ ersetzt durch λ1/β ) einer Weibullverteilung ist in
der Literaur sehr unterschiedlich, vgl. auch Mathematica. Man muss immer genau prüfen, welche Parameter
gemeint sind.
12
KAPITEL 2. GRUNDLAGEN
4. Die Weibullverteilung ist eine Extremwertverteilung in folgendem Sinn:
Sind X1 , X2 , . . . unabhängige Zufallsvariablen mit der Eigenschaft P [Xk ≤ t] =
ctd (1 + o (1)) für t > 0 in der Nähe von 0 und c, d > 0 und gilt weiters Zn =
n1/d min {X1 , . . . , Xn } , so kann man zeigen, dass Zn in Verteilung gegen eine Zufallsvariable Z mit Verteilung W (c, d) konvergiert.
P
5. Sind Xk ∼ W (λk , β) unabhängige Zufallsvariablen und λ = nk=1 λk , so gilt
min {X1 , . . . , Xn } ∼ W (λ, β) .
6. Ist X W (λ, β) verteilt, so heißt die Verteilung von ln X Extremwertverteilung vom
Typ III. Die Familie dieser Verteilungen ist skalierungs- und lageinvariant.
Beweis Einerseits gilt
P [ln X < t] = P [X < exp (t)]
= 1 − e−λ(exp t)
β
= 1 − e−λ exp(βt)
und andererseits für σ > 0
P [σ ln X + µ < t] = P X < exp
t−µ
σ
β
t−µ
= 1 − e−λ(exp( σ ))
β
−µβ
= 1 − e−λ exp( σ ) exp( σ t) ,
was offensichtlich dieselbe Gestalt wie der obige Ausdruck hat.
2.2.3
Erlangverteilung
Bei der Erlangverteilung ist n ein Formparameter und λ ein Skalenparameter. Sind X1 ,
X2 , . . . , Xn vollständig unabhängig und Xi ∼ E (λ) , dann gilt
n
X
i=1
Xi ∼ ER (n, λ) .
Man beachte, dass es sich hier um die Verteilung der Lebensdauer eines Systems mit einer
laufenden Komponente und n − 1 Reservekomponenten handelt. Eine solche Lebensdauer
tritt aber auch dann auf, wenn auf ein System Schocks eintreffen, die einem Poissonprozess mit Intensität λ gehorchen, und das System beim n-ten Schock zerstört wird. Eine
Verallgemeinerung der Erlangverteilung ist die Gammaverteilung, sie ist allerdings im Vergleich zur Weibullverteilung weniger populär, weil die Überlebenswahrscheinlichkeit keine
so einfache Gestalt hat. Zur Klasse der Gammaverteilungen gehört auch die χ2 -Verteilung.
2.2.4
Potenzverteilung
Bei der Potenzverteilung ist β ein Formparameter und δ ein Skalenparameter, für
δ = β = 1 ergibt sich die Gleichverteilung im Intervall [0, 1]. Eine PT (β, δ) verteilte
Lebensdauer endet mit Sicherheit vor dem Zeitpunkt δ.
13
KAPITEL 2. GRUNDLAGEN
2.2.5
Logarithmische Normalverteilung
Die logarithmische Normalverteilung wird vor allem als Verteilung von Reparaturdauern verwendet, sie beschreibt aber auch die Einsatzdauern von Fahrzeugen pro Jahr.
Ist X normalverteilt, so ist eX logarithmisch normalverteilt.
Ist nicht bekannt, zu welcher Klasse eine Lebensdauerverteilung gehört, so versucht
man, wenigstens den Typ der Ausfallrate, ob fallend oder steigend, herauszufinden. Bei
Vorliegen eines gewissen Typs können nämlich Abschätzungen mithilfe der Exponentialverteilung herangezogen werden, wobei lediglich die Kenntnis gewisser Momente erforderlich
ist.
2.2.6
IFR- (DFR-) Verteilungen
Man sagt, eine Verteilungsfunktion F ist eine IFR- (DFR-) Verteilung, wenn F (t, τ )
für jedes τ > 0 in t streng monoton steigt (fällt).
IFR (increasing failure rate) bzw. DFR (decreasing failure rate) bedeutet für die Ausfallrate, dass sie streng monoton steigt bzw. fällt.
Beispiele
IFR: Exponentialverteilung, Weibullverteilung mit β ≥ 1, Erlangverteilung, Potenzverteilung
DFR: Exponentialverteilung, Weibullverteilung mit β ≤ 1
Weisen alle Komponenten eines Seriensystems aus unabhängigen Komponenten eine
Lebensdauerverteilung vom selben Typ auf, so hat die Lebensdauerverteilung des Systems
denselben Typ.
Sind X1 , X2 , . . . , Xn unabhängige Zufallvariablen, so heißt die Zufallsvariable
Y eine
P
Mischung von X1 , X2 , . . . , Xn , falls es α1 , α2 , . . . , αn > 0 gibt mit ni=1 αi = 1 und
P [Y < t] =
n
X
αi P [Xi < t] .
i=1
Die Verteilungsfunktion von Y ist also Konvexkombination der Verteilungsfunktionen der
Xi . Dieselbe Beziehung gilt auch für die Überlebens- und die Dichtefunktionen. Eine Mischung tritt z.B. auf, wenn etwa in einer Firma gleichartige Bauteile auf verschiedenen
Maschinen erzeugt werden, sodass sich abhängig davon unterschiedliche Lebensdauern ergeben.
Eine Mischung von exponentialverteiten Zufallsvariablen hat eine DFR-Verteilung.
P
Beweis Sei Xi ∼ E (λi ) und Λ eine Zufallsvariable mit P [Λ = λi ] = αi und ni=1 αi = 1,
dann gilt
F̄Y (t) = P [Y ≥ t] =
=
n
X
i=1
n
X
i=1
αi P [Xi ≥ t]
αi e−λi t = E e−Λt .
14
KAPITEL 2. GRUNDLAGEN
Für die Ausfallrate ergibt sich
d2
d
λY (t) = − 2 ln F̄Y (t)
dt
dt
d2
= − 2 ln E e−Λt
dt
2
E Λ2 e−Λt E e−Λt − E Λe−Λt
= −
(E [e−Λt ])2
≤ 0,
wobei die letzte Gleichheit folgt, indem man die Ableitung in den Erwartungswert hineinzieht, und die Ungleichheit aus der Cauchy-Schwarz-Ungleichung7 .
Abhängig vom Typ der Lebensdauerverteilung, gibt es verschiedene Abschätzungen
für die Überlebenswahrscheinlichkeit. Bezeichnet µk := E[X k ], so gilt etwa8 für eine IFRVerteilung

 −t µk! 1/k
1/k
k
e
für t ≤ µk
F̄X (t) ≥
1/k

0
für t > µk
und für eine DFR-Verteilung
− µt −
e
µ2
+1
2µ2
≤ F̄X (t) ≤
(
t
e− µ
µ
et
für t ≤ µ .
für t > µ
Liegen die Schranken nahe beisammen, so kann die Überlebenswahrscheinlichkeit gut abgeschätzt werden.
7
8
E V 2 E W 2 − (E [V W ])2 ≥ 0
Der Beweis ist nicht trivial.
15
KAPITEL 2. GRUNDLAGEN
2.3
Lebensdauerschätzungen
Es gibt viele Schätz- und Testmethoden, die dazu dienen, die Zuverlässigkeit eines Systems
festzustellen. Man unterscheidet Lebensdauerschätzungen (dauert lang, daher zensurierte
Daten, eventuell Beschleunigungsmodell), Restlebensdauerschätzungen (Wann soll man
erneuern?), Tests unter Grenzbelastungen, Qualitätsüberwachung. Man unterscheidet die
Untersuchungsmethoden auch hinsichtlich folgender Aspekte:
• Destruktive und nicht destruktive Methoden
• Tests im Labor oder in der tatsächlichen Umgebung (simuliert oder echt)
• Analysen auf verschiedenen Levels (Tests für Komponenten, Teilsysteme verschiedener Größe, ganze Systeme)
• Untersuchungsmethoden abhängig von ihrem Zweck
2.3.1
Maximum-Likelihood-Schätzer
Bei einem Schätzproblem kennt man eine Stichprobe x1 , . . . , xn (von Lebensdauern), wobei von den zugehörigen unabhängigen und identisch verteilten Zufallsvariablen X1 , . . . , Xn
nur bekannt ist, dass ihre Verteilung aus einer Familie von Verteilungen stammt, die durch
einen Parametervektor θ ∈ Rp parametrisiert ist.
θ für θ heißt
Die Verteilungsfunktion von Xi wird mit FXi (· |θ) bezeichnet. Ein Schätzer b
erwartungstreu (oder unverzerrt), wenn E(b
θ) = θ gilt.
Eine Folge hvon Schätzern b
θ (X1 , . . . ,iXn )n∈N für θ heißt konsistent, wenn für alle ε > 0
b
gilt lim P |θ (X1 , . . . , Xn ) − θ| < ε = 1.
n→∞
Der Maximum-Likelihood-Schätzer für θ für das Datenmaterial {x1 , . . . , xn } ist jener
Wert b
θ, der die Likelihood-Funktion
L (x1 , . . . , xn |θ) =
n
Y
i=1
fXi (xi |θ)
maximiert. Dabei entspricht die Likelihood-Funktion L (x1 , . . . , xn |θ) der ”Wahrscheinlichkeit”, dass bei Vorliegen von θ die Stichprobe x1 , . . . , xn auftritt. Ein MaximumLikelihood-Schätzer ist nicht notwendigerweise erwartungstreu.
Gegeben sei ein Schätzproblem und seine Likelihood-Funktion L (x1 , . . . , xn |·) : Rp −→ R.
Dann heißt die p × p-Matrix
∂2
I (θ) = E −
ln L (X1 , . . . , Xn |θ)
∂θi ∂θj
1≤i,j≤p
die Fisher’sche Informationsmatrix von X1 , . . . , Xn .
Der Maximum-Likelihood-Schätzer b
θ für θ ist asymptotisch normalverteilt mit Erwartungswertvektor θ und Kovarianzmatrix I −1 (θ) (ohne Beweis; weitere asymptotische Eigenschaften siehe [4] Kapitel 7). Die (näherungsweise) Kenntnis der Verteilung von b
θ
ermöglicht es, einen Test auf Vorliegen eines gegebenen Parameters zu machen und/oder
16
KAPITEL 2. GRUNDLAGEN
ein Konfidenzintervall zu konstruieren. In jedem Fall wird man sich aber mit einem
Schätzer für I (θ) zufrieden geben müssen. Die sogenannte geschätzte Informationsmatrix
#
"
2
∂
ln L (x1 , . . . , xn |θ)
O(b
θ) :=
−
∂θi ∂θj
1≤i,j≤p
b
θ=θ
ist für viele Verteilungen, insbesondere für die Exponentialverteilung, ein konsistenter
Schätzer für I (θ).
Exponentialverteilung - vollständiger Datensatz
Gegeben seien Realisierungen x1 , x2 , . . . , xn von unabhängigen Zufallsvariablen X1 , . . . , Xn ,
die alle exponentialverteilt sind mit unbekanntem Parameter λ. Für λ sind ein Schätzer
und ein Konfidenzintervall gesucht.
Für die logarithmierte Likelihood-Funktion ergibt sich
ln L (x1 , . . . , xn |λ) =
=
n
X
i=1
n
X
i=1
ln (fXi (xi |λ))
n
X
xi .
ln λe−λxi = n ln (λ) − λ
i=1
Durch Extremwertbestimmung erhalten wir als Schätzer für λ
b (x1 , . . . , xn ) = n .
λ
n
P
xi
i=1
Man beachte, dass es sich bei
n
P
xi um die Gesamtzeit für den Test handelt. Um ein
i=1
Konfidenzintervall für λ zu bestimmen,
benötigen wir die Eigenschaft 6. der ExponentiP
alverteilung, dass nämlich 2λ ni=1 Xi ∼ χ2 (2n) gilt. Bezeichnen wir nun mit χ2α (2n) das
α-Quantil der χ2 -Verteilung, dann gilt
#
"
n
X
Xi ≤ χ21− α (2n)
1 − α = P χ2α (2n) ≤ 2λ
2
"
= P χ2α (2n) ≤
2
i=1
2nλ
b (X1 , . . . , Xn )
λ
2
#
≤ χ21− α (2n) .
2
Ein Konfidenzintervall mit Niveau 1 − α für den Parameter λ ist also
"
#
b (X1 , . . . , Xn )
b (X1 , . . . , Xn )
λ
λ
2
2
χ α (2n) ,
χ1− α (2n) .
2
2
2n
2n
Durch einfaches Umformen erhält man auch für die Überlebenswahrscheinlichkeit F X (t) =
exp (−λt) ein Konfidenzintervall mit Niveau 1 − α nämlich
!
!#
"
b (X1 , . . . , Xn )
b (X1 , . . . , Xn )
λ
λ
.
exp −t
χ21− α (2n) , exp −t
χ2α (2n)
2
2
2n
2n
17
KAPITEL 2. GRUNDLAGEN
2.3.2
Maximum-Likelihood-Schätzer für zensurierte Daten
In der Praxis wird man oft nicht so lange warten, bis alle Systeme ausgefallen sind, d.h.
man wird nicht alle Realisierungen der zufälligen Lebensdauern kennen. Es liegt also ein
zensuriertes Datenmaterial vor.
Setzt man eine zeitliche Grenze fest, bei der das Experiment beendet wird, selbst wenn
noch einige Systeme intakt sind, so handelt es sich um rechtsseitig zensurierte Daten.
Dabei werden die Ausfälle von Anfang an bis zu einem fixen oder zufälligen Zeitpunkt
beobachtet. Man unterscheidet 3 Arten von rechtsseitiger Zensurierung.
Zensurierung nach der Ordnungsstatistik (Typ-II-Zensurierung): Das Experiment wird beim r-ten Ausfall beendet. Dabei ist die Gesamtdauer des Experiments zufällig.
Zensurierung zu einem fixen Zeitpunkt (Typ-I-Zensurierung): Das Experiment
wird zum fixen Zeitpunkt c abgebrochen. Hier ist die Anzahl der Ausfälle zufällig. Auch
die Gesamtdauer des Experiments ist zufällig, aber nach oben beschränkt.
Zufällige Zensurierung: Jedes System i wird bis zu einem zufälligen Zeitpunkt Ci
beobachtet. Üblicherweise nimmt man an, dass die Lebensdauer Ti und Ci unabhängige
Zufallsvariablen sind.
Viel seltender als rechtsseitig zensurierte Daten trifft man auf linksseitig zensurierte
Daten, etwa wenn bei einem (wissenschaftlichen) Experiment Lebensdauern auftreten, die
so kurz sind, dass sie von den Messgeräten nicht erfasst werden können. Analog können
auch beidseitig zensurierte Daten auftreten. Eine andere Art der Zensurierung ist
die sogenannte Intervallzensurierung. Sie tritt etwa dann auf, wenn die Systeme nur
in bestimmten periodischen Intervallen überprüft werden. Findet man ein System defekt
vor, so weiß man lediglich, dass es irgendwann seit der letzten Überprüfung ausgefallen
ist.
Die Likelihood-Funktion für rechtsseitig zensurierte Daten
Gegeben seien die Zeitpunkte der rechtsseitigen Zensurierung c1 , c2 , . . . , cn für die Beobachtungen (im Fall der Typ I Zensurierung etwa gilt c1 = c2 = . . . = cn = c). Weiters seien die
unabhängigen und identisch mit Parameter θ ∈ Rp verteilten Zufallsvariablen Y1 , . . . , Yn
gegeben, die zensuriert sind, d.h. es gilt Xi = min {Yi , ci }. Seien nun x1 , x2 , . . . , xn Realisierungen von X1 , . . . , Xn . Der Datenpunkt xi stimmt also mit der Lebensdauer des i-ten
Systems überein, wenn diese kürzer ist als ci , und wird sonst auf ci gesetzt.
Wir definieren zuerst die Mengen
U = {i|xi < ci } , C = {i|xi = ci } ,
die die Indizes der ausgefallenen Systeme (unzensuriert) bzw. der überlebenden Systeme
(zensuriert) beinhalten. Mit Hilfe von U und C stellen wir nun die Likelihood-Funktion
unseres Datensatzes auf.
Y
Y
L (x1 , . . . , xn |θ) =
fXi (xi |θ)
F Xi (xi |θ) .
i∈U
i∈C
18
KAPITEL 2. GRUNDLAGEN
Durch Logarithmieren und Einsetzen von fX (x) = λX (x) · F X (x) bzw.9 F̄X (x) =
exp (−ΛX (x)) ergibt sich
X
X
ln L (x1 , . . . , xn |θ) =
ln (fXi (xi |θ)) +
ln F Xi (xi |θ)
i∈U
=
X
i∈U
=
X
i∈U
ln (λXi (xi |θ)) +
ln (λXi (xi |θ)) −
i∈C
n
X
i=1
n
X
i=1
ln F Xi (xi |θ)
ΛXi (xi |θ) .
Je nachdem welche der Kenngrößen fT , F T , λT und ΛT der Verteilung man zur Verfügung
hat, wird man die geeignete Darstellung verwenden.
Exponentialverteilung - Typ-II-zensurierte Daten
Ein Lebensdauertest von n Systemen, deren Lebensdauern Y1 , . . . , Yn unabhängig und
exponentialverteilt mit unbekanntem Parameter λ sind, wird nach dem r-ten Ausfall abgebrochen. Für λ sind ein Schätzer und ein Konfidenzintervall gesucht.
Die (in diesem Fall zufälligen) Zeitpunkte
ci der Zensurierung sind für alle Systeme gleich
Y(r) , also erhalten wir Xi = min Yi , Y(r) . Liegt nun die Stichprobe x1 , x2 , . . . , xn vor, so
erhalten wir für die logarithmierte Likelihood-Funktion
ln L (x1 , . . . , xn |λ) =
X
i∈U
ln (λ) − λ
n
X
i=1
xi = r ln (λ) − λ((n − r) x(r) +
r
X
x(i) ) .
i=1
Durch Extremwertberechnung erhalten wir den Maximum-Likelihood-Schätzer für λ
b=
λ
Man beachte, dass es sich bei
r
n
P
i=1
n
P
=
xi
r
P
.
(n − r) x(r) + ri=1 x(i)
xi um die Gesamtzeit für den Test handelt. Um ein Konfi-
i=1
denzintervall für λ zu bestimmen, benötigen wir zunächst die Eigenschaft 7. der Exponentialverteilung. Es gilt nämlich für die Ordnungsstatistiken Y(0) = 0, Y(1) , Y(2) , . . . , Y(n) ,
dass die Differenzen aufeinanderfolgender Ordnungsstatistiken vollständig unabhängig und
exponentialverteilt sind, d.h. für k = 1, 2, . . . , n gilt
Y(k) − Y(k−1) ∼ E ((n − k + 1) λ) .
Damit folgt (vgl. Eigenschaft 9. der Exponentialverteilung)
r
X
X(j) + (n − r) X(r) ) ∼ χ2 (2r) .
2λ(
j=1
9
Mit ΛX (x) :=
Rx
0
λX (ξ) dξ bezeichnen wir die kumulierte Ausfallsrate.
19
KAPITEL 2. GRUNDLAGEN
Mit dieser Aussage können wir nun ein Konfidenzintervall herleiten. Es gilt
#
"
r
X
X(i) + (n − r) X(r) ) < χ21− α (2r) =
1 − α = P χ2α (2r) < 2λ(
2
2
i=1
2rλ
2
2
= P χ α (2r) <
< χ1− α (2r) .
2
2
b
λ
Ein Konfidenzintervall mit Niveau 1 − α für den Parameter λ ist also
"
#
b
b
λ
λ
2
2
χ α (2r) , χ1− α (2r) .
2
2r 2
2r
Man beachte, dass bei gleichem λ̂ das Konfidenzintervall nicht von der Gesamtzahl n der
Systeme abhängt. In einem Lebensdauertest mit r Systemen, bei dem man wartet, bis
alle ausgefallen sind, erhält man also λ̂ mit derselben Genauigkeit wie bei einem Test
mit n Systemen, bei dem nach dem r-ten Ausfall abgebrochen wird. Man braucht also
n − r Systeme mehr, um die gleiche Genauigkeit der Schätzung zu erhalten. In der Praxis
heißt dies: Das Kapital, das man durch eine kürzere Versuchszeit spart, muss zumindest
teilweise in einen höheren Materialeinsatz investiert werden.
Exponentialverteilung - Typ-I-zensurierte Daten
Ein Lebensdauertest von n Systemen, deren Lebensdauern Y1 , . . . , Yn unabhängig und
exponentialverteilt mit unbekanntem Parameter λ sind, wird zu einem fixen Zeitpunkt c
abgebrochen. Für λ sind ein Schätzer und ein Konfidenzintervall gesucht.
Die (in diesem Fall fixen) Zeitpunkte ci der Zensurierung sind für alle Systeme gleich c, also
erhalten wir Xi = min {Yi , c}. Von den ursprünglich n vorhandenen Systemen sind bis zum
Zeitpunkt c eine zufällige Anzahl R ausgefallen. Liegt nun die Stichprobe x1 , x2 , . . . , xn
vor, wobei vor c eine Anzahl von r Systemen ausgefallen sind, so erhalten wir für die
logarithmierte Likelihood-Funktion
ln L(x1 , ..., xn |λ) =
X
i∈U
ln λXi (xi , λ) −
= r ln λ − λ
n
X
n
X
ΛX (xi , λ)
i=1
xi
i=1
Für den Schätzer ergibt sich daraus dieselbe Formel wie bei der Typ-II-Zensurierung
b=
λ
Auch hier handelt es sich bei
n
P
i=1
r
n
P
.
xi
i=1
xi um die Gesamtzeit für den Test. Auch das Konfidenz-
intervall für λ führt man heuristisch auf das der Typ-II-Zensurierung zurück, indem man
annimmt, man hätte statt c den Zeitpunkt X(r) oder X(r+1) gewählt (siehe [4] 8.2).
20
KAPITEL 2. GRUNDLAGEN
Exponentialverteilung - zufällig zensurierte Daten
Ein Lebensdauertest von n Systemen, deren Lebensdauern Y1 , . . . , Yn unabhängig und
exponentialverteilt mit unbekanntem Parameter λ sind, wird für jedes System i zu einem
zufälligen Zeitpunkt Ci abgebrochen, wobei C1 , . . . , Cn unabhängig und unabhängig von
Y1 , . . . , Yn sind. Für λ sind ein Schätzer und ein Konfidenzintervall gesucht.
In diesem Fall gilt Xi = min {Yi , Ci }. Von den ursprünglich n vorhandenen Systemen sind
eine zufällige Anzahl R ausgefallen. Liegt nun die Stichprobe x1 , x2 , . . . , xn vor, wobei eine
Anzahl von r Systemen ausgefallen sind, so erhalten wir für die logarithmierte LikelihoodFunktion wie oben
n
X
xi
ln L(x1 , ..., xn |λ) = r ln λ − λ
i=1
und daher auch wie oben
1
R
b=
λ
Pn
r
n
P
.
xi
i=1
Da
i=1 Xi eine Zufallsvariable ist, deren Verteilung in der Regel analytisch nicht
zugänglich ist, behilft man sich bei der Bestimmung eines Konfidenzintervalls mit asymptob asymptotisch normalverteilt ist mit Erwartungswert
tischen Aussagen. Man weiß, dass λ
λ und Varianz
−1
∂2
−1
I (λ)
=
E − 2 ln L (X1 , . . . , Xn |θ)
∂λ
−1
R
λ2
=
E 2
.
=
E [R]
λ
Näherungsweise erhält man daher für den Schätzer λ̂ eine Normalverteilung mit Erwartungswert λ und Varianz
2
λ̂
−1
O(λ̂) =
.
r
Übung: Likelihoodfunktion für links und rechts zensurierte Daten
Beispiel - Vergleich der verschiedenen Konfidenzintervalle
An einer Anzahl von 21 Patienten wurde ein Medikament getestet. Man nimmt an, dass
dessen Verweilzeit im Körper negativ exponentialverteilt ist. Bei insgesamt 9 Patienten
konnte das Medikament vor Ablauf der Beobachtungszeit nicht mehr nachgewiesen werden.
Die gesamte Studie dauerte 359 Wochen. Für den Parameter λ der Exponentialverteilung
sind ein Schätzer und ein Konfidenzintervall gesucht.
Für den Schätzer erhalten wir
b=
λ
r
n
P
=
xi
9
= 0.0 251.
359
i=1
Im Mittel verweilt das Medikament also ca. 40 Wochen im Körper.
21
KAPITEL 2. GRUNDLAGEN
Als 95%-Konfidenzintervall für λ bei Typ-II-Zensurierung ergibt sich
0.0115 =
b 2 (18)
b 2 (18)
λχ
λχ
2.5
97.5
<λ<
= 0.0439.
18
18
Die erwartete Verweilzeit liegt also in diesem Fall mit 95%-iger Sicherheit zwischen etwa
23 und 87 Wochen.
Berechnet man das 95%-Konfidenzintervall für λ mit Hilfe der asymptotischen Normalverteilung von λ̂, so ergibt sich
2
b−λ
∼
λ
N (0, 1) ,
− 21 b ungefähr
O (λ)
wobei O(λ̂)−1 = λ̂r der Schätzer für die Varianz von λ̂ ist. Bezeichnen wir mit nα das
α-Quantil der Standardnormalverteilung, so gilt mit 95%-iger Sicherheit
b + n97.5 √λ̂ = 0.0415,
b − n97.5 √λ̂ < λ < λ
0.0087 = λ
9
9
was einer mittleren Verweilzeit zwischen 24 und 115 Wochen entspricht.
Man beachte, dass man auch mit Hilfe des Maximum-Likelihood-Quotiententests ein Konfidenzintervall konstruieren hätte können.
Wiederholung: Maximum-Likelihood-Quotiententest
Weibullverteilung - rechtsseitig zensurierte Daten
Wir wollen nun einen Maximum-Likelihood-Schätzer für die Parameter der Weibullverteilung gewinnen. Liegt die Stichprobe x1 , . . . , xn mit r unzensurierten Werten vor, so hat
die logarithmierte Likelihood-Funktion hier die Gestalt
ln L (x1 , . . . , xn | (λ, β)) =
=
X
i∈U
X
i∈U
ln (λXi (xi | (λ, β))) +
ln λβxβ−1
+
i
n
X
= r ln λ + r ln β + (β − 1)
0 =
0 =
r
λ̂
r
β̂
−
+
n
X
i=1
β
X
i∈U
xβ̂i
i∈U
ln xi − λ̂
n
X
i=1
ln xi − λ
i=1
X
ln F Xi (xi | (λ, β))
ln e−λxi
i=1
Das optimale Paar λ̂, β̂ muss die beiden Gleichungen
n
X
xβ̂i ln xi
n
X
i=1
xβi .
22
KAPITEL 2. GRUNDLAGEN
erfüllen. Berechnet man aus der ersten Gleichung λ̂ und setzt es in die zweite ein, so erhält
man eine nichtlineare Gleichung für β̂, die numerisch etwa mit dem Newtonverfahren10
leicht zu lösen ist. Als Startwert lässt sich das durch die graphische Methode (siehe unten)
gefundene β verwenden.
Ein asymptotischer Konfidenzbereich läßt sich mit Hilfe der beobachteten Fisher’schen
Informationsmatrix bestimmen. Es gilt


Pn
r
xβ̂i ln xi
2
i=1
λ̂
.
O λ̂, β̂ =  P
Pn
β̂
β̂
n
2
r
ln
x
x
(ln
x
)
+
λ̂
x
i
i
2
i=1 i
i=1 i
β̂
Häufig werden auch die Logarithmen der Lebensdauern verwendet und die Parameter der
entsprechenden Extremwertverteilung geschätzt.
Beispiel:
Lebensdauern von Kugellagern vgl.[4] E 8.16 (E 8.1)
2.3.3
Graphische Methoden
Diese Methoden beruhen darauf, dass man, wenn man eine Verteilungsfunktion FX (t) auf
einem geeigneten Papier aufträgt, eine Gerade erhält. Sie sind bei IngenieurInnen auch
heute noch relativ weit verbreitet und dienen in erster Linie einer ersten Orientierung und
wie etwa bei der Weibullverteilung der Gewinnung von Startwerten.
Im Fall einer Exponentialverteilung, d.h. FX (t) = 1 − e−λt wird − ln (1 − FX (t)) gegen t
aufgetragen. Man erhält eine Gerade durch den Ursprung mit Steigung λ. Soll nun aus einem Datenmaterial mit den beobachteten Lebensdauern x(1) < . . . < x(n) der Parameter λ
geschätzt werden, so wird gegen x(i) auf der waagrechten Achse − ln 1 − F̂X x(i) senk
i
recht aufgetragen, wobei F̂X x(i) = n+1
ungefähr der empirischen Verteilungsfunktion
entspricht, und die Regressionsgerade durch den Ursprung eingezeichnet. Den Schätzwert
für 1/λ liest man auf der waagrechten Achse beim Funktionswert 1 ab. (Folie)
β
Im Fall einer Weibullverteilung, d.h. FX (t) = 1 − e−λt wird analog ln (− ln (1 − FX (t)))
gegen ln t aufgetragen. Man erhält eine Gerade durch den Ursprung mit Steigung β und
Achsenabschnitt ln λ. Näheres siehe [1] 9.4.
2.4
Strukturierte Systeme
Wir nehmen nun an, ein System bestehe aus n unabhängigen Elementen (Teilsystemen)
mit den Lebensdauern Xi , deren Verteilungen man kennt. Gesucht ist die Verteilung der
Lebensdauer X des Systems. Diese hängt von der Struktur des Systems ab. Im einfachsten
Fall handelt es sich um Seriensysteme, Parallelsysteme oder k-aus-n-Systeme.
10
In Mathematica leistet der Befehl FindRoot das Gewünschte.
23
KAPITEL 2. GRUNDLAGEN
2.4.1
Seriensystem
Für die Lebensdauer Xs eines Seriensystems gilt
Xs = min {X1 , . . . , Xn } ,
das System ist nur solange intakt, solange alle Elemente
Qn intakt sind. Aus der Unabhängigkeit der Elemente folgt die Produktformel F̄Xs (t) = i=1 F̄Xi (t) für die Überlebenswahrscheinlichkeit. Die Ausfallrate des Seriensystems kennen wir bereits, sie ist die Summe der
Ausfallraten der Elemente. Durch Seriensysteme können nicht nur in naheliegender Weise
in Serie geschaltete Komponenten modelliert werden, die durch Unterbrechung des Stromkreises ausfallen, sondern alle Systeme, bei denen ein Systemausfall durch n unabhängige
global wirksame Ursachen zustande kommen kann.
Aufgabe
Man schätze die Überlebenswahrscheinlichkeit eines Seriensystems ab, wenn man weiß,
dass die Lebensdauern der Elemente einer IFR-Verteilung genügen, und ihre Erwartungswerte bekannt sind.
2.4.2
Parallelsystem
Für die Lebensdauer Xp eines Parallelsystems gilt
Xp = max {X1 , . . . , Xn } ,
das System ist solange intakt, solange zumindest ein Element intakt ist. Es fällt dann
aus, wenn alle Elemente ausfallen.
Aus der Unabhängigkeit der Elemente folgt hier die
Q
Produktformel FXs (t) = ni=1 FXi (t) für die Ausfallwahrscheinlichkeit. Parallelsysteme
dienen zur Modellierung von Systemen, bei denen es zu einem Arbeitselement n − 1 Reserveelemente gibt, die beim Ausfall dessen Funktion übernehmen, falls sie nicht selbst
früher ausfallen.
Eine elektrische Parallelschaltung muss vom zuverlässigkeitstheoretischen Standpunkt
aus nicht unbedingt ein Parallelsystem sein. Fallen die Elemente etwa durch Kurzschluss
aus, so entsteht in der Parallelschaltung ein Kurzschluss, sobald mindestens ein Element
ausgefallen ist. Aus der Sicht der Zuverlässigkeitstheorie handelt es sich damit um ein
Seriensystem.
Aufgabe
Man berechne die mittlere Lebensdauer eines Parallelsystems aus n unabhängigen Komponenten mit exponentialverteilter (Parameter λ ) Lebensdauer. Wieviele Elemente braucht
man im Parallelsystem, um die mittlere Lebensdauer zu verdreifachen?
Aus wievielen Komponenten mit exponentialverteilter (Parameter
λ) Lebensdauer muß
ein Parallelsystem mindestens bestehen, wenn es im Intervall 0, λ1 mit 95% Wahrscheinlichkeit nicht ausfallen soll.
24
KAPITEL 2. GRUNDLAGEN
2.4.3
Redundante Systeme
Parallelsysteme können nun insofern verallgemeinert werden, als die Reserveelemente nicht
die ganze Zeit in Betrieb sein müssen. Man unterscheidet dabei heiße, warme und kalte Reserve. Man spricht auch von belasteter, erleichterter und unbelasteter Redundanz.
Die Elemente können selbst auch wiederum Teilsysteme sein, zu denen es eine Reserve gibt.
Die Anzahl der Elemente im Parallelsystem heißt Maßstab der Redundanz. Ein höherer
Maßstab liefert bei gleicher Anzahl von Elementen im System in der Regel zwar eine höhere
Ausfallwahrscheinlichkeit, erfordert aber weniger (fehleranfällige) Umschaltvorgänge und
ist technisch leichter zu realisieren.
Häufig sind auch k-aus-n-Systeme anzutreffen, die aus n Elementen mit identisch
verteilten Lebensdauern X1 , . . . , Xn bestehen und genau dann intakt sind, wenn zumindest
k Elemente intakt sind. Für die Überlebenswahrscheinlichkeit des k-aus-n-Systems gilt
n X
n
F̄X (t) =
F̄X1 (t)j FX1 (t)n−j .
j
j=k
Für exponentiell verteilte Lebensdauern Xi ∼ E (λ) wird die erwartete Lebensdauer eines
k-aus-n-Systems wie folgt berechnet:
Z ∞
F̄X (t) dt
E[X] =
0
=
=
n Z
X
n
j=k
n X
j
n
j
j=k
∞
0
Z
0
1
n−j
e−λtj 1 − e−λt
dt
z j (1 − z)n−j
1
dz
λz
n
=
1X1
.
λ
j
j=k
Ein typisches Beispiel für ein k-aus-n-System dient etwa zur Überwachung eines schwer
messbaren Parameters, wobei n Sensoren (die bei der Messung relativ leicht kaputt gehen
können) den Parameter messen und einem Auswahlelement mitteilen. Sind zumindest
k Messwerte (abgesehen von Messfehlern) ident, so wird dieser Wert als wahrer Wert
angesehen und zum Systemausgang geschaltet. Diejenigen Sensoren, die falsche Meßwerte
liefern, werden instandgesetzt.
Man spricht von Majoritätsschaltungen, wenn k > n2 gilt. Häufig werden 2-aus-3Systeme verwendet.
2.5
2.5.1
Spezielle Modelle
Competing Riscs
Dieses Modell wird verwendet, wenn es für einen Systemausfall verschiedene Ursachen gibt,
etwa, wenn ein elektrisches Gerät durch Kurzschluss oder Stromausfall ausfallen kann. So
25
KAPITEL 2. GRUNDLAGEN
kann durch Kombination mehrerer unabhängiger Ausfallursachen eine Ausfallrate entstehen, die sich als Summe der einzelnen Ausfallraten ergibt. Auf diese Art kann man auch
die ”Badewannenkurve” erreichen.
Betrachtet man die Ausfälle durch den Fehler j (j = 1, . . . , k nicht unbedingt unabhängig),
so muss man zwischen den potentiellen Lebensdauern (”net lives”) und den beobachteten
Lebensdauern (”crude lives”) unterscheiden. Die potentielle Lebensdauer (bezeichnet mit
Xj ) würde erreicht, wenn es nur den Fehler j gäbe. Sie wird aber nur dann beobachtet,
wenn der Fehler j vor allen anderen Fehlern zum Ausfall führt. Die beobachtete Lebensdauer mit Fehler j bezeichnen wir mit Yj . Mit T = min {X1 , . . . , Xk } bezeichnen wir die
Lebensdauer des Systems (mit einem beliebigen Fehler). Mit π j = P [T = Xj ] die Fehlerwahrscheinlichkeit für den Fehler j.
Wie man aus
FYj (t) = P [Xj < t | T = Xj ] = P [T < t | T = Xj ] ,
FT (t) =
k
X
P [T < t, T = Xj ] =
k
X
π j FYj (t)
j=1
j=1
sieht, sind die Verteilungen der Yj aus der gemeinsamen Verteilung der Xi leicht zu bestimmen. Die Verteilung von T ist durch die Verteilungen der Yj und die Fehlerwahrscheinlichkeiten festgelegt.
Die umgekehrte Richtung, nämlich die Verteilungen der Xi aus den Verteilungen der Yj
zu berechnen, ist nur möglich, wenn die Xi vollständig unabhängig sind. Dann gilt für die
Ausfallrate
π i fYi (t)
λXi (t) = Pk
.
j=1 π j F̄Yj (t)
Man beachte, dass im Nenner gerade F̄T (t) steht.
Beweis Wir berechnen zuerst
k
X
π j F̄Yj (t) = F̄T (t) =
j=1
k
Y
j=1
P [Xj ≥ t] ,
π i fYi (t) dt = P [T = Xi ] P [Yi ∈ [t, t + dt[]
= P [T = Xi ] P [Xi ∈ [t, t + dt[ | T = Xi ]
= P [Xi ∈ [t, t + dt[ , T = Xi ]
Y
P [Xj ≥ t + dt] .
= P [Xi ∈ [t, t + dt[]
j6=i
Daraus folgt nun
π i fYi (t) = fXi (t)
Y
j6=i
und durch Einsetzen
Pk
π i fYi (t)
j=1 π j F̄Yj
(t)
=
=
P [Xj ≥ t]
fXi (t)
Qk
Q
j6=i P [Xj
j=1 P [Xj
fXi (t)
P [Xi ≥ t]
≥ t]
≥ t]
KAPITEL 2. GRUNDLAGEN
26
die Behauptung.
Beispiel
Ein Gerät habe zwei unabhängige Ausfallursachen mit X1 ∼ We (5, 0.5) und X2 ∼ We (5, 3).
Man bestimme die Verteilung von T , die Verteilungen von Yj und die zugehörigen Ausfallraten und Erwartungswerte.
2.5.2
Mischungen
Bei einem solchen Modell nimmt man an, dass die Lebensdauer X von einem zufälligen
Parameter θ abhängt, etwa, weil die Systeme auf unterschiedlichen Maschinen, bei unterschiedlicher Temperatur oder bei unterschiedlichen Verhältnissen produziert wurden. Es
ergibt sich
Z
FX (t) =
FX (t|δ) dFθ (δ) ,
wobei FX (t|δ) = P [X < t | θ = δ] bezeichnet. Der Parameter θ kann eine diskrete oder
eine stetige Zufallsvariable sein, er heißt Mischungsparameter. In diese Modellklasse fallen etwa endliche Mischungsmodelle, Modelle mit einem stochastischen Parameter und
Bayes’sche Modelle.
Beispiel
Eine Lebensdauer X sei mit Wahrscheinlichkeit p1 exponentialverteilt mit Parameter λ1
und mit Wahrscheinlichkeit p2 exponentialverteilt mit Parameter λ2 . Man bestimme die
Verteilung von X (Hyperexponential-Verteilung).
Beispiel
Eine Lebensdauer X sei exponentialverteilt mit Parameter Λ, wobei Λ exponentialverteilt
ist mit Parameter λ. Man bestimme die Verteilung von X (Log-Logit-Verteilung).
Nicht einmal bei endlichen Mischungsmodellen ist es möglich, aus der Mischungsverteilung, die zugrundeliegenden bedingten Verteilungen zu bestimmen.
2.5.3
Einfluss unterschiedlicher Lebensbedingungen
Man nimmt an, die Lebensdauer X hängt von den Lebensbedingungen ~z ab, wobei ~z = o
den Standardbedingungen entspricht. Ein solcher Ansatz wird dann gebraucht, wenn man
etwa in verkürzter Zeit eine Lebensdauerschätzung oder einen Test durchführen will.
”Accelerated Life” - Ansatz
In diesem Fall nimmt man an, dass eine erhöhte Belastung eine Beschleunigung im zeitlichen Verlauf mit sich bringt, dass sich also im belasteten Fall die Zeit um einen gewissen
27
KAPITEL 2. GRUNDLAGEN
Faktor verkürzt. Man spricht von linearer Beschleunigung. Bezeichnet Ψ (~z) den Beschleunigungsfaktor, so gilt für die Lebensdauern X (~z) und X (o),
X (~z) =
1
X (o)
Ψ (~z)
und daher für ihre Ausfallwahrscheinlichkeit
FX(~z) (t) = FX(o) (Ψ (~z) t) .
Man beachte, dass, falls wirklich eine Beschleunigung vorliegt, Ψ (~z) > 1 gelten muss.
Spezielle parametrische Ansätze für Ψ (~z) werden im Folgenden beschrieben.
Das Arrheniusmodell ist physikalisch motiviert und wird dann verwendet, wenn die
die Lebensdauer X von der Temperatur T abhängt. Man wählt
∆H
,
X (T ) = A exp
kT
wobei A und ∆H unbekannte Konstante sind und k die Boltzmann-Konstante. Mit
∆H
X (T0 ) = A exp
kT0
ergibt sich
X (T ) = exp
∆H
k
1
1
−
T
T0
X (T0 ) .
Im Rahmen dieses Modells reicht also eine Schätzung von ∆H aus, um die Beschleunigungsfaktoren zwischen beliebigen Temperaturen zu gewinnen.
Das Eyringmodell lässt außer der Temperatur T auch andere Belastungen S zu
∆H
C
X (T, S) = A T α exp
exp
B+
S .
kT
T
Die Formel wurde durch physikalisch-chemische Überlegungen aus der Quantenmechanik
und der chemischen Reaktionsdynamik theoretisch hergeleitet. In diesem Zusammenhang
kann ∆H physikalisch als Aktivierungsenergie für ein Elektron interpretiert werden. Mehrere nicht thermische Belastungen Si gehen in Form weiterer Faktoren der Gestalt
Ci
Si
exp
Bi +
T
ein. In einem kleinen Temperaturbereich oder wenn α klein ist und außer der Temperatur
keine Belastungen vorliegen, geht das Eyringmodell in das Arrheniusmodell über.
Beispiel Die Lebensdauer eines elektronischen Bauteils hängt nach dem Eyringmodell von Temperatur und Spannung ab. Wie geht man beschleunigt vor, um die Lebensdauer unter Normalbedingungen zu schätzen?
28
KAPITEL 2. GRUNDLAGEN
t Der statistische Ansatz setzt Ψ (~z) = exp ~β ~z . Damit ergibt sich aus
t X (o)
= exp ~β ~z
X (~z)
durch Logarithmieren
ln X (o) − ln X (~z) = β 1 z1 + . . . + β k zk .
Man erhält also ein Regressionsmodell für ln X (~z) in Abhängigkeit von ~z.
”Proportional Hazards” - Ansatz
Hier wird die Proportionalität bei der Ausfallrate angenommen, d.h.
λX(~z) (t) = Ψ (~z) λX(o) (t) .
Aufgabe Berechnen Sie für beide Ansätze (Accelerated Life und Proportional Hazards)
die anderen Kenngrößen der Verteilung von X (~z).
Zum Vergleich der beiden Ansätze siehe auch [4] Seite 126.
Kapitel 3
Boolesche Zuverlässigkeitsmodelle
In diesem Kapitel geht es darum, die Zuverlässigkeit von komplizierteren Systemen zu
bestimmen, wobei die Zustände sowohl der Elemente als auch des Systems durch Boolesche
(d.h. binäre) Variablen beschrieben werden und sich der Zustand des Systems eindeutig aus
den Zuständen seiner Komponenten (Elemente) ergibt. Ein Zeitparameter tritt in diesem
Kapitel nicht auf, da wir stets einen fixen Zeitpunkt betrachten. Eine exakte Berechnung
der Zuverlässigkeit kann man nur von kleinen bis mittelgroßen Systemen (<100 Elemente)
durchführen, da die Rechenzeit exponentiell wächst.
Ein System wird durch ein Zuverlässigkeitsschaltbild veranschaulicht. Das ist ein
endlicher gerichteter Graph mit zwei ausgezeichneten Knoten, dem Eingang und dem
Ausgang, und markierten Kanten. Jede Kante des Graphen verkörpert ein Element des
Systems (durch die Marke zugeordnet) und jedes Element wird durch mindestens eine
Kante repräsentiert. Jede Kante des Graphen ist mit dem Zustand 0 oder 1 des zugehörigen
Elements bewertet. Der Graph ist so anzulegen, dass das System genau dann intakt ist,
wenn zumindest ein gerichteter Weg vom Eingang zum Ausgang führt, der nur Kanten
mit Bewertung 1 enthält.
Man beachte, dass endliche gerichtete Graphen spezielle Zuverlässigkeitsschaltbilder
sind.
Beispiele für Zuverlässigkeitsschaltbilder
• Seriensystem
• Parallelsystem
• 2-aus-3-System
• Brückensystem
Straßen-, Telefon-, Computernetze oder Energieverbundnetze können direkt als Zuverlässigkeitsschaltbilder interpretiert werden. Da jede Kante eine gewisse Intaktwahrscheinlichkeit hat, handelt es sich um eine stochastische Netzstruktur. Man sagt, zwei
Knoten hängen zusammen, wenn ein Pfad von einem zum anderen führt. Hier sind verschiedene Arten von Zusammenhangswahrscheinlichkeiten interessant:
29
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
30
• Wahrscheinlichkeit, dass zwei vorgegebene Knoten zusammenhängen.
• Wahrscheinlichkeit, dass ein vorgegebener Knoten mit jedem anderen zusammenhängt.
• Wahrscheinlichkeit, dass jeder Knoten mit jedem zusammenhängt.
3.1
Boolesche Funktionen
Eine Boolesche Variable kann nur die Werte 0 oder 1 annehmen. Die wichtigsten Verknüpfungen von Booleschen Variablen x und y sind
1 falls x = 0
,
• Negation x̄ = 1 − x =
0 falls x = 1
1 falls x = y = 1
,
• Konjunktion xy = x ∧ y = min {x, y} =
0
sonst
0 falls x = y = 0
• Disjunktion x ∨ y = x + y − xy = max {x, y} =
= 1 − x̄ȳ.
1
sonst
Wir benützen die jeweils erste Schreibweise und vereinbaren, dass die Konjunktion stärker
bindet als die Disjunktion. Zwei Boolesche Variablen heißen orthogonal, wenn xy = 0
gilt. Im Falle der Orthogonalität entspricht die Disjunktion der Addition. Es gelten die
folgenden Verknüfungsregeln:
• Idempotenz x ∨ x = x, xx = x
• Kommutativität x ∨ y = y ∨ x, xy = yx
• Assoziativität x ∨ (y ∨ z) = (x ∨ y) ∨ z, x (yz) = (xy) z
• Distributivität x (y ∨ z) = xy ∨ xz, x ∨ yz = (x ∨ y) (x ∨ z)
• De Morgan Regeln x ∨ y = x̄ȳ
• Absorption x ∨ xy = x, x (x ∨ y) = x
• Doppelte Negation x = x
• Verschmelzung x ∨ x̄ = 1, xx̄ = 0
• Orthogonalisierung x ∨ y = x + x̄y
Wegen der Distributivität kann man Konjunktion und Disjunktion auf endlich viele Variablen anwenden, ohne Klammern zu setzen. Wir schreiben für die n-stellige Konjunktion
bzw. Disjunktion
n
Y
i=1
n
_
i=1
xi =
n
^
i=1
xi = min {x1 , . . . , xn } bzw.
xi = 1 −
n
Y
i=1
x̄i = max {x1 , . . . , xn } .
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
31
Eine Funktion ϕ : {0, 1}n → {0, 1} heißt Boolesche Funktion der Ordnung n. Theoretisch kann eine Boolesche Funktion der Ordnung n stets als Wertetabelle angegeben werden, in der zu jeder Belegung für die Variablen (insgesamt 2n Belegungen) ~x = (x1 , . . . , xn )
der Funktionswert ϕ (~x) angegeben wird. Zwei Boolesche Funktionen ϕ1 und ϕ2 der Ordnung n heißen logisch äquivalent, wenn ihre Wertetabellen ident sind, d.h. für alle
~x ∈ {0, 1}n gilt ϕ1 (~x) = ϕ2 (~x). Zwei Boolesche Funktionen ϕ1 und ϕ2 heißen orthogonal, wenn ϕ1 ϕ2 = 0 gilt.
Die disjunktive Normalform von ϕ hat die Gestalt
ϕ (~x) =
md
_
Ci (~x) ,
mk
Y
Di (~x) ,
i=1
V
V
wobei Ci (~x) Ausdrücke der Gestalt j∈J 1 xj j∈J 0 x̄j sind. Zwei solche Ausdrücke sind
i
i
orthogonal, wenn in einem ein y vorkommt und im anderen ȳ. Sind nun die Ausdrücke
Ci (~x) paarweise orthogonal, so kann die disjunktive Normalform als Summe geschrieben
werden. Sie heißt dann Orthogonalform.
Die konjunktive Normalform von ϕ hat die Gestalt
ϕ (~x) =
i=1
W
W
wobei Di (~x) Ausdrücke der Gestalt k∈K 1 xk k∈K 0 x̄k sind.
i
i
Ist ein System durch ein Zuverlässigkeitsschaltbild gegeben, so wird eine möglichst
einfache Boolesche Funktion ϕ, die Strukturfunktion gesucht, sodass der Zustand z
des Systems durch
z = ϕ (~z)
aus den Zuständen ~z = (z1 , . . . , zn ) der Elemente bestimmt wird.
Beispiele für Strukturfunktionen
Q
• Seriensystem ϕ (~z) = ni=1 zi - n-stellige Konjunktion
W
• Parallelsystem ϕ (~z) = ni=1 zi - n-stellige Disjunktion
Pn
1 falls
i=1 zi ≥ k
• k-aus-n-System ϕ (~z) =
0
sonst
Wir bezeichnen mit ~ei den i-ten Einheitsvektor. Das Element i eines Systems heißt irrelevant, wenn für alle ~z
ϕ (~z − zi~ei ) = ϕ (~z) = ϕ (~z + z̄i~ei )
gilt. Sonst ist es relevant. Ein binäres System heißt monoton, wenn alle Elemente relevant sind und für alle i und alle ~z
ϕ (~z − zi~ei ) ≤ ϕ (~z) ≤ ϕ (~z + z̄i~ei )
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
32
gilt. Für jedes monotone System gilt
n
Y
i=1
= 0,
ϕ ~0
= 1,
ϕ ~1
zi ≤ ϕ (~z) ≤ 1 −
n
Y
z̄i .
i=1
Gegeben sei ein System S mit Strukturfunktion ϕ. Das System mit Strukturfunktion
ϕ∗ (~z) = 1 − ϕ ~z
heißt das zu S duale System, ϕ∗ heißt die zu ϕ duale Strukturfunktion. Man rechnet leicht
nach, dass ϕ∗∗ = ϕ gilt.
Beispiele für duale Systeme
• Das duale System zum Seriensystem ist das Parallelsystem.
• Das duale System zum Parallelsystem ist das Seriensystem.
• Das duale System zum k-aus-n-System ist das (n − k + 1) -aus-n-System. Insbesondere ist ein 2-aus-3-System zu sich selbst dual.
Das duale System beinhaltet dieselbe Information wie das ursprüngliche. Oft ist allerdings
die Analyse des dualen Systems einfacher und deshalb vorzuziehen.
Beispiel
Gegeben sei ein System, das durch Serienschaltung einer Parallelschaltung der Elemente
1 und 2 und einer Parallelschaltung der Elemente 3 und 4 entsteht. Man bestimme seine
Strukturfunktion, sowie die duale Strukturfunktion und das duale System.
ϕ (~z) = (1 − z̄1 z̄2 ) (1 − z̄3 z̄4 )
ϕ∗ (~z) = 1 − ϕ ~z
= 1 − (1 − z1 z2 ) (1 − z3 z4 )
= 1 − z1 z2 z3 z4 .
Wir erkennen ϕ∗ als Strukturfunktion eines Parallelsystems, in dem zu einer Serienschaltung der Elemente 1 und 2 eine Serienschaltung der Elemente 3 und 4 parallel geschaltet
ist.
In der Praxis können sehr wohl nicht monotone Systeme auftreten, wie etwa eine Anordnung, die aus einem Aktor (etwa einer Pumpe, die auf ein Steuergerät reagiert), einem
Sensor (etwa für die Höhe des Flüssigkeitspegels) und einem Reaktor (Steuergerät für
Pumpe) besteht. Das System arbeitet richtig, wenn die Anordnung das Ansteigen des
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
33
Flüssigkeitspegels über eine gewisse Marke verhindert. Das geschieht genau dann, wenn
A, S und R richtig arbeiten, aber auch, wenn A nicht richtig arbeitet, aber S richtig anzeigt
und R richtig reagiert, aber auch dann, wenn A nicht richtig arbeitet, S falsch anzeigt und
auch R falsch reagiert. Wir erhalten also
ϕ (zA , zS , zR ) = zA zS zR ∨ z̄A zS zR ∨ z̄A z̄S z̄R .
Bei dieser Strukturfunktion gilt ϕ (0, 0, 0) = 1. Damit ist das System nicht monoton. Im
folgenden beschränken wir uns aber auf monotone Systeme.
3.2
3.2.1
Ermittlung der Strukturfunktion
Pivotzerlegung
Wegen der Zerlegungsformel für ϕ mit dem Pivotelement i, nämlich
ϕ (~z) = z̄i ϕ z1 , . . . ,
0
, . . . , zn + zi ϕ z1 , . . . ,
1
, . . . , zn
i−te Stelle
i−te Stelle
= z̄i ϕ (~z − zi~ei ) + zi ϕ (~z + z̄i~ei )
läßt sich jede Strukturfunktion n-ter Ordnung (n > 1) als Summe zweier orthogonaler
Boolescher Funktionen darstellen. Man beachte, dass ϕ (~z − zi~ei ) und ϕ (~z + z̄i~ei ) Strukturfunktionen (n − 1)-ter Ordnung sind, wenn man das dafür irrelevante Element zi entfernt. Durch sukzessive Anwendung dieser Pivotzerlegung (Faktorisierung, Dekomposition)
erhält man nach Ausmultiplizieren eine Orthogonalform der Strukturfunktion. Setzt man
außerdem z̄k = 1−zk , so erhält man nach Ausmultiplizieren und Sortieren nach der Anzahl
der Linearfaktoren die sogenannte Linearform der Strukturfunktion. Diese ist eindeutig
bestimmt.
Beispiel - Brückenstruktur
Wir wählen das Brückenelement 3 als Pivotelement und erhalten
ϕ (~z) = z̄3 ϕ (~z − z3~e3 ) + z3 ϕ (~z + z̄3~e3 )
= z̄3
ϕ (z1 , z2 , 0, z4 , z5 )
{z
}
|
+z3
P arallel(Serie(1,4),Serie(2,5))
ϕ (z1 , z2 , 1, z4 , z5 )
|
{z
}
Serie(P arallel(1,2),P arallel(4,5))
= z̄3 (1 − z1 z4 z2 z5 ) + z3 (1 − z̄1 z̄2 ) (1 − z̄4 z̄5 ) ,
was durch Ausmultiplizieren eine Orthogonalform
ϕ (~z) = z̄3 (1 − (1 − z1 z4 ) (1 − z2 z5 )) + z3 (1 − z̄1 z̄2 ) (1 − z̄4 z̄5 )
= z̄3 z1 z4 + z̄3 z2 z5 − z̄3 z1 z4 z2 z5 + z3 − z3 z̄1 z̄2 − z3 z̄4 z̄5 + z3 z̄1 z̄2 z̄4 z̄5
ergibt. Einsetzen von z̄k = 1 − zk , Ausmultiplizieren und Sortieren ergibt die Linearform
ϕ (~z) = z1 z4 + z2 z5 + z1 z3 z5 + z2 z3 z4
−z1 z2 z3 z4 − z1 z2 z3 z5 − z1 z2 z4 z5 − z1 z3 z4 z5 − z2 z3 z4 z5
+2z1 z2 z3 z4 z5
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
34
Wie man am Beispiel sieht, ist eine geschickte Wahl des Pivotelements wesentlich.
3.2.2
Pfad- und Schnittdarstellungen
Jeden Vektor ~z mit ϕ (~z) = 1 nennen wir Pfad, jeden Vektor ~z mit ϕ (~z) = 0 nennen wir
Schnitt von ϕ. Der Vektor ~0 ist stets ein Schnitt, der triviale Schnitt, ~1 stets ein Pfad, der
triviale Pfad. Durch die Strukturfunktion ϕ wird die Menge der Zustandsvektoren {0, 1}n
in zwei disjunkte Teilmengen {~z : ϕ (~z) = 1} und {~z : ϕ (~z) = 0} zerlegt.
Auf der Menge der Zustandsvektoren gelte die Teilordnung ≺, wobei
~y ≺ ~z ⇔ Für alle i gilt yi ≤ zi aber ~y 6= ~z.
Ein Pfad z heißt minimal, wenn für alle y ≺ z gilt ϕ (y) = 0. Ein Schnitt y heißt minimal,
wenn für alle z mit y ≺ z gilt ϕ (z) = 1.
Beispiel - minimale Pfade und Schnitte
Man kann die minimalen Pfade und Schnitte direkt aus dem Zuverlässigkeitsschaltbild ablesen. Für größere Schaltbilder gibt es Computerverfahren zur Bestimmung der minimalen
Pfade und Schnitte.
Aus der Menge der minimalen Pfade können leicht Schnitte erzeugt werden: Man wählt
aus jedem Pfad ein intaktes Element (wenn möglich auch öfters dasselbe) und setzt es in
einem Zustandsvektor auf Defekt. So erhält man einen Schnittvektor.
Wir bezeichnen mit I~z := {i : zi = 1} und mit D~z := {i : zi = 0} die Menge der Intaktbzw. Defektindizes von ~z. Mithilfe der Menge W der minimalen Pfade und der Menge
S der minimalen Schnitte kann die Strukturfunktion angegeben werden. Das System ist
nämlich genau dann intakt, wenn zumindest ein Pfad zur Gänze intakt ist. Es gilt daher
_ Y
zi .
ϕ (~z) =
i∈Iw
w∈W
~
~
Mithilfe der minimalen Pfade ergibt sich also eine disjunktive
Normalform für ϕ, aber
Q
nicht notwendigerweise eine Orthogonalform. Man nennt i∈Iw~ zi minimale Pfadserienstrukturen. Umgekehrt ist das System genau dann defekt, wenn zumindest ein Schnitt zur
Gänze defekt ist. Daher gilt
ϕ (~z) =
_ Y
~s∈S i∈D~s
z̄i =
Y _
zi .
~s∈S i∈D~s
Mithilfe
der Schnitte ergibt sich also eine konjunktive Normalform für ϕ. Man nennt
W
z
minimale
Schnittparallelstrukturen.
i∈D~s i
Die Ermittlung von Pfaden oder Schnitten ist inhaltlich äquivalent, ist nämlich w
~ ein
Pfad von ϕ, so ist w
~ ein Schnitt von ϕ∗ . Man wird dasjenige Konzept wählen, bei dem
man mit weniger Elementen auskommt.
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
35
Methode zur Bestimmung der minimalen Schnitte aus den minimalen Pfaden
Wir bestimmen aus der disjunktiven Normalform von ϕ
Y _
1 − ϕ (~z) =
z̄i ,
i∈Iw
w∈W
~
~
erhalten durch Anwendung der Distributivgesetze und der Absorptionsregel (Ausmultiplizieren!) eine Darstellung der Gestalt
_ Y
1 − ϕ (~z) =
z̄i ,
~
y ∈M i∈Iy~
und daraus, wenn man beachtet, dass jeder Intaktindex von ~y ein Defektindex von ~y ist
Y _
Y _
ϕ (~z) =
zi =
zi .
~
y ∈M i∈Iy~
~
y ∈M i∈Dy~
Vergleichen wir nun mit der konjunktiven Normalform von ϕ, so lesen wir unmittelbar ab,
dass die minimalen Schnitte gerade die negierten Elemente von M sind, also S = M.
Beispiel
Die minimalen Pfade einer Strukturfunktion ϕ seien W = {(0, 0, 1) , (1, 1, 0)} . Man gebe
ϕ in disjunktiver und konjunktiver Normalform an und bestimme die minimalen Schnitte.
Die disjunktive Normalform von ϕ lautet
ϕ (~z) = z3 ∨ z1 z2 .
Nach der oben geschilderten Methode berechnen wir
1 − ϕ (~z) = z3 ∨ z1 z2 = z̄3 (z̄1 ∨ z̄2 ) = z̄3 z̄1 ∨ z̄3 z̄2
und gewinnen daraus die konjunktive Normalform
ϕ (~z) = (z3 ∨ z1 ) (z3 ∨ z2 ) .
Die Menge der minimalen Schnitte lautet also S = {(0, 1, 0) , (1, 0, 0)} .
Umgekehrt können aus den minimalen Schnitten sehr einfach die minimalen Pfade
gewonnen weren, indem man auf die konjunktive Normalform der Strukturfunktion die
Distributivgesetze und die Absorpionsregel anwendet und aus der so erhaltenen disjunktiven Normalform die minimalen Pfade abliest.
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
3.2.3
36
Verfahren zur Ermittlung der minimalen Pfade und Schnitte
Suche in die Tiefe (depth-first-search)
Das Verfahren dient dazu, einen minimalen Weg vom Knoten u nach v zu finden. Von u
ausgehend werden die Nachbarknoten untersucht. Ist einer davon v, so ist ein Minimalweg
gefunden. Sonst wird ein Nachbarknoten u1 gewählt. Der Weg lautet (u, u1 ). Begangene
Kanten werden gesperrt. Von u1 ausgehend werden alle Knoten untersucht, die durch
ungesperrte Kanten erreichbar sind. Ist einer davon v, so ist ein Minimalweg gefunden.
Gibt es solche Knoten nicht, so kehrt man zum Vorgängerknoten zurück, löscht u1 aus
der Liste des Weges und beginnt dort von neuem (Achtung, die soeben benützte Kante
ist jetzt gesperrt, u1 ist nicht zielführend). Gibt es nun solche Knoten und v ist nicht
dabei, so wählt man einen Knoten u2 , setzt den Weg auf (u, u1 , u2 ) und fährt wie bei u1
fort. Das Verfahren endet, wenn v gefunden ist und liefert den minimalen Weg zwischen
u und v als Liste der ”erfolgreichen” Knoten. Außerdem liefert es für jeden Knoten eine
(unvollständige) Liste der nicht zielführenden Knoten. Ist v nicht erreichbar, so endet das
Verfahren bei u, wenn dort keine ungesperrten Kanten mehr sind.
Neue Wege werden gefunden, indem als u1 ein vorher noch nicht benützter Knoten
gewählt wird, oder, wenn es außer dem ”alten” u1 keinen zielführenden Knoten gibt, ein
anderer Knoten als u2 usw.
Suche in die Breite (breadth-first-search)
Hier werden alle Minimalwege gleichzeitig entwickelt, dh man sucht von jedem Knoten
ausgehend sofort alle in Frage kommenden Nachbarknoten (diejenigen nicht, die schon auf
einem Weg liegen). Das Breitensuchverfahren braucht im allgemeinen mehr Speicherplatz
als das Tiefensuchverfahren und ist daher weniger wichtig.
Potenzierung der Kantenadjazenzmatrix
Werden die Knoten nummeriert, dh V = {1, . . . , n}, so ist die Kantenadjazenzmatrix eine
n × n-Matrix A mit aij = 0, falls von i nach j keine gerichtete Kante führt, und aij = eij ,
wenn von i nach j die Kante eij führt. Ak ij gibt die Menge aller Wege von i nach j
mit Länge k an. Die Minimalwege erhält man, indem man aus diesen Wegen überflüssige
Wegteile streicht. Man verwendet die reduzierte Kantenadjazenzmatrix.
Erzeugung von Minimalschnitten
Die Erzeugung von Minimalschnitten aus Minimalpfaden ist zwar prinzipiell möglich, aber
rechentechnisch aufwendig. Man bestimmt daher die Minimalschnitte direkt. Jeder Schnitt
zerlegt die Knotenmenge V in zwei Mengen N und V − N , wobei u ∈ N , v ∈ V − N
gilt. Ein Minimalschnitt liegt vor, wenn die von N und V − N erzeugten Teilgraphen
zusammenhängend sind. Ist umgekehrt eine Menge N gegeben, so gehören alle Kanten, die
den Anfangspunkt in N haben und den Endpunkt in V −N zum (minimalen) Schnitt. N =
{u} beschreibt einen Schnitt (nicht unbedingt minimal). Bei den Verfahren zur Erzeugung
von Minimalschnitten, erzeugt man ausgehend von bekannten Minimalschnitten weitere,
indem man verschiedene Teilmengen des Schnitts verbietet.
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
3.2.4
37
Orthogonalformen
In diesem Abschnitt geht es darum, eine disjunktive Normalform in eine Orthogonalform
überzuführen. Die naheliegende Methode


Y
Y _
Y
1 −
ϕ (~z) = 1 −
zi 
z̄i = 1 −
i∈Iw
w∈W
~
~
i∈Iw
~
w∈W
~
durch Anwendung der Distibutivgesetze und der Absorptionsregel einfach ”auszumultiplizieren” ist im allgemeinen rechentechnisch zu aufwendig. Eine weitere Möglichkeit ergibt
sich auch aus der Formel
x ∨ y = x + y − xy,
die sukzessive auf die disjunktive Normalform angewendet wird. So erhält man die
Inklusions-Exklusionsform der Strukturfunktion
X
Y Y
ϕ (~z) =
(−1)|U |−1
zi .
U ⊂W
~
u∈U i∈Iu
~
Die obige Summe hat 2|W| − 1 Summanden. Man kann zeigen, dass sich mit steigendem
|U| immer mehr Summanden gegenseitig aufheben. Auch diese Methode ist also nur für
kleinere Systeme geeignet.
Günstigere Verfahren stützen sich auf die Formel
ϕ (~z) =
_ Y
i∈Iw
w∈W
~
~
wobei wir uns W als w
~ 1, . . . , w
~ |W|
Q
i∈I j zi die aj wie folgt definieren
w
~
zi =
|W|
X
aj ,
j=1
geordnet denken und mit der Abkürzung π j =
a1 : = π 1 ,
aj
: = π̄ 1 . . . π̄ j−1 π j .
Im wesentlichen baut auch das folgende Verfahren von Abraham auf diese Formel auf. Es
soll anhand eines Beispiels demonstriert werden.
Beispiel zum Verfahren von Abraham
Die minimalen Pfade eines Systems haben (nach wachsender Länge sortiert) die folgenden
Intaktindizes
π 1 : 10, 11, 12
π2 :
1, 3, 4, 8
π 3 : 4, 6, 8, 11
π 4 : 2, 3, 10, 12 ,
π 5 : 1, 3, 5, 7, 8
π 6 : 2, 3, 4, 6, 8
π 7 : 1, 3, 5, 9, 12
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
38
aus denen wir sukzessive Intaktindizes von Pfaden konstruieren, die auf alle vorhergehenden orthogonal sind.
aus π 1 : 10, 11, 12,

 1, 3, 4, 8, 10
1, 3, 4, 8, 10, 11
aus π 2 :
,

1, 3, 4, 8, 10, 11, 12

1
4, 6, 8, 11, 10,



4, 6, 8, 11, 10, 11, 12, 1
aus π 3 :
,
4, 6, 8, 11, 10,
1, 3



4, 6, 8, 11, 10, 11, 12, 1, 3

 2, 3, 10, 12, 11, 1
2, 3, 10, 12, 11, 1, 4
,
aus π 4 :

2, 3, 10, 12, 11, 1, 4, 8

1, 3, 5, 7, 8, 10,
4,



1, 3, 5, 7, 8, 10, 11,
4,
2
aus π 5 :
,
12,
4,
1,
3,
5,
7,
8,
10,
11,



1, 3, 5, 7, 8, 10, 11,
4,
2, 12
2, 3, 4, 6, 8, 10,
1, 11,
aus π 6 :
,
2, 3, 4, 6, 8, 10, 11, 1,
12

1, 3, 5, 9, 12, 10,
4,
7




1, 3, 5, 9, 12, 10, 11, 4,
2, 7



1, 3, 5, 9, 12, 10,
4, 8,
.
aus π 7 :
1, 3, 5, 9, 12, 10, 11, 4, 8,
2





1, 3, 5, 9, 12, 10,
4,
7, 8


2, 7, 8
1, 3, 5, 9, 12, 10, 11, 4,
Wir erhalten so die Intaktindizes von 23 paarweise orthogonalen Pfaden.
3.3
Systemverfügbarkeit
Die Strukturfunktion spiegelt den deterministischen Zusammenhang zwischen dem Zu~ := (Z1 , . . . , Zn )
stand des Systems und den Zuständen seiner Komponenten wider. Sei Z
der binärwertige Vektor der zufälligen
Zustände der Systemkomponenten (zur Zeit t bzw.
~ der zufällige Zustand des Systems. Die Systemnach langer Zeit), so ist Z = ϕ Z
verfügbarkeit (zur Zeit t bzw. stationär), d.h. die Wahrscheinlichkeit, dass das System
intakt ist, ist nun gleich
i
h ~ .
~ =1 =E ϕ Z
P [Z = 1] = P ϕ Z
Unter der Annahme, dass die Zustände der Komponenten vollständig unabhängig sind,
wobei pi := P [Zi = 1] , und die Systemfunktion in Orthogonalform (linear!) gegeben ist,
so gilt
~
~ = ϕlin (p1 , . . . , pn ) .
P [Z = 1] = E ϕlin Z
= ϕlin E Z
39
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
Das folgt aus der Tatsache, dass der Erwartungswert linear ist und der Erwartungswert
des Produkts von unabhängigen Zufallsvariablen mit dem Produkt der Erwartungswerte
übereinstimmt.
Aufgabe
Bestimmen Sie die Systemverfügbarkeit eines Parallel-, eines Serien- und eines 2 aus 3
Systems.
Bei einem monotonen System läßt sich also die Systemverfügbarkeit aus den Verfügbarkeiten der Komponenten eindeutig berechnen, d.h.
P [Z = 1] =: h (~
p) ,
wobei h eine geeignet gewählte Funktion ist. Im Prinzip kann h durch sukzessive Pivotzerlegung
h (~
p) = (1 − pi ) h (~
p − pi~ei ) + pi h (~
p + (1 − pi ) ~ei )
gewonnen werden. Setzt man alle pi = p und trägt h (~
p) gegen p auf, so ergibt sich
typischerweise ein S-förmiger Verlauf.
In der Praxis ist die exakte Berechnung der Systemverfügbarkeit wegen der Größe der
auftretenden Systeme selten möglich. Man muß sich mit Abschätzungen behelfen.
• Es gilt trivialerweise (Vergleich mit Serien- und Parallelsystem)
n
Y
i=1
pi ≤ h (~
p) ≤ 1 −
n
Y
i=1
(1 − pi ) .
• Sei w
~ ein beliebiger Pfad und Iw~ die Menge seiner Intaktindizes und ~s ein beliebiger
Schnitt D~s die Menge seiner Defektindizes, so überlegt man sich leicht
Y
Y
pi ≤ h (~
p) ≤ 1 −
(1 − pi ) .
i∈Iw
~
i∈D~s
Da w
~ und ~s beliebig gewählt waren, folgt sofort


Y
Y
max
pi ≤ h (~
p) ≤ min 1 −
(1 − pi ) .
w∈W
~
~s∈S
i∈Iw
~
i∈D~s
• Die obige Abschätzung kann verfeinert werden, indem man auf der linken Seite verschiedene Pfade kombiniert (orthogonal machen und Pfad-Intaktwahrscheinlichkeiten
addieren) und auf der rechten Seite verschiedene Schnitte. Es ist intuitiv klar, dass
kürzere Pfade bzw. Schnitte meistens bessere Abschätzungen liefern.
• Weiters gilt
Y
~s∈S

1 −
Y
i∈D~s

(1 − pi ) ≤ h (~
p) ≤ 1 −
Y
w∈W
~

1 −
Y
i∈Iw
~

pi  .
Die rechte Seite ist unmittelbar (Übung) einsichtig. Die linke Seite folgt mittels
Übergang zum dualen System.
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
3.4
40
Importanz
Die Verfügbarkeiten verschiedener Komponenten beeinflussen die Verfügbarkeit eines Systems unterschiedlich. Ein Maß für die Wichtigkeit einer Komponente ist die Importanz.
Folgende Fragestellungen sind in diesem Zusammenhang typisch.
• Welchen Anteil hat eine Komponente an der Verfügbarkeit des Systems?
• Wie ändert sich die Verfügbarkeit des Systems in Abhängigkeit von der Verfügbarkeit
der Komponente?
• Welcher maximale Verfügbarkeitsgewinn für das System läßt sich durch Erhöhung
der Verfügbarkeit einer Komponente gewinnen?
• Welche Komponente verursacht mit größter Wahrscheinlichkeit einen Ausfall des
Systems?
• Welche Komponenten tragen mit größter Wahrscheinlichkeit zum Ausfall des Systems bei?
Die Birnbaum-Importanz der i-ten Komponente des durch h charakterisierten Systems
I (i, p~) :=
∂h
(~
p)
∂pi
ist die partielle Ableitung von h nach pi . Je höher die Birnbaum-Importanz einer Komponente, desto mehr steigt die Systemverfügbarkeit h (~
p), wenn die Verfügbarkeit der Komponente erhöht wird. Wegen
h (~
p) = (1 − pi ) h (~
p − pi~ei ) + pi h (~
p + (1 − pi ) ~ei )
gilt
I (i, p~) = h (~
p + (1 − pi ) ~ei ) − h (~
p − pi~ei )
= h (p1 , . . . , i − te Stelle1, . . . , pn ) − h (p1 , . . . , i − te Stelle0, . . . , pn ) .
Die Birnbaum-Importanz der i-ten Komponente gibt also den maximal möglichen Verfügbarkeitszuwachs an, der bei Installation der Komponente i erreicht werden kann, sie hängt
damit von pi nicht ab.
Beispiel
Q
Q
Für ein Seriensystem gilt I (i, p~) = j6=i pj , für ein Parallelsystem I (i, p~) = j6=i (1 − pj ) .
Im Seriensystem hat die Komponente mit der kleinsten Verfügbarkeit die größte BirnbaumImportanz (Eine Kette ist so stark wie ihr schwächstes Glied.), im Parallelsystem ist es
gerade umgekehrt, dort hat die Komponente mit der größten Verfügbarkeit auch die größte
Birnbaum-Importanz.
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
41
In manchen Fällen wird die Wichtigkeit einer Komponente besser durch die strukturelle
Importanz beschrieben. Diese ergibt sich aus der Birnbaum-Importanz, wenn man für alle
i pi = 1/2 setzt.
Die Birnbaum-Importanz I (i, p~) gibt den maximal möglichen Verfügbarkeitszuwachs
an, der durch die Komponente i verursacht ist. Was aber, wenn die Komponente i aus
Prinzip nicht zu 100% verfügbar ist? Eine für diesen Fall geeignete Importanz ist
I0 (i, p~) = h (~
p) − h (p1 , . . . , i − te Stelle0, . . . , pn ) ,
der praktisch erreichbare Verfügbarkeitszuwachs, der durch die Komponente i verursacht
ist. Es kann aber auch sein, dass man die Verfügbarkeit der Komponente i ausgehend
vom jetzigen Niveau steigert und wissen möchte, wie sich die Verfügbarkeit des Systems
maximal verbessern kann. Dann ist die Importanz
I1 (i, p~) = h (p1 , . . . , i − te Stelle1, . . . , pn ) − h (~
p)
die geeignete Kenngröße. Man beachte
I (i, p~) = I0 (i, p~) + I1 (i, p~) ,
sowie
I0 (i, p~) = (1 − pi ) h (~
p − pi~ei ) + pi h (~
p + (1 − pi ) ~ei ) − h (~
p − pi~ei )
= pi (h (~
p + (1 − pi ) ~ei ) − h (~
p − pi~ei ))
= pi I (i, p~)
und
I1 (i, p~) = (1 − pi ) I (i, p~) .
Beispiel
Q
Q
Für ein Seriensystem gilt I0 (i, p~) = j pj , für ein Parallelsystem I1 (i, p~) = j (1 − pj ) .
Im Seriensystem sind alle Komponenten bezüglich I0 gleich wichtig, jede ermöglicht die
volle Systemverfügbarkeit, sobald ihre Verfügbarkeit von 0 auf pi hinaufgesetzt wird. Im
Parallelsystem sind alle Komponenten bezüglich I1 gleich wichtig, jede macht das Parallelsystem zu 100% verfügbar, sobald sie selbst zu 100% verfügbar ist.
Aufgabe
Beispiel 3.14 S.89 in [2]. Wir berechnen die verschiedenen Importanzen für die einzelnen
Komponenten und interpretieren die Ergebnisse.
KAPITEL 3. BOOLESCHE ZUVERLÄSSIGKEITSMODELLE
3.5
42
Ereignisbäume
Ein Ereignisbaum ist eine graphische Darstellung der Funktionsweise eines Systems, ein
graphisches Modell. Seine Erstellung erfordert eine genaue Analyse des Zuverlässigkeitsverhaltens eines Systems. An der Spitze des Baums steht das ”Top-Event”, der Systemausfall, in diesem Fall spricht man von Fehlerbaum (FTA . . . Fault-Tree-Analysis), oder die
Funktionstüchtigkeit, in diesem Fall spricht man vom Funktionsbaum (STA . . . SuccessTree-Analysis). An der Basis des Baumes sind die Primärereignisse, die sich üblicherweise
auf die Zustände der Komponenten beziehen. Ausgehend von diesen Primärereignissen
zeigt der Ereignisbaum Wege auf, die zum Hauptereignis führen. Verschiedene Ereignisse
werden durch logische Verknüpfungen (Tore) miteinander verbunden. Aus dem Ereignisbaum können minimale Wege und Schnitte abgelesen werden.
Aufgabe
Konstruieren Sie einen Fehlerbaum und einen Funktionsbaum für ein 2-aus-3-System.Teil
4 bis Seite 42
Kapitel 4
Markovsche Systeme
Bei Booleschen Modellen gibt es nur die beiden Systemzustände Intakt und Defekt (bzw.
Verfügbar und Nicht Verfügbar). Jetzt werden Systeme betrachtet, die mehr als zwei
Zustände haben können. Ein Zustand eines komplizierteren Systems etwa wird durch den
Vektor der Zustände seiner Komponenten beschrieben.
4.1
Grundlagen
Ein stochastischer Prozess ist eine Familie von Zufallsvariablen1 (Z (t))t∈I mit einer
gemeinsamen Bildmenge Z, die als Zustandsraum bezeichnet wird. I wird als Indexmenge bezeichnet. Ist I diskret (⊆ Z), so spricht man von einem stochastischen Prozess
mit diskreter Zeit, ist I ein Intervall (⊆ R), so spricht man von einem stochastischen
Prozess mit kontinuierlicher Zeit.
Die Menge Z ist die Menge aller möglichen Zustände und für jedes t ≥ 0 beschreibt die
Zufallsvariable Z (t) den Zustand des Systems zum Zeitpunkt t. Der Prozess (Z (t))t≥0
beschreibt damit die zufälligen Zustände des Systems im ganzen Verlauf der Zeit.
Die Verteilung des stochastischen Prozesses wird durch die endlichdimensionalen Verteilungen
Ft1 ,...,tn (z1 , . . . , zn ) = P [Z (t1 ) < z1 , . . . , Z (tn ) < zn ]
mit t1 , . . . , tn ∈ I und z1 , . . . , zn ∈ Z beschrieben. Gilt für alle h
Ft1 ,...,tn (z1 , . . . , zn ) = Ft1 +h,...,tn +h (z1 , . . . , zn ) ,
so heißt der stochastische Prozess stationär.
Im allgemeinen wird das zukünftige Verhalten des Systems nach einem Zeitpunkt t von
der gesamten Vergangenheit vor t und der Gegenwart zum Zeitpunkt t selbst abhängen.
Eine wesentliche Vereinfachung ergibt sich, wenn man annimmt, dass der zukünftige Sytemzustand ausschließlich vom gegenwärtigen Zustand abhängt. So gelangt man zu einer
Markov-Kette.
Ein stochastischer Prozess (Z (t))t≥0 mit Zustandsraum Z ⊂ Z heißt Markov-Kette,
1
Eine Zufallsvariable Z ist eine Abbildung von einem Wahrscheinlichkeitsraum Ω in eine Bildmenge Z.
Durch Zufallsvariablen werden Beobachtungen von Zufallsexperimenten modelliert.
43
KAPITEL 4. MARKOVSCHE SYSTEME
44
wenn für alle t1 , . . . , tn ∈ I mit 0 ≤ t1 < . . . < tn und z1 , . . . , zn ∈ Z mit
P [Z (tn−1 ) = zn−1 , . . . , Z (t1 ) = z1 ] > 0
gilt
P [Z (tn ) = zn |Z (tn−1 ) = zn−1 , . . . , Z (t1 ) = z1 ] = P [Z (tn ) = zn |Z (tn−1 ) = zn−1 ] .
Bei einer Markov-Kette spielt also in der Bedingung nur der letzte Zustand eine Rolle.
Äquivalent dazu ist die Aussage: Bei einer Markov-Kette sind Vergangenheit und Zukunft unabhängig, wenn man jeweils unter der Gegenwart bedingt. Man beachte, dass
eine Markov-Kette stets einen höchstens abzählbaren Zustandsraum besitzt. Der Einfachheit halber nehmen wir an, dass die Zustände durchnummeriert sind, also Z ⊂ Z. Die Zeit
kann diskret oder kontinuierlich sein.
Ein Zuverlässigkeitssystem nennen wir Markovsches System, wenn sein Verhalten durch
eine Markov-Kette beschrieben werden kann.
Beispiel: Reparierbares Einkomponentensystem
Ein System bestehe aus einer Komponente, die eine exponentialverteilte Lebenszeit hat
(Parameter λ) und die nach ihrem Ausfall in exponentialverteilter Reparaturzeit (Parameter µ) instand gesetzt wird, dann wieder ”wie neu” arbeitet usw. Das System hat die beiden
Zustände Intakt und Defekt, also Z = {0, 1} , und Z (t) gibt den Zustand des Systems zum
Zeitpunkt t ∈ R an. Wegen der Nichtalterungseigenschaft der Exponentialverteilung hängt
zu jedem Zeitpunkt der weitere Verlauf des Prozesses nur vom momentanen Zustand des
Systems ab. Es handelt sich daher um ein Markovsches System.
Ist die Lebensdauer oder die Reparaturdauer der Komponente nicht exponentialverteilt,
so liegt die Markov-Eigenschaft nicht vor. Beobachtet man das System allerdings nur
zu denjenigen Zeitpunkten, in denen sich der Systemzustand ändert, so ergibt sich eine
Markov-Kette mit diskreter Zeit.
Die Größen
pij (s, t) := P [Z (t) = j|Z (s) = i]
mit s ≤ t und i, j ∈ Z heißen Übergangswahrscheinlichkeiten. Die ”Matrix” P (s, t) :=
(pij (s, t))i,j∈Z heißt Übergangsmatrix.
P ist positiv und substochastisch, es gilt für alle 0 ≤ s ≤ t
P (s, t) ≥ 0 und P (s, t) 1 ≤ 1,
P
d.h. pij (s, t) ≥ 0 für i, j ∈ Z und j∈Z pij (s, t) ≤ 1 für i ∈ Z. Weiters gilt die Chapman2
- Kolmogorov3 - Gleichung
d.h. pik (s, t) =
2
3
P
j∈Z
P (s, t) = P (s, u) P (u, t) für 0 ≤ s ≤ u ≤ t,
pij (s, u) pjk (u, t) für 0 ≤ s ≤ u ≤ t und i, k ∈ Z.
Sydney Chapman, 1888 - 1970, britischer Mathematiker
Andrey Nikolaevich Kolmogorov, 1903 - 1987, russischer Mathematiker
KAPITEL 4. MARKOVSCHE SYSTEME
45
Die Größen pi (t) := P [Z (t) = i] heißen Zustandswahrscheinlichkeiten. Der Vektor
p (t) := (pi (t) , i ∈ Z) heißt Zustandsverteilung zum Zeitpunkt t, p (0) heißt Anfangsverteilung.
Die Zustandswahrscheinlichkeiten lassen sich aus der Anfangsverteilung und den Übergangswahrscheinlichkeiten als
p (t) = p (0) P (0, t)
darstellen.
Eine Markov-Kette heißt homogen, wenn für alle s ≤ t
P (s, t) = P (0, t − s) =: P (t − s)
gilt. Man sagt auch, die Markov-Kette hat stationäre Übergangswahrscheinlichkeiten. In diesem Fall läßt sich die n-dimensionale Verteilung durch
P [Z (t1 ) = z1 , . . . , Z (tn ) = zn ] = pz1 (t1 ) pz1 z2 (t2 − t1 ) . . . pzn−1 zn (tn − tn−1 )
darstellen.
Eine Markov-Kette heißt (stark) stationär, wenn sie homogen ist und für alle t
p (0) = p (0) P (t)
gilt. Eine Verteilung π, die die Gleichung
π = πP (t)
erfüllt, heißt stationäre Verteilung oder Gleichgewichtsverteilung der Übergangsmatrix P. Eine Markov-Kette, die als Anfangsverteilung eine stationäre Verteilung hat, ist
stationär. Die Größe π i kann als Anteil der Zeit interpretiert werden, den die stationäre
Markov-Kette im Zustand i verbringt.
4.1.1
Homogene Markov-Ketten mit diskreter Zeit
Eine Folge von Zufallsvariablen (Zn )n∈N0 auf einem abzählbaren Zustandsraum, die die
Markov-Eigenschaft, heißt eine Markov-Kette mit diskreter Zeit. Wir betrachten nur homogene Markov-Ketten. Der Ausdruck
pij := P [Zn+1 = j | Zn = i] = pij (1)
heißt (1-Schritt) Übergangswahrscheinlichkeit von i nach j und P : = (pij ) Übergangsmatrix.
Für Markov-Ketten mit diskreter Zeit lauten die Chapman-Kolmogorov-Gleichungen
Pm = Pm−k Pk ,
wobei Pm die Matrix der m-Schritt-Übergangswahrscheinlichkeiten mit den Einträgen
pij (m) ist. Für die Zustandsverteilung folgt daraus
p (m) = p (0) Pm .
KAPITEL 4. MARKOVSCHE SYSTEME
46
Mit der Bezeichnung Q := I − P gilt
p (m) − p (m − 1) = p (m) Q.
Für die Übergangsmatrix einer Markov-Kette mit diskreter Zeit ist eine Verteilung π genau
dann stationäre Verteilung, wenn
πP = π bzw πQ = 0
gilt.
4.1.2
Homogene Markov-Ketten mit kontinuierlicher Zeit
Wir betrachten eine Markov-Kette mit kontinuierlicher Zeit (Xt )t≥0 . Wir wollen nun die
Differentialgleichungen von Kolmogorov einführen. Sei P so beschaffen, dass es eine
Matrix Q := (qij ) mit4
P (t, t + ∆t) − I
Q = lim
∆t→0
∆t
gibt, deren Einträge außerhalb der Diagonale positiv sind und deren Zeilensummen 0 sind.
Man nennt Q den infinitesimalen Generator oder die Intensitätsmatrix der MarkovKette mit kontinuierlicher Zeit. Ihre Einträge qij nennt man Übergangsraten. Es gilt
nämlich
qij ∆t + o (∆t)
falls i 6= j
.
pij (t, t + ∆t) = pij (∆t) =
(1 + qii ) ∆t + o (∆t) falls i = j
Aus
P (t + ∆t) − P (t) = P (t) (P (∆t) − I)
folgt damit die Vorwärtsdifferentialgleichung von Kolmogorov5
P′ (t) = P (t) Q
und aus
P (t − ∆t) − P (t) = (I − P (∆t)) P (t − ∆t)
die Rückwärtsdifferentialgleichung von Kolmogorov
P′ (t) = QP (t) .
wobei Q im allgemeinen von t abhängen wird.
Für die Zustandsverteilung folgt aus der Vorwärtsdifferentialgleichung durch Multiplikation mit p (0) von links das Differentialgleichungssystem für p (t)
p′ (t) = p (t) Q,
4
Wir betrachten nur den Fall, dass Q nicht von t abhängt. So ergibt sich eine homogene Markov-Kette.
Für Zwecke der Zuverlässigkeitstheorie ist dieses Modell ausreichend.
5
Man beachte die Analogie zum diskreten Fall.
KAPITEL 4. MARKOVSCHE SYSTEME
47
P
d.h. p′j (t) = k6=j pk (t) qkj − qj pj (t), wobei die Anfangsverteilung Anfangswerte liefert.
In denPAnwendungen interessieren wir uns nur für Lösungen, die der Normiertheitsbedingung i∈Z pi (t) = 1 genügen.
Für die Übergangsmatrix einer Markov-Kette mit kontinuierlicher Zeit, die die Vorwärtsdifferentialgleichung von Kolmogorov erfüllt, ist eine Verteilung π̄ genau dann stationäre
Verteilung, wenn
π̄Q = 0
gilt.
Beweis Aus der definierenden Eigenschaft für die stationäre Verteilung π̄ = π̄P (t) folgt
durch Ableiten
dP (t)
0 = π̄
,
dt
was zusammen mit der Vorwärtsdifferentialgleichung von Kolmogorov
0 = π̄P (t) Q = π̄Q
ergibt.
Falls umgekehrt eine Verteilung π̄ die Gleichung π̄Q = 0 erfüllt, so ist sie Lösung des
Anfangswertproblems
p′ (t) = p (t) Q mit p (0) = π̄
und erfüllt daher
π̄ = p (t) = p (0) P (t) = π̄P (t) .
4.1.3
Graphische Veranschaulichung von Markov-Ketten
Markov-Ketten mit Zustandsraum werden sehr einfach und übersichtlich durch einen gerichteten gewichteten Graphen, den Übergangsgraphen, veranschaulicht. Die Knoten
des Graphen entsprechen den Zuständen, die gerichteten Kanten den Übergangswahrscheinlichkeiten bzw Übergangsraten. Ist zwischen zwei Knoten keine Kante, so ist kein
Übergang zwischen ihnen möglich.
KAPITEL 4. MARKOVSCHE SYSTEME
48
Beispiel: Reparierbares Einkomponentensystem
Für das reparierbare Einkomponentensystem gilt: Die Markov-Kette ist homogen und für
kleine ∆t > 0 gilt
p00 (∆t) = 1 − µ∆t + o (∆t) p01 (∆t) = µ∆t + o (∆t)
.
p10 (∆t) = λ∆t + o (∆t)
p11 (t) = 1 − λ∆t + o (∆t)
Falls das System zum Zeitpunkt 0 arbeitet, so gilt Z (0) = 1. Es gilt
−µ µ
Q=
.
λ
−λ
Die Übergangswahrscheinlichkeiten erfüllen die Chapman-Kolmogorov-Gleichungen
p00 (t + s) = p00 (t) p00 (s) + p01 (t) p10 (s)
p01 (t + s) = p00 (t) p01 (s) + p01 (t) p11 (s)
p10 (t + s) = p10 (t) p00 (s) + p11 (t) p10 (s)
p11 (t + s) = p10 (t) p01 (s) + p11 (t) p11 (s)
die für t → 0 in die Rückwärtsdifferentialgleichungen
p′00 (s) = −µ p00 (s) + µ p10 (s)
p′01 (s) = −µ p01 (s) + µ p11 (s)
p′10 (s) = λ p00 (s) − λ p10 (s)
p′11 (s) = λ p01 (s) − λ p11 (s)
und für s → 0 in die Vorwärtsdifferentialgleichungen
p′00 (t) = −µ p00 (t) + λ p01 (t)
p′01 (t) = µ p00 (t) − λ p01 (t)
p′10 (t) = −µ p10 (t) + λ p11 (t)
p′11 (t) = µ p10 (t) − λ p11 (t)
übergehen. Als Anfangsbedingung gilt pij (0) = δ ij .
Die eindeutige Lösung des Anfangswertproblems ist
p00 (t) =
p01 (t) =
p10 (t) =
p11 (t) =
1 λ + µe−(λ+µ)t
λ+µ
1 µ − µe−(λ+µ)t
λ+µ
1 λ − λe−(λ+µ)t
λ+µ
1 µ + λe−(λ+µ)t .
λ+µ
KAPITEL 4. MARKOVSCHE SYSTEME
49
Man beobachtet p00 (t) + p01 (t) = p10 (t) + p11 (t) = 1 und man kann die Gleichgewichtsverteilung (π 0 , π 1 ) aus
π 0 = π 0 p00 (t) + π 1 p10 (t)
π 1 = π 0 p01 (t) + π 1 p11 (t)
berechnen und erhält
π0 =
λ
µ
und π 1 =
.
λ+µ
λ+µ
Weiters beobachtet man Konvergenz ins Gleichgewicht unabhängig vom Anfangszustand,
d.h.
λ
λ+µ
µ
lim p01 (t) = lim p11 (t) =
.
t→∞
t→∞
λ+µ
lim p00 (t) =
t→∞
lim p10 (t) =
t→∞
Es gilt daher für jede Anfangsverteilung
lim p0 (t) =
t→∞
λ
µ
und p1 (t) =
.
λ+µ
λ+µ
Falls das System im Gleichgewicht startet, d.h. p0 (0) = π 0 und p1 (0) = π 1 , dann gilt
p1 (t) = π 0 p01 (t) + π 1 p11 (t)
λ
µ
−(λ+µ)t
−(λ+µ)t
=
µ
−
µe
µ
+
λe
+
(λ + µ)2
(λ + µ)2
µ
= π1
=
λ+µ
= p1 (0) ,
d.h. das System bleibt im Gleichgewicht. Die Markov-Kette ist stationär. Die stationäre
Verfügbarkeit des Systems ist also µ/ (λ + µ).
4.1.4
Die eingebettete Markov-Kette
Angenommen, die Modellbildung erfordert die Annahme einer kontinuierlichen Zeit, wir
beobachten den stochastischen Prozess aber nur zu ausgewählten Zeitpunkten, zB immer
dann, wenn eine Zustandsänderung eintritt. In manchen Fällen erhalten wir bei geschickter Wahl der Beobachtungszeitpunkte eine Markov-Kette. Man nennt sie die eingebettete
Markov-Kette. Handelt es sich zB ursprünglich um einen Markov-Prozess mit kontinuierlicher Zeit, und beobachtet man bei jeder Zustandsänderung, so entsteht immer eine
Markovkette mit den Übergangswahrscheinlichkeiten
qij
−qii für i 6= j .
pij =
0
für i = j
Die Verweilzeit in jedem Zustand i ist exponentialverteilt mit Parameter qi := −qii , im
Erwartungswert also 1/qi .
50
KAPITEL 4. MARKOVSCHE SYSTEME
4.2
Langzeitverhalten
Drei Größen kennzeichnen das Langzeitverhalten einer Markov-Kette, ihre stationären
Verteilungen, ihre Grenzverteilung und die Eigenschaft der Ergodizität.
4.2.1
Markov-Ketten mit diskreter Zeit
Man sagt, eine Markov-Kette mit diskreter Zeit besitzt die Grenzverteilung π, wenn
lim p (m) = π
m→∞
gilt bzw limm→∞ pij (m) = π j für alle i, j, dh wenn nach langer Zeit jeder Zustand, unabhängig vom Anfangszustand, mit einer gewissen Wahrscheinlichkeit auftritt. Die Grenzverteilung erfüllt wegen
πP = lim p (m) P = lim p (m + 1) = π
m→∞
m→∞
die Beziehung
πP = π bzw πQ = 0
und, weil π eine Verteilung ist, auch
π 1 = 1.
Die Grenzverteilung ist also stets eine stationäre Verteilung der Markov-Kette. Ist die
Markov-Kette endlich, so ist π ein normierter Linkseigenvektor von P zum Eigenwert 1.
Für endliche Markov-Ketten existiert also immer zumindest eine stationäre Verteilung.
Nicht jede stationäre Verteilung ist eine Grenzverteilung. Es gibt Markov-Ketten, die keine
Grenzverteilung aber stationäre Verteilungen besitzen.
Beispiel
Man beschreibe die Markov-Ketten mit den Übergangsmatrizen
0 1
1 0
1/3 2/3
P=
, P=
, P=
.
1 0
0 1
1/4 3/4
verbal und mit Hilfe des Übergangsgraphen und bestimme jeweils die Grenzverteilung,
falls sie existiert, und die stationären Verteilungen.
4.2.2
Markov-Ketten mit kontinuierlicher Zeit
Bei Markov-Ketten mit kontinuierlicher Zeit ist die Begriffsbildung analog. Man sagt, eine
Markov-Kette mit kontinuierlicher Zeit besitzt die Grenzverteilung π̄, wenn (unabhängig
von der Anfangsverteilung)
lim p (t) = π̄
t→∞
51
KAPITEL 4. MARKOVSCHE SYSTEME
gilt bzw limt→∞ pij (0, t) = π̄ j für alle i, j, dh wenn nach langer Zeit jeder Zustand, unabhängig vom Anfangszustand, mit einer gewissen Wahrscheinlichkeit auftritt. Die Grenzverteilung erfüllt wegen
π̄Q = lim p (t) Q = lim p′ (t) = 0
t→∞
t→∞
die Beziehung
π̄Q = 0
und, weil π̄ eine Verteilung ist, auch
π̄ 1 = 1.
Die Grenzverteilung ist also stets eine stationäre Verteilung der Markov-Kette. Ist die
Markov-Kette endlich, so ist π̄ ein normierter Linkseigenvektor von Q zum Eigenwert 0.
Für endliche Markov-Ketten existiert also immer eine stationäre Verteilung.
Hat die eingebettete Markov-Kette die Grenzverteilung π, so gilt für die Grenzverteilung
π̄ der Markov-Kette mit kontinuierlicher Zeit
π i /qi
π̄ i = P
,
j π j /qj
P
sofern die Reihe j π j /qj konvergiert. Dafür reicht z.B. aus, dass die mittleren Verweilzeiten qj beschränkt sind.
4.2.3
Existenz und Eindeutigkeit stationärer Verteilungen
Im folgenden werden wir Bedingungen angeben, unter denen stationäre Verteilungen oder
die Grenzverteilung existieren.
Ein Zustand i einer Markov-Kette mit diskreter Zeit heißt aperiodisch, wenn
ggT {n : pii (n) > 0} = 1
gilt.
Bezeichne fij (n) bzw fij (t) die Wahrscheinlichkeit, dass die Markov-Kette, die in i startet
nach n Schritten bzw zur Zeit t das erste Mal nach dem Zeitpunkt 0 in j eintrifft. Ein
Zustand i einer Markov-Kette heißt rekurrent, wenn
∞
X
fii (n) = 1 bzw
n=1
Z
∞
fii (t) dt = 1,
0
P∞
dh
wenn
die
Markov-Kette
mit
Sicherheit
nach
i
zurückkehrt.
Ist
n=1 fii (n) < 1 bzw
R∞
0 fii (t) dt < 1, so heißt i transient. Ein rekurrenter Zustand i einer Markov-Kette
heißt positiv rekurrent, wenn
∞
X
n=1
nfii (n) =: mii < ∞ bzw
Z
∞
0
t fii (t) dt =: mii < ∞,
KAPITEL 4. MARKOVSCHE SYSTEME
52
dh wenn die mittlere Rückkehrzeit mii endlich ist. Ein Zustand heißt null rekurrent,
wenn er rekurrent aber nicht positiv rekurrent ist.
Eine Markov-Kette heißt
aperiodisch
aperiodisch
rekurrent
rekurrent
transient
sind.
wenn alle Zustände transient
positiv rekurrent
positiv rekurrent
null rekurrent
null rekurrent
Eine Markov-Kette heißt irreduzibel, wenn es für alle i, j ein t gibt, sodass bzw pij (t) > 0
gilt. Bei einer irreduziblen Markov-Kette weisen stets alle Zustände dieselben Eigenschaften auf.
Beispiel
Man untersuche die Markov-Ketten mit den obigen Übergangsmatrizen auf die verschiedenen Eigenschaften.
Satz 4.1 Ist eine irreduzible Markov-Kette positiv rekurrent, so existiert genau eine stationäre Verteilung π mit π i = 1/mii bzw π̄ mit π̄ i = 1/mii .
Satz 4.2 Hat eine irreduzible Markov-Kette eine stationäre Verteilung π bzw π̄, so ist
sie positiv rekurrent mit mii = 1/π i bzw mii = 1/π̄ i und die stationäre Verteilung ist
eindeutig.
Endliche irreduzible Markov-Ketten sind also immer positiv rekurrent und haben genau
eine stationäre Verteilung.
Beispiel: Reparierbares Parallelsystem, Erlangsches Verlustsystem
4.2.4
Konvergenz ins Gleichgewicht
Eine Markov-Kette heißt ergodisch6 , wenn sie irreduzibel, positiv rekurrent und im Fall
diskreter Zeit auch aperiodisch ist.
Satz 4.3 (Konvergenzsatz) Für eine irreduzible, positiv rekurrente und aperiodische (also
ergodische) Markov-Kette mit diskreter Zeit ist die eindeutige stationäre Verteilung auch
Grenzverteilung.
Für eine irreduzible und positiv rekurrente Markov-Kette mit kontinuierlicher Zeit ist die
eindeutige stationäre Verteilung stets auch Grenzverteilung.
Satz 4.4 (Ergodensatz) Für eine ergodische Markov-Kette mit diskreter Zeit gilt fast sicher
N −1
1 X
lim
1{Zn =i} = π i .
N →∞ N
n=0
6
Der Begriff ergodisch wird bei Markov-Ketten etwas anders verwendet als bei stationären stochastischen Prozessen.
KAPITEL 4. MARKOVSCHE SYSTEME
53
Für eine ergodische Markov-Kette mit kontinuierlicher Zeit gilt fast sicher
Z
1 t
1{Z(τ )=i} dτ = π̄ i .
lim
t→∞ t 0
Die Größe π i bzw π̄ i ist also der asymptotische Anteil der Zeit, den eine ergodische MarkovKette im Zustand i verbringt. Bei einer ergodischen Markov-Kette kann aus einer einzigen genügend langen Realisierung des Prozesses die gesamte Information7 über den Prozess gewonnen werden. Man kann hier die Zeit-Mittelwerte (aus einer Realisierung) durch
die entsprechenden Ensemble-Mittelwerte (aus mehreren unabhängigen Realisierungen des
Prozesses nach langer Zeit) ersetzen.
7
DerErgodensatz kann noch viel allgemeiner formuliert werden, sodass auch gemeinsame Information
über mehrere Zeitpunkte gewonnen werden kann.
Kapitel 5
Grundbegriffe der
Erneuerungstheorie
Instandsetzung bei Sprungausfällen
Gegeben sei eine Folge (Xn )n∈N von unabhängigen und identisch verteilten Zufallsvariablen mit Werten in R+
0 , die nicht mit Sicherheit gleich 0 sind. Wir interpretieren Xn
als die Zeit
R ∞zwischen dem (n − 1) - ten und dem n - ten Ereignis.
Sei µ := 0 xdFX (x) = E (Xn ) die mittlere Zeit zwischen zwei Ereignissen. Man
beachte, daß gilt 0 < µ ≤ ∞ . P
Bezeichne Sn den Zeitpunkt des n - ten Ereignisses, also
S0 = 0 und für n ≥ 1 Sn := ni=1 Xi , und N (t) := sup {n : Sn ≤ t} die Anzahl der
Ereignisse bis (einschließlich) Zeitpunkt t.
Der stochastische Prozeß (N (t))t≥0 heißt Erneuerungsprozeß.
Der Erneuerungsprozeß ist ein Zählprozeß. Man spricht statt vom n - ten Ereignis auch
von der n - ten Erneuerung. Auch bei einer Folge von a priori nicht unabhängigen Ereignissen ist es oft möglich, eine Teilfolge von unabhängigen Ereignissen zu finden, indem
man die Zeitpunkte betrachtet, in denen eine Erneuerung stattfindet.
Wir bezeichnen mit Fn die n - fache Faltung von FX .
Satz 5.1 Für die Verteilung von N (t) gilt
P [N (t) = n] = Fn (t) − Fn+1 (t) .
Satz 5.2 Für die Erneuerungsfunktion m (t) := E (N (t)) gilt
m (t) =
∞
X
Fn (t) .
n=1
Satz 5.3 Für alle 0 ≤ t < ∞ gilt
5.1
m (t) < ∞.
Langzeitverhalten
In diesem Abschnitt geht es darum, wie sich der Prozeß nach langer Zeit, für t → ∞,
verhält.
54
KAPITEL 5. GRUNDBEGRIFFE DER ERNEUERUNGSTHEORIE
55
Satz 5.4 Es gilt fast sicher limt→∞ N (t) = ∞.
Es geht also die Anzahl N (t) der Ereignisse mit Sicherheit gegen unendlich, die nächstliegende Frage ist die nach der Geschwindigkeit. Was ergibt sich für den Quotienten N (t) /t?
Satz 5.5 Starkes Gesetz für Erneuerungsprozesse
Es gilt fast sicher
1
N (t)
= ,
lim
n→∞
t
µ
wobei 1/∞ ≡ 0.
Die Größe SN (t) ist der Zeitpunkt der letzten Erneuerung vor bis einschließlich t. Die
Größe SN (t)+1 ist der Zeitpunkt der ersten Erneuerung nach t. Die Größe 1/µ heißt Rate
des Erneuerungsprozesses.
Satz 5.6 Elementares Erneuerungstheorem
Es gilt
E (N (t))
1
lim
= ,
t→∞
t
µ
wobei 1/∞ ≡ 0.
Wir nehmen nun an, daß wir bei jeder Erneuerung eine Belohnung für das Zeitintervall
seit der letzten Erneuerung erhalten. Bezeiche Rn die zufällige Belohnung bei der n - ten
Erneuerung, die möglicherweise von Xn abhängt. Die Folge (Rn , Xn )n∈N sei eine Folge von
unabhängigen und identisch verteilten Zufallsvariablen mit Erwartungswert (ρ, µ). Wir
PN (t)
bezeichnen mit R (t) die Belohnung bis einschließlich Zeitpunkt t, also R (t) := n=1 Rn .
Satz 5.7 Belohnungssatz
Sei |ρ| < ∞ und µ < ∞, dann gilt
E (R (t))
ρ
ρ
R (t)
= fast sicher, sowie lim
= .
t→∞
t→∞
t
µ
t
µ
lim
Bezeichnet man das Intervall zwischen zwei Erneuerungen als Zyklus, so besagt der Belohnungssatz, daß die (erwartete) Belohnung pro Zeiteinheit, gemessen über eine lange
Zeitspanne, gerade gleich der erwarteten Belohnung je Zyklus dividiert durch die Länge
eines Zyklus ist. Man darf sich auch vorstellen, daß die Belohnung während des Zyklus
angesammelt und am Ende ausbezahlt wird. Satz 5.7 bleibt jedoch auch richtig, wenn die
Belohnung laufend auch während des Zyklus ausbezahlt wird.
Literaturverzeichnis
KAPITEL 5. GRUNDBEGRIFFE DER ERNEUERUNGSTHEORIE
56
[1] Aggarwal, K.K.: Reliability Engineering, 1993, Kluwer, Mathbibl. 13265
[2] Beichelt, F.: Zuverlässigkeits- und Instandhaltungstheorie, 1993, Teubner, Mathbibl.
13006
[3] Gertsbakh, I.: Reliability Theory, With Applications to Preventive Maintainance,
2001, Springer, Mathbibl. 15598
[4] Leemis, L.M.: Reliability, Probabilistic Models and Statistical Methods, 1995, Prentice Hall, Mathbibl. 14936: Besonders interessant das Kapitel über Lebensdauerverteilungen mit vielen Zitaten weiterführender Arbeiten
Literaturverzeichnis
[1] Aggarwal, K.K.: Reliability Engineering, 1993, Kluwer, Mathbibl. 13265
[2] Beichelt, F.: Zuverlässigkeits- und Instandhaltungstheorie, 1993, Teubner, Mathbibl.
13006
[3] Gertsbakh, I.: Reliability Theory, With Applications to Preventive Maintainance, 2001,
Springer, Mathbibl. 15598
[4] Leemis, L.M.: Reliability, Probabilistic Models and Statistical Methods, 1995, Prentice
Hall, Mathbibl. 14936: Besonders interessant das Kapitel über Lebensdauerverteilungen mit vielen Zitaten weiterführender Arbeiten
57
Herunterladen