Heap

Werbung
ADS – Vorlesung
Prof. Dr. Wolfram Conen
Rund um Dijkstra:
- Heap-Implementierung mit Arrays
- Bottom-Up-Heaps
(c) W. Conen, FH GE, ADS, V1.0a
1
Heap-Implementierung mit Arrays
„
Zur Erinnerung: Was ist ein Heap (=Haufen)?
Das ist ein partiell-geordneter Baum:
Definition: Ein partiell-geordneter (binärer) Baum ist ein binärer
Wurzelbaum T, in dem für jeden Teilbaum T´ mit Wurzel w gilt:
∀ y ∈ T´: Wert(w) ≤ Wert(y)
„
„
Dies ist ein Min-Heap, auch ≤-Heap.
In Max-Heaps bzw. ≥-Heap gilt Wert(w) ≥ Wert(y), d.h. der
Wert jeder Wurzel eines Teilbaums ist größergleich den Werten
unter ihr.
„
Ein Heap kann Priority-Queues unmittelbar implementieren!
„
Aber wie implementiert man einen Heap?
(c) W. Conen, FH GE, ADS, V1.0a
2
Partiell-geordneter Baum
(Schlüssel-)Werte: 4 6 6 7 10 10 12 13 13 19
4
6
10
12
13
6
19
13
10
7
Hier unser Heap aus der letzen Vorlesung als Baum...
(c) W. Conen, FH GE, ADS, V1.0a
3
Partiell-geordneter Baum
(Schlüssel-)Werte: 4 6 6 7 10 10 12 13 13 19
4
6
12
13
19
Idee: Kinder von
Position i sind
an Pos. 2i und Pos. 2i+1
10
6
13
10
7
Und hier als Array:
4 6 10 12 6 13 10 13 19 7
Pos. 1
2 3
4
(c) W. Conen, FH GE, ADS, V1.0a
5 6 7
8 9 10
4
Heap: INSERT
„
Wir betrachten links-vollständige partiell geordnete Bäume:
‰
alle Ebenen bis auf die letzte sind voll besetzt
‰
auf der letzten Ebene sitzen die Knoten soweit links wie möglich
Algorithm INSERT(Q,v)
Füge v auf der ersten freien Position der
untersten Ebene ein (wenn voll, neue
Ebene beginnen)
p ← Vater(v)
Solange p existiert und
Wert(v) < Wert(p) tue
Vertausche die Werte
von p und v;
v ← p; p ← Vater(p)
Nun mit Array, nennen wir es H.
⇐ Das ist immer eins mehr, als das Ende des
Arrays (also: erweitern!)
Für gerade Pos. v ist p = i/2, sonst (i-1)/2 für
i>1 bzw. nichts für Wurzel
⇐ Falls H[i].wert < H[p].wert tue
hilf←H[i].wert; H[i].wert←H[p].wert;
H[p].wert←hilf;
⇐ Genauso, Vater wie oben finden.
(c) W. Conen, FH GE, ADS, V1.0a
5
Heap: INSERT
Algorithm INSERT(Q,v)
Füge v auf der ersten freien Position
der untersten Ebene ein (wenn
voll, neue Ebene beginnen)
p ← Vater(v)
Solange p existiert und Wert(v) <
Wert(p) tue
Vertausche die Werte
von p und v;
v ← p; p ← Vater(p)
Einfügen von 5
4 6 10 12 6 13 10 13 19 7 5
p=5⇐
v = 11
Wert(v) < Wert(p)? Klar! Vertauschen!
4 6 10 12 5 13 10 13 19 7 6
pNeu= 2
vNeu= pAlt= 5
vAlt
Wert(v) < Wert(p)? Klar! Vertauschen!
(c) W. Conen, FH GE, ADS, V1.0a
6
Heap: INSERT
Algorithm INSERT(Q,v)
Füge v auf der ersten freien Position
der untersten Ebene ein (wenn
voll, neue Ebene beginnen)
p ← Vater(v)
Solange p existiert und Wert(v) <
Wert(p) tue
Vertausche die Werte
von p und v;
v ← p; p ← Vater(p)
Einfügen von 5
4 5 10 12 6 13 10 13 19 7 6
vNeu= 2
vAlt= 5
pNeu=1
Wert(v) < Wert(p)? Nein! Fertig!
(c) W. Conen, FH GE, ADS, V1.0a
7
Heap: INSERT
Nach dem Einfügen von 5:
4 5 10 12 6 13 10 13 19 7 6
4
Und als Baum:
5
10
12
13
6
19
(c) W. Conen, FH GE, ADS, V1.0a
7
13
10
6
8
Heap: INSERT
Oder „andersherum“:
4 5 10 12 6 13 10 13 19 7 6
13
19 7
12
6
6
13
5
10
10
4
(c) W. Conen, FH GE, ADS, V1.0a
9
Heap: INSERT
Oder „andersherum“ und etwas verzerrt:
4 5 10 12 6 13 10 13 19 7 6
13 19 7
12 6
5
6
13 10
10
4
(c) W. Conen, FH GE, ADS, V1.0a
10
Heap mit Array
„
„
„
DELETE MIN völlig analog
Kleines Randproblem: dynamisch wachsende Arrays
‰ in manchen Programmiersprachen kein Problem
‰ Oft weiß man auch die Anzahl Objekte vorab und will diese
„nur“ sortieren (oder sortiert ausgeben, wie beim Dijkstra)
Initiales Einfügen aller Elemente per Insert ist dann nicht sehr
effizient, soll heißen: es geht besser!
(c) W. Conen, FH GE, ADS, V1.0a
11
Heap mit Array: Aufbau
„
„
Annahme: Wir kennen n vorab.
Dann können wir alle Blattpositionen füllen, ohne
Vergleiche/Tauschoperationen ausführen zu müssen!
„
Warum? Das kann die partielle Ordnung nicht verletzen!
„
Wie geht das?
„
Wir füllen das Array „von hinten nach vorn“ und beginnen mit
dem Einfügen per INSERT erst ab Position (n DIV 2) (für n=10
also Position 5)
(c) W. Conen, FH GE, ADS, V1.0a
12
Heap mit Array: Aufbau (1)
„
„
Naives Einfügen-von-vorn (mit INSERT) kostet
log1 + log 2 + ... + log n = Ω(n log n)
Jetzt haben wir Kosten für das Füllen von O(n):
‰ Sei a ein Array mit n Elementen.
‰ Zahl der Vergleiche, um eine partielle Ordnung zu erzeugen, ist
höchstens 2mal so groß, wie die Summe der Entfernungen aller
Knoten bis zur Blattebene! (Jeder Knoten sinkt von ganz oben
bis ganz unten)
‰ Fortsetzung nächste Folie...
(c) W. Conen, FH GE, ADS, V1.0a
13
Heap mit Array: Aufbau (2)
„
„
„
„
„
„
„
Die Summe dieser Abstände übersteigt die Zahl n NICHT:
Etwas die Hälfte der Knoten sind Blätter, etwa 1/4 hat den
Abstand 1, etwa 1/8 den Abstand 2 usw.
Beispiel: n = 31 (Tiefe 4, also 5 Schichten, vollbesetzt)
Abstandssumme: 26, allgemein für vollständige Binärbäume der
Tiefe k (mit n = 2k+1 – 1 Knoten):
‰ n - k -1 (best case)
Beispiel: n=32 (also Tiefe 5, Schicht 6 hat nur einen Knoten!)
Abstandssumme: 31, allgemein mit n = 2k+1
‰ n-1 (worst case)
Abstandssumme also insgesamt immer kleiner als n.
(c) W. Conen, FH GE, ADS, V1.0a
14
Heap „verkehrt“
„
„
„
„
„Normale“ Heapanwendung: Heapsort
Ohne weiteren nennenswerten Platz zu beanspruchen, wollen wir
„in situ“ (also direkt „am Ort“) sortieren.
Das geht leichter, wenn wir einen Heap bauen, der eine
„umgekehrte“ partielle Ordnungsbedingung erfüllt: die Wurzel ist
größergleich als die Söhne (also ein Max- bzw. ≥-Heap)
Dann wenden wir ein DELETE MAX an und tauschen die Wurzel (n1)-mal gegen das letzte Element des Heaps (und verkürzen
diesen dann „von hinten“ und sammeln so dahinter die
geordneten Elemente ein! (s. Applet))
(c) W. Conen, FH GE, ADS, V1.0a
15
Heapsort improved
„
„
„
„Normaler“ Heapsort (wie gerade beschrieben) hat Worst- und
average-case-Kosten von 2n log n + O(n)
Zur Erinnerung: Quicksort im average-case:
1,386 n log n + O(n), worst-case: O(n2)
Aber Heap-Sort kann es noch besser!
(c) W. Conen, FH GE, ADS, V1.0a
16
Bottom-Up Heapsort
„
„
„
Bisher haben wir beim Einsinken gleich Ordnung geschaffen:
‰ Der kleinere Sohn wurde ausgewählt und zur neuen Wurzel
gemacht.
‰ Das sind 2 Vergleiche: Söhne miteinander, Wurzel gegen
kleineren (bei Min-Heap) bzw. größeren Sohn (bei Max-Heap).
Jetzt stellen wir uns vor, wir hätten beispielsweise einen Min-Heap
bis zum Element a[2] bereits gefüllt und organisiert und fügen
nun die Wurzel a[1] hinzu.
Jetzt suchen wir zunächst eine „virtuellen“ Einsinkepfad bis ganz
nach unten...
‰ indem wir nur zwischen den Söhnen vergleichen und in
Richtung des kleineren Sohn weitergehen...
(c) W. Conen, FH GE, ADS, V1.0a
17
Bottom-Up Heapsort
„
„
„
... und folgen dann dem eben beschrittenen Pfad solange wieder nach
oben,
‰ bis wir den Wert von a[1] an die Stelle des momentan betrachteten
Elements q schreiben können
‰ dort ist erstmals a[1] > q.
Dann lassen wir den Wert des momentan betrachteten Elements und
alle anderen Werte auf die Position ihrer Väter rutschen
(die Wurzel ist ja gerade leer, die wird zuletzt gefüllt, dann stoppen
wir natürlich)
Auf den nächsten Folien findet sich ein Beispiel!
[Bottom-Up-Heapsort ist eine Idee von Prof. Wegener, U DO]
(c) W. Conen, FH GE, ADS, V1.0a
18
Bottom-Up Heapsort: Down-Phase
≤-Heap, Wurzel
mit Wert 12
wird einsortiert.
12
4
6
Min?
12 Min? 11
13
19
Min?
17
Min?
15
17
13
10
12
13
20
11
16
17
11
: „Virtueller“ Einfügepfad
(c) W. Conen, FH GE, ADS, V1.0a
19
Bottom-Up Heapsort: Up-Phase (1)
≤-Heap, Wurzel
mit Wert 12
wird einsortiert.
12
4
10
6
12
13
15
12 > 11?
19
17
17
12
13
20
11
16
17
11
13 <12?
: Suche nach Einfügepunkt
(c) W. Conen, FH GE, ADS, V1.0a
20
Bottom-Up Heapsort: Up-Phase (2)
≤-Heap, Wurzel
mit Wert 12
wird einsortiert.
12
12
4
4
6
10
11
6
12
13
15
11
12
19
17
17
12
13
20
11
16
17
11
13
: Ringtausch
(c) W. Conen, FH GE, ADS, V1.0a
21
Bottom-Up Heapsort: Performance
„
„
„
Geht der Ringtausch bis zur Tiefe t (t ≤ log n), erfordert das
log n + (log n – t) = 2 log n – t Vergleiche.
Gerade haben wir 4 + 2 Vergleiche benötigt (die grünen Ovale)!
„Normaler Heapsort“ hätte 8 Vergleiche benötigt (warum?)
Das benötigt im average case („Durchschnittsfall“) sehr nahe an
1*n*log n + O(n) – und besser geht es auch theoretisch für
Sortierverfahren mit paarweisen Schlüsselvergleichen kaum!
(c) W. Conen, FH GE, ADS, V1.0a
22
Bottom-Up Heapsort: Performance
„
„
„
„
„
In Experimenten war Bottom-Up-Heapsort etwa ab n > 400 besser,
als Quicksort ...
... und ab n > 16000 besser, als Clever-Quicksort
bei Quicksort sind die Konstanten im Faktor O(n) also günstiger, so
dass er für kleine n, trotz der schlechteren Konstante vorne, besser
ist.
Für größere n ist aber Bottom-Up-Heapsort besser (mit sich
vergrößerndem Vorsprung)!
(genaue Analyse in Güting/Dieker)
(c) W. Conen, FH GE, ADS, V1.0a
23
Literatur
„
„
Allgemein zur Algorithmik:
‰
Cormen, Leierson, Rivest: Introduction to Algorithms, MIT Press, 2001, 1184
Seiten, knapp über 60 Euro (DAS Standardwerk, sehr präzise, schön gesetzte
Darstellung, Englisch, leider teuer, aber etwas, das man immer wieder in die
Hand nehmen kann – allerdings ohne Bottom-Up-Heapsort!) – gibt es seit
Oktober 2004 auch übersetzt für knapp 70 € vom Oldenbourg-Verlag (zur
Qualität der Übersetzung kann ich nich nichts sagen)
‰
Bernd Owsnicki-Klewe: Algorithmen und Datenstrukturen, 2002, WißnerVerlag, sehr gut lesbarer, hinreichend präziser „Standard“-Streifzug durch die
Algorithmik, recht knappe Darstellung, aber nette Auswahl, orientiert sich u.a.
auch an Cormen et. al (hat deshalb auch nichts zu Bottom-Up-Heaps), 15,80 €
Ergänzend
‰
Güting, Dieker: Datenstrukturen und Algorithmen, Teubner, 2. Aufl., 2003
(krumme Grafiken und nicht sehr übersichtlich gesetzt, sonst sehr nett,
Reihenfolge nicht immer glücklich gewählt – vom Problem zur Datenstruktur ist
meist besser als umgekehrt, aber insgesamt les- und brauchbar, gibt es jetzt in
der 3. Auflage für 29,90 – mit Bottom-Up-Heaps)
‰
Uwe Schöning: Algorithmik, Spektrum, 2001 (runder, tiefer, aber auch knapp und
nicht leicht)
‰
Ottmann, Widmayer: Algorithmen und Datenstrukturen, Spektrum, 2002, dick
und teuer (noch teuer derzeit, als Cormen, Leierson, Rivest, und nicht ganz so
schön, aber umfassend und erprobt.
(c) W. Conen, FH GE, ADS, V1.0a
24
Literatur
„
Speziell zu Heaps (für angehende Heap-Fans) z.B.
‰ Stefan Edelkamps (Juniorprof. an der Uni DO) Diplomarbeit:
Weak-Heapsort: Ein schnelles Sortierverfahren
‰
... und jede Menge Forschungspapiere, z.B. On the
Performance of Weak-Heapsort (Edelkamp, Wegener, 1999)
etc.
(das brauchen sie natürlich nicht zu lesen, aber hier finden Sie
Startpunkte, wenn sie ein „Sortier“-Spezialist werden wollen ;-)
(c) W. Conen, FH GE, ADS, V1.0a
25
Herunterladen