25. Vorlesung (22.01.2015): Problem des Handlungsreisenden (TSP)

Werbung
1
Algorithmen und Datenstrukturen
Wintersemester 2014/15
25. Vorlesung
Der Handlungsreisende
Prof. Dr. Alexander Wolff
Lehrstuhl für Informatik I
2
Der Handlungsreisende
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Beispiel.
c ≡ dEukl.
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Beispiel.
c ≡ dEukl.
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis K in G mit minimalen
Kosten c (K ).
Beispiel.
c ≡ dEukl.
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis KPin G mit minimalen
Kosten c (K ).:= e ∈K c (e ).
Beispiel.
c ≡ dEukl.
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis KPin G mit minimalen
Kosten c (K ).:= e ∈K c (e ).
(Ein HK besucht jeden Knoten genau 1×.)
Beispiel.
c ≡ dEukl.
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis KPin G mit minimalen
Kosten c (K ).:= e ∈K c (e ).
(Ein HK besucht jeden Knoten genau 1×.)
Beispiel.
c ≡ dEukl.
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis KPin G mit minimalen
Kosten c (K ).:= e ∈K c (e ).
(Ein HK besucht jeden Knoten genau 1×.)
Beispiel.
c ≡ dEukl.
Problem.
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis KPin G mit minimalen
Kosten c (K ).:= e ∈K c (e ).
(Ein HK besucht jeden Knoten genau 1×.)
Beispiel.
c ≡ dEukl.
Problem.
TSP ist NP-schwer
3
Das Problem
Definition. Traveling Salesperson Problem (TSP)
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis KPin G mit minimalen
Kosten c (K ).:= e ∈K c (e ).
(Ein HK besucht jeden Knoten genau 1×.)
Beispiel.
c ≡ dEukl.
Problem.
TSP ist NP-schwer
und schwer zu
approximieren.
4
Etwas Geschichte
4
Etwas Geschichte
Der Handlungsreisende – wie er
sein soll und was er zu thun hat,
um Aufträge zu erhalten und eines
glücklichen Erfolgs in seinen
Geschäften gewiss zu sein.
Von einem alten Commis-Voyageur
[1832]
4
Etwas Geschichte
Der Handlungsreisende – wie er
sein soll und was er zu thun hat,
um Aufträge zu erhalten und eines
glücklichen Erfolgs in seinen
Geschäften gewiss zu sein.
Von einem alten Commis-Voyageur
[1832]
Rekord I:
optimale 120-Städte-Tour
[Groetschel, 1977]
4
Etwas Geschichte
Der Handlungsreisende – wie er
sein soll und was er zu thun hat,
um Aufträge zu erhalten und eines
glücklichen Erfolgs in seinen
Geschäften gewiss zu sein.
Von einem alten Commis-Voyageur
[1832]
Rekord I:
optimale 120-Städte-Tour
[Groetschel, 1977]
Rekord II:
optimale 15.112-Städte-Tour
[Applegate, Bixby, Chvátal, Cook
2001]
5
Was tun?
Problem:
Traveling Salesperson Problem
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
5
Was tun? – Mach das Problem leichter!
Problem:
Traveling Salesperson Problem
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
5
Was tun? – Mach das Problem leichter!
Problem:
u
v
w
Traveling Salesperson Problem
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Beweis.
Geg. gewichteter
vollst. Graph G .
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Beweis.
Berechne min. Spannbaum MSB.
Geg. gewichteter
vollst. Graph G .
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Beweis.
Berechne min. Spannbaum MSB.
Geg. gewichteter
vollst. Graph G .
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
5
Was tun? – Mach das Problem leichter!
Problem: Metrisches Traveling Salesperson Problem (∆-TSP)
u
v
w
Gegeben: unger. vollständiger Graph G = (V , E )
mit Kantenkosten c : E → R≥0 ,
die die Dreiecksungleichung erfüllen,
d.h. ∀u , v , w ∈ V : c (u , w ) ≤ c (u , v ) + c (v , w ).
Gesucht: Hamiltonkreis in G mit minimalen Kosten.
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
Algorithmus:
Berechne min. Spannbaum MSB.
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
6
Analyse
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
6
Analyse
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
6
Analyse
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤
6
Analyse
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Beweis.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤
Dreiecksungleichung
6
Analyse
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Beweis.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤ c (Kreis) =
Dreiecksungleichung
6
Analyse
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Beweis.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤ c (Kreis) = 2 · c (MSB) ≤
Dreiecksungleichung
6
Analyse
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Beweis.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤ c (Kreis) = 2 · c (MSB) ≤ 2 · OPT
Dreiecksungleichung
6
Analyse
Satz.
Es gibt eine 2-Approximation für ∆-TSP.
Beweis.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤ c (Kreis) = 2 · c (MSB) ≤ 2 · OPT
Dreiecksungleichung
6
Analyse
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤ c (Kreis) = 2 · c (MSB) ≤ 2 · OPT
Dreiecksungleichung Optimale TSP-Tour minus eine Kante ist
(i.A. nicht minimaler) Spannbaum!!
6
Analyse
Satz.
Beweis.
Es gibt eine 2-Approximation für ∆-TSP.
1. Algorithmus
Berechne MSB von G .
Verdopple MSB ⇒ ergibt Kreis!
Durchlaufe den Kreis.
Überspringe besuchte Knoten.
Füge Abkürzungen“ ein.
”
2. Analyse
c (ALG) ≤ c (Kreis) = 2 · c (MSB) ≤ 2 · OPT
Dreiecksungleichung Optimale TSP-Tour minus eine Kante ist
(i.A. nicht minimaler) Spannbaum!!
Die Kunst“ der unteren Schranke: c (min. Spannbaum) ≤ c (TSP-Tour)
”
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten:
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ):
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ):
O (n) Zeit.
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ): O (n) Zeit.
Berechnung der nächsten Permutation:
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ): O (n) Zeit.
Berechnung der nächsten Permutation: ???
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ): O (n) Zeit.
Berechnung der nächsten Permutation: ???
Ang. ??? = O (n), dann ist die Laufzeit
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ): O (n) Zeit.
Berechnung der nächsten Permutation: ???
Ang. ??? = O (n), dann ist die Laufzeit O (n!).
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ): O (n) Zeit.
Berechnung der nächsten Permutation: ???
Ang. ??? = O (n), dann ist die Laufzeit O (n!).
Speicher:
7
Exakte Berechnung: Brute Force
Algorithmus:
Für jede Permutation σ von h1, 2, . . . , ni:
Berechne die Kosten der Tour durch die
Knoten v1 , . . . , vn in dieser Reihenfolge:
Pn−1
c (σ) = i =1 c (vσ(i ) vσ(i +1) )+ c (vσ(n) vσ(1) )
Gib die kürzeste Tour zurück.
Laufzeit:
Anzahl Permutationen von n Objekten: n!
Hält man den 1. Knoten fest, so bleiben nur“ (n − 1)! Permutationen.
”
Berechnung einer Tourlänge c (σ): O (n) Zeit.
Berechnung der nächsten Permutation: ???
Ang. ??? = O (n), dann ist die Laufzeit O (n!).
Speicher:
O (n) für die aktuelle Permutation.
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
j
i
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
j
i
Vertausche σ(i ) und σ(j ).
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
j
i
Vertausche σ(i ) und σ(j ).
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
j
i
h1, 2, 4, 5, 3i
j
i
Vertausche σ(i ) und σ(j ).
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
j
i
h1, 2, 4, 5, 3i
j
i
Vertausche σ(i ) und σ(j ).
Kehre die Teilfolge hσ(i + 1), σ(i + 2), . . . , σ(j )i um.
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
j
i
h1, 2, 4, 5, 3i
j
i
Vertausche σ(i ) und σ(j ).
Kehre die Teilfolge hσ(i + 1), σ(i + 2), . . . , σ(j )i um.
8
Wie iteriert man durch alle Permutationen?
Z.B. in lexikografischer Ordnung:
h1, 2, 3, 4, 5i, h1, 2, 3, 5, 4i, h1, 2, 4, 3, 5i, h1, 2, 4, 5, 3i, . . . , h5, 4, 3, 2, 1i.
Für gegebene Permutation σ finde Nachfolger in O (n) Zeit:
Bestimme größten Index i
∈ {1, . . . , n − 1}
mit σ(i ) < σ(i + 1).
Falls nicht existiert, fertig (σ = letzte Permutation).
Sonst bestimme größten Index j mit σ(i ) < σ(j ).
z.B. h1, 2, 3, 5, 4i
j
i
h1, 2, 4, 5, 3i
j
i
h1, 2, 4, 3, 5i
j
i
Vertausche σ(i ) und σ(j ).
Kehre die Teilfolge hσ(i + 1), σ(i + 2), . . . , σ(j )i um.
9
Wie groß ist n! ?
n! = 1 · 2 · . . . · n
9
Wie groß ist n! ?
≤ n! = 1 · 2 · . . . · n ≤
9
Wie groß ist n! ?
≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n
9
Wie groß ist n! ?
≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n! ≤ nn =
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n! ≤ nn = 2
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n
n! ≤ n = 2
log2 n
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n
n! ≤ n = 2
log2 n
n
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n
n! ≤ n = 2
log2 n
n
=
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n
n! ≤ n = 2
log2 n
n
= 2n log2 n
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n
≤ n! ≤ n = 2
log2 n
n
= 2n log2 n
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
n/2 log2 n/2
2
n
≤ n! ≤ n = 2
log2 n
n
= 2n log2 n
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
⇒
n/2 log2 n/2
2
n
≤ n! ≤ n = 2
n! ∈
log2 n
n
= 2n log2 n
9
Wie groß ist n! ?
n/2 · n/2 · . . . · n/2 ≤ n! = 1 · 2 · . . . · n ≤ n · n · . . . · n = nn
|
{z
}
n/2 mal
⇒
⇒
n/2 log2 n/2
2
n
≤ n! ≤ n = 2
log2 n
n! ∈ 2Θ (n log n)
n
= 2n log2 n
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] =
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
OPT[W , vi ] =
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi }
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ]
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ] +
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ] + c (vj , vi )
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ] + c (vj , vi )
⇒
OPT =
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ] + c (vj , vi )
⇒
OPT = mink 6=1
Index des letzten Knotens vor v1
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ] + c (vj , vi )
⇒
OPT = mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ]
Index des letzten Knotens vor v1
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ] + c (vj , vi )
⇒
OPT = mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] +
Index des letzten Knotens vor v1
10
Exakte Berechnung: Schneller per DP!
Wir beginnen alle Rundtouren im Knoten v1 .
Für eine Knotenmenge W ⊆ V mit vi ∈ W definieren wir
OPT[W , vi ] := optimale (kürzeste) Länge eines v1 -vi -Wegs
durch alle Knoten in W .
Schritt 3? für DP: Berechne Wert einer opt. Lösung rekursiv!
Dann gilt für W = {vi }:
OPT[W , vi ] = c (v1 , vi )
Und für W mit {vi } ( W :
Letzter Knoten vor vi
OPT[W , vi ] = minvj ∈W \{vi } OPT[W \ {vi }, vj ] + c (vj , vi )
⇒
OPT = mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Index des letzten Knotens vor v1
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife:
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife: O (n) Zeit
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife: O (n) Zeit
Wie viele Paare (W , vi ) mit vi ∈ W ⊆ V gibt’s?
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife: O (n) Zeit
Wie viele Paare (W , vi ) mit vi ∈ W ⊆ V gibt’s? ≤ n2n
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife: O (n) Zeit
Wie viele Paare (W , vi ) mit vi ∈ W ⊆ V gibt’s? ≤ n2n
⇒ Gesamtlaufzeit ∈ O
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife: O (n) Zeit
Wie viele Paare (W , vi ) mit vi ∈ W ⊆ V gibt’s? ≤ n2n
2
n
⇒ Gesamtlaufzeit ∈ O n · 2
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife: O (n) Zeit
Wie viele Paare (W , vi ) mit vi ∈ W ⊆ V gibt’s? ≤ n2n
2
n
Speicher:
⇒ Gesamtlaufzeit ∈ O n · 2
11
Der Algorithmus von Held-Karp
Schritt 5? für DP: Stelle Bottom-Up-Algorithmus auf!
HeldKarp Knotenmenge V , Abstände c : V × V → R≥0
for i = 2 to n do
OPT[{vi }, vi ] = c (v1 , vi )
for j = 2 to n − 1 do
foreach W ⊆ {v2 , . . . , vn } mit |W | = j do
foreach vi ∈ W do
OPT[W,vi ] = minvj ∈W \{vi } OPT[W \{vi },vj ]+ c (vj ,vi )
return mink 6=1 OPT[{v2 , v3 , . . . , vn }, vk ] + c (vk , v1 )
Laufzeit: innere foreach-Schleife: O (n) Zeit
Wie viele Paare (W , vi ) mit vi ∈ W ⊆ V gibt’s? ≤ n2n
2
n
n
Speicher: O n · 2
⇒ Gesamtlaufzeit ∈ O n · 2
12
Vergleich
Brute Force
Laufzeit
Speicher
Held-Karp
12
Vergleich
Brute Force
Laufzeit
Speicher
2Θ (n log n)
Held-Karp
12
Vergleich
Brute Force
Laufzeit
Speicher
2Θ (n log n)
Held-Karp
2
n
O n ·2
12
Vergleich
Brute Force
Laufzeit
Speicher
2Θ (n log n)
Held-Karp
2
n
O n ·2
n
O n·2
12
Vergleich
Brute Force
Laufzeit
2Θ (n log n)
Speicher
O (n )
Held-Karp
2
n
O n ·2
n
O n·2
12
Vergleich
Brute Force
Laufzeit
2Θ (n log n)
Speicher
O (n )
Held-Karp
2
n
O n ·2
n
O n·2
Herunterladen