Word Dokument

Werbung
Biomedizinische Technik
von
Jelena Curcic
Bojan Gasic
Yves Corrodi
Geschichte der Virtuellen Realität
Einführung:
Virtuelle Realität (VR), der Begriff, der noch anfangs der 90er Jahre nur einer kleinen Forschergruppe
bekannt gewesen war, hat inzwischen seine Verbreitung in den Massenmedien gefunden. Es ist
immer noch schwierig eine eindeutige Antwort auf die Frage „Was ist Virtuelle Realität?“ zu geben.
Das aus dem Lateinischen kommende „virtuell“ (virtus, Kraft, Vermögen) fand bislang vorwiegend in
der Physik Bedeutung. Unter Realität soll die unabhängig von der Existenz des Lebens, des
Psychischen und des Menschen existierende physikalische Welt verstanden werden. Unter
Wirklichkeit können wir demgegenüber alle Formen der subjektiven Erscheinung der Realität
verstehen, seien sie unmittelbar als Abbild oder als unabhängig von der Realität angesehen.
Virtuelle Realität kann kurzgefasst als eine Technik beschrieben werden, durch die der Mensch mit
einer von ihm selbst entworfenen und von einem Computer generierten dreidimensionalen
künstlichen Welt interagieren kann. Die VR–Technik umfasst Ein- und Ausgabetechniken, die es dem
Menschen erlauben, eine sinnliche Erfahrung zu machen, die einer physikalisch existierenden
Wirklichkeit nicht entspricht oder eine physikalisch existierende Wirklichkeit um normalerweise so nicht
wahrnehmbare Dimensionen erweitert, beispielsweise mit Durchsichtssystemen, bei denen sich ein
reales Bild und Computergrafik überlagern.
Der Beginn:
Die ältesten Zeugnisse bildhafter Gestaltung sind zwischen 30'000 und 50'000 Jahre alt (Die Höhle
von Lascaux, siehe Bild). Also lange, bevor der Mensch die Sprache und die Schrift entwickelte, war
für den Menschen das Bild die einzige Möglichkeit, seine Umwelt zu beschreiben. Viele Historiker und
Philosophen teilen die Meinung, dass die sichtbare Welt zuerst visuell strukturiert und zeichenhaft
formuliert werden musste, ehe sie sprachlich erfasst werden konnte. Die Virtualisierung von Raum und
Zeit, wurde vor allem durch die Schrift möglich. Der Läufer oder Bote von Nachrichten stellte eine
Vorstufe zur räumlichen Virtualisierung dar. Das vom Sender Niedergeschriebene konnte von vielen
Empfängern, zu beliebiger Zeit an beliebigen Orten aufgenommen werden. Nachdem jahrhundertlang
die Schrift über das Bild dominierte, gelang es visuellen Medien wie Fotografie, Film, Fernsehen,
Video und dann auch Computeranimationen in relativ kurzer Zeit, die Vorzeichen umzukehren. Die
technische Reproduzierbarkeit des mit den eigenen Augen Gesehenen, faszinierte den Menschen
schon sehr früh. Diese Faszination war auch sicherlich eine der entscheidenden Kräfte für die
Entwicklung der Fotografie und der Filmtechnik. Den ältesten Vorläufer der Projektionstechnik gab es
schon im alten China in Form der Schattenprojektion. Aber erst mit der Entwicklung lichtempfindlicher
Substanzen und eines geeigneten Trägermaterials Ende des 19. Jahrhundert wurde es möglich, reale
Objekte im Bewegbild aufzuzeichnen und später wiederzugeben.
Entwicklung der VR-Technik:
Am Anfang des 20. Jahrhunderts, in den Jahrmärkten der Moderne, den Spielhallen, hat die VR
bereits Einzug erhalten und diente dort der Publikumsattraktion. Die Entwicklung hin zur heutigen VR-
Technik verlief uneinheitlich. Obwohl bereits in den sechziger Jahren die ersten Grundlagen
geschaffen wurden, dauerte es doch noch weitere 20 Jahre, bis die erhöhte Leistungsfähigkeit der
Computer eine befriedigende interaktive Simulation virtueller Welten erlaubte. Auch wenn sich heute
zunehmend Unternehmen für VR-Techniken interessieren, liegen die Ursprünge in der militärischen
Forschung.
Die gesamte Entwicklung des Computers und der Informatik wurde von Anbeginn an von militärischen
Interessen beeinflusst, obgleich die theoretischen Grundlagen, die bis in das Jahr 1843 zurückreichen,
zunächst auf nicht-militärischen Überlegungen fusste (beispielsweise das im Jahre 1843 entwickelte
Konzept für einen Digitalrechner).
Die Verwertung der in Militärforschung gewonnenen Erkenntnissen im zivilen Bereich, ergab sich erst
viel später, und auch heute findet sich der Ursprung vieler sogenannter „neuartiger“ Entwicklungen der
zivilen Computertechnik in militärischen Anwendungen (beispielsweise die objektorientierte
Programmierung). Das Militär bediente sich anfangs der fünfziger Jahre der Videotechnik, die ihnen
erstmals eine realistische und interaktive Flugsimulation erlaubte.
Viele Forscherprojekte, die in den sechziger und siebziger Jahren begonnen wurden, mussten
seinerzeit abgebrochen werden, da die damalige Rechnerkapazität nicht ausreichte, die Ideen auf
dem Computer umzusetzen. Das Projekt zur dreidimensionalen Betrachtung und Manipulation von
Molekülen hatte seine Wurzeln bereits 1968 und dennoch wurden erst 1986, in einer neuen
Versuchsreihe die Systeme entwickelt. An der UNC wurde mit „PixelPlanes“ in den späteren achtziger
Jahren von Henry Fuchs, ein speziell auf VR-Anwendungen ausgerichteter Parallelrechner entworfen.
Vermutlich relativ unberührt konnte die militärische Forschung weiterlaufen, da die finanziellen Mittel
aufgrund der bestehenden Ost/West-Konfrontation weiterflossen. Aber auch diese Forschung wird,
wenn sie nicht gar selbst die Entwicklung schnellerer Rechner entscheidend vorangetrieben hat, von
der Leistungssteigerung der Hardware- und Softwarekomponenten profitiert haben.
Das Programm für das „Virtual Environment Display System“(VIVED) lief 1985 bei der NASA an. Der
Hintergrund für die VR-Bemühungen der NASA war zum einen die Entwicklung und Erforschung
neuer Mensch-Computer-Schnittstellen, die den Astronauten bei der Kontrolle der immer komplizierter
werdenden Raumfahrzeuge helfen sollten. Zum anderen bestand der Wunsch, geeignete
telerobotische Systeme zu entwickeln, die zum Bau von Weltraumstationen unentbehrlich sind. Im
VPE-Projekt versuchte die NASA die riesigen Datenmengen, die ihnen die Viking-Sonden vom Mars
funkten, in einer geeigneten Weise zu visualisieren. Die vorwiegend numerischen Daten über den
Mars wurden durch das VR-System dergestalt visualisiert, dass die Forscher die Marsoberfläche
dreidimensional und interaktiv erkunden konnten. Darüber hinaus war es das Ziel, ein System zu
entwickeln, das sich beliebig auf andere Planetendaten umstellen lässt und somit in Zukunft ein
sinnvolles Werkzeug für die virtuelle Planetenerkundung von der Erde aus darstellt. Da die Technik
noch nicht so weit ist, autonome Roboter zu konstruieren, verlagerte man den Schwerpunkt auf
Teleoperatoren, ferngesteuerte Roboter. VR-Steuersysteme in Verbindung mit präzisen Endeffektoren
wie mechanischen Händen ermöglichten den Bau von Telerobotern, die in der Lage sind,
beispielsweise Reparaturen an Satelliten durchzuführen.
Medizintechnik:
Das Potential der VR in der Medizin wurde schon früh erkannt. Schon 1971 entwickelte Ivan
Sutherlands Forschergruppe in Zusammenarbeit mit einem Ärzteteam eine Methode zur Operation
eines simulierten Zusammenflusses zweier grosser Arterien.
In den neunziger Jahren begannen sich die High-Tech-Systeme in der Medizin, wie die Röntgen-,
Ultraschall-, Computer- und Kernspintomographie-Geräten einzureihen. Viele dieser Geräte erlauben
die Erzeugung von volumigen Bildern von Organen oder anderen inneren Körperteilen. In Verbindung
mit der VR-Technik konnten diese Bildergebnisse für den behandelnden Arzt noch besser visualisiert
werden.
Unter anderem wurden in der Krebstherapie kernspintomographische Aufnahmen (siehe Bild)
verwendet, um die verschiedenen Schichten eines Tumors zu zeigen. In unserem Beispiel sehen wir
im Bild, eine Aufnahme eines Patienten, dem ein Gen aus einem Herpesvirus in die entarteten
Hirnzellen eingeschleust wurde; das Enzym wandelt eine ansonsten unschädliche Verbindung in ein
toxisches Produkt um, durch das nicht nur die Herstellerzellen, sondern auch einige der benachbarten
Krebszellen absterben, die das Gen nicht ausprägen. Wir sehen die kernspintomographischen
Aufnahmen vor und zwei Wochen nach der Behandlung. Im unteren Bild wird die räumliche
Rekonstruktion gezeigt.
Solche Aufnahmen sind für den Arzt sehr wichtig, weil er die krankheitsbefallenen Zellen genau
lokalisieren kann und innerhalb kürzester Zeit exakt auswerten kann.
nachher
vorher
Die VR eröffnete auch neue Möglichkeiten für die minimal-invasive Operationstechnik (unser
Programm), was zu einer Vereinfachung und somit Kostenreduzierung der konventionellen
Operationen in der Therapie führte. Die Akzeptanz dieser neuen Behandlungsmöglichkeiten ist beim
Patienten erwartungsgemäss sehr hoch, auch wenn die Gerätemedizin oft beklagt wird. Zudem
werden die angehenden Ärzte immer mehr in hochtechnologischen Gerätschaften eingeführt. Als
Folge dieser medizintechnischen Revolution, wurden in vielen Instituten zunehmend die sonst
obligatorischen Tierversuche durch entsprechende interaktive Multimedia-Systeme ersetzt. Auf der
anderen Seite wuchs auf
Seite der Ärzteschaft ständig der Druck, sich den neuen
Behandlungsmethoden anzupassen.
Natürlich wurden in der medizinischen Abteilung automatisch ungleich höhere Forderungen an ein
VR-System gestellt als in anderen Bereichen, denn schliesslich sind in der Medizin Menschen direkt
vom korrekten Verhalten des Systems abhängig.
Schulung und virtuelle Operationen:
Es wurden Systeme entwickelt, wo die Medizinstudenten, anstatt an Leichen an virtuellen Körpern, für
zukünftige operative Eingriffe, üben können. Beispielsweise wurde 1993 im amerikanischen Georgia
eine Multimedia-Software entwickelt (ADAM Software), die, basierend auf einer anatomischen
Datenbank, hochauflösende Bilder mit umfassenden medizinischen Informationen kombiniert. Das
ADAM-System erlaubt die stufenweise Sezierung eines menschlichen Körpers. Der Benutzer kann
stufenweise verschiedene Schichten des Körpers „abziehen“ und dabei den genauen Aufbau des
Körpers studieren. Bis zu 40 Schichten können untersucht, und so jeder Nerv, Muskel oder Knochen
offengelegt werden. Des weiteren kann der sezierte Körper von verschiedenen Blickpunkten aus
betrachtet werden, und die Informationen werden ergänzt durch zusätzliche Röntgen oder
Tomographieaufnahmen.
Schon in dieser Zeit wurde heftig diskutiert, wie ein vergleichbares VR-System mit den
Telepräsenzmöglichkeiten der VR kombiniert werden kann. Spezialisten könnten auf der ganzen Welt
eine gemeinsame Operation durchführen, ohne ihren Heimatort zu verlassen. Natürlich ist ein solches
System auch geeignet Studenten zu unterrichten. Denn auch diese hätten die Möglichkeit, den
Operationsvorgang aus der Sicht des Professors mitzuerleben.
Das gleiche System dient aber auch dazu, Ängste von Patienten vor Operationen zu verringern. Der
behandelnde Arzt kann zusammen mit seinem Patienten die Operation in der VR durchspielen. Die
Angst des Patienten, die nicht selten nur daraus resultiert, dass der Kranke nicht weiss oder
einschätzen kann, was mit ihm geschieht, kann stark vermindert werden.
Minimal-Invasive Chirurgie und Nanotechnologie:
In der Fernchirurgie kann die eigentliche Operation in der virtuellen Realität vorgenommen werden.
Die Vorstellung war, durch Nanotechnologie winzige Teleoperatoren zu konstruieren, die, in die
Blutbahn des Patienten gebracht, minimal-invasive chirurgische Operationen erlauben. Unter minimalinvasiven Eingriffen versteht man die Einbringung von speziellen katheder-ähnlichen Instrumenten in
den Körper des Patienten. Über die Blutbahn oder den Verdauungstrakt beispielsweise kann der Arzt
mit seinen Instrumenten an den eigentlichen Behandlungsort vordringen, ohne einen schweren
operativen Eingriff mit all seinen Risiken vorzunehmen. Der Nutzen dieser Technologie liegt darin,
Menschen zu helfen, die in Staaten mit schlechter medizinischer Versorgung leben. Obwohl man hier
kritisch anmerken darf, dass sich solche Länder wohl kaum die hierfür erforderliche Technik werden
leisten können.
Die Vorteile für den Patienten sind beträchtlich: Es wird das Risiko gefährlicher Infektionen verringert,
da lediglich ein kleiner Schnitt vorgenommen werden muss, um den Führungskatheder einzuführen.
Die meisten derartigen Operationen können ohne eine den Patienten belastende Vollnarkose
durchgeführt werden, oftmals kann der Patient dadurch sogar den Arzt bei der Operation unterstützen,
indem er Beschwerden oder Schmerzen dem Arzt mitteilen kann, der hierdurch zusätzliche
Informationen erhält. Gesundes Gewebe oder Organe werden kaum in Mitleidenschaft gezogen, da
grosse Schnitte zur Freilegung des Operationsgebietes entfallen können. Viele minimal-invasive
Eingriffe sind für den Patienten schmerzlos.
Fast alle diese Eingriffe werden mit einem Endoskop oder Miniaturkameras durchgeführt, die dem
Operateur einen Einblick in das Innere des Körpers ermöglichen. Es werden dem Arzt sogar VRKomponenten angeboten, die ihm das operieren erleichtern. Ersetzt man die meist einäugige Kamera
durch eine Stereo-Videokamera, kann der Arzt mit Hilfe einer Bildschirmbrille einen dreidimensionalen
Eindruck vom Inneren des Körpers erhalten. Das räumliche Sehen erleichtert die Positionierung der
winzigen Instrumente im Körper.
Doch auch das Training dieser neuartigen Operationsmethoden kann die virtuelle Realität helfen.
Viele Ärzte, die lange Zeit nur konventionelle Operationen durchführten, müssen umdenken. Viele
Patienten bevorzugen aufgrund der oben aufgezählten Vorteile minimal-invasive Eingriffe, und um
auch in Zukunft genügend Patienten zu haben, müssen die meisten Ärzte erst in die neue Technik
eingeführt werden. Es wurde nicht mehr Präzision in Führung des Skalpells verlangt, sondern die
Ärzte mussten nun lernen, wie sie am geschicktesten den Führungskatheder im Körper
voranschieben, ohne Verletzungen zu verursachen. Viele der Instrumente die zum Einsatz minimalinvasiver Eingriffe entwickelt wurden, sind Miniaturisierung gewöhnlicher Operationshilfsmittel. Es
werden zum Beispiel Laser, Zangen, Ultraschallstossgeräte oder erhitzbare Drahtschlingen
verwendet.
Gegenwart:
„Virtual reality is the ultimate surgical simulator!“ – R.Mann, 1991
Technischer Anblick:
Software:
Das Erste, was man für eine gute virtuelle medizinische Umgebung braucht, ist eine bildliche
Darstellungsquelle. Es wurden nämlich schon Bilder von menschlichen Körper und Organen von
hoher Qualität erzeugt. Diese Bilder sind sehr nützlich und sind in Anwendung für die medizinische
Ausbildung. Diese sind aber statisch, generisch und nicht patientenspezifisch. Heutzutage kann die
computermedizinische Technik patientenspezifische Bilder von so hoher Qualität erzeugen, so dass
diese in drei Dimensionen rekonstruiert werden können. Diese Darstellungen können nicht nur in
Ausbildung verwendet werden, sondern auch im intraoperativen Anwendungsbereich. Eine von vielen
Softwaretechnologien, die zur Verarbeitung von virtuellen Welten eingesetzt werden, ist Rendering.
Rendering ist die Transformation des parametrischen Datenmodells in diskrete Bilder, wobei
mindestens 20 Bilder pro Sekunde für realistische Bewegungen erforderlich sind. Das Bild muss
zuerst segmentiert werden, um den Bereich zu finden, der von Interesse ist. Die Segmentation enthält
zwei dimensionale CT (Computer-Tomographie) und Elimination von Fremdgeräuschen. Zurzeit ist
dieser Vorgang der Segmentation nicht gut standardisiert, und es bestehen sogar Risiken für
medizinische Applikationen in der VR. Realistische interaktive virtuelle chirurgische Umgebungen
sollten fähig sein, die Bewegungen der menschlichen Hand und den virtuellen Objekten zu
interpretieren. Insbesondere sollten sie die Kollisionen und das Aufeinanderwirken analysieren
können. Die meisten heutigen VR-Algorithmen können komplexe graphische Objekte erfolgreich in
graphische Polygonen umwandeln und alle nötigen Berechnungen an diese ausführen.
Menschliche Leber:
Beide Darstellungen enthalten keine Informationen über die innere Struktur von diesem Organ. Das
virtuelle Objekt ist damit unvollständig. “Direct“ -oder „volumen rendering“ benützt die ganze
Datengarnitur und analysiert das Objekt durch „virtuel eye“. Diese Analyse ermöglicht das Sehen von
Objekten unter einem anderen Gesichtswinkel, mit Hilfe von divergenten Strahlen. Das Resultat ist,
dass man nun die innere Struktur sehen kann. Die Bilder können nachher weiter verarbeitet werden,
um das virtuelle Objekt realistischer zu gestalten.
Weil sich die Computertechnik immer schneller entwickelt, werden die Verbesserungsversuche und
Optimierungen an diesen virtuellen Objekten immer besser.
Hardware:
In der realistischen, virtuellen Umgebung sollte man in Echtzeit in der Lage sein virtuelle Objekte zu
berühren und zu manipulieren. Wichtige Fortschritte sind in Entwicklung von tastbaren interfaces
gemacht worden. Diese ermöglichen direkte Verbindungen mit der virtuellen Umgebung. Die heutigen
Computer sind in der Lage, die dreidimensionalen Simulationen mit tastbaren support, zu realisieren.
Human-Computer Interfaces:
Wenn wir mit unserer reellen Umgebung in Kontakt sind, benützen wir fünf Sinne: das Sehvermögen,
das Höhrvermogen, der Tastsinn, der Geruchssinn und der Geschmackssinn. Wenn wir gegenwärtig
mit Computer interagieren, benützen wir die Maus, die Tastatur und den Bildschirm. Diese
Komponenten können natürlich nicht eine vollständige Integration des Benutzers in die virtuelle
Umgebung bewerkstelligen. Deshalb entwickelt man weitere input/output-interfaces um mehrere
Möglichkeiten zu liefern.
Das Sehvermögen:
Das Sehvermögen ist der Hauptbestandteil unserer Sinne; 70% aller Einflüsse aus der Umwelt
werden mit dem Auge aufgenommen. Deshalb ist dieser Bestandteil der wichtigste für die Gestaltung
des virtuellen Objektes. Das dreidimensionale Eintauchen im VR ermöglicht eine der bekanntesten
Iterfaces : head mounted display(HMD).
Das Hörvermögen:
Der Anteil des Hörvermögens beträgt 20%. Um das Eintauchen zu verbessern, ist ein stereo
Kopfhörer in das HMD eingebaut. Es wurde sogar in den letzten Jahren eine Spracherkennung
entwickelt, die aber momentan selten in der VR-Umgebung benützt wird.
Der Tastsinn:
Trotz der Tatsache, dass der Tastsinn nur 5% von unserer interface beträgt, ist diese Entwicklung
entscheidend für die medizinische Anwendung der VR. DataGlove ist ein Gerät, das Berührung und
Bewegung von virtuellen Objekten ermöglicht. Ein anderes Gerät ist PHANToM, das eine
Kraftrückkopplung in drei Richtungen und ein Positionsgefühl in sechs Richtungen erzeugt. Dieses
Gerät hat seine Anwendung in der Medizin gefunden.
Der Geschmacksinn/der Geruchsinn:
Diese beiden Sinne befinden sich noch in der experimentellen Phase.
VR Anwendungen in der Chirurgie:
1. Medizinische Ausbildung und Training:
Bisher wurde die chirurgische Ausbildung der kommenden Ärzte an Patienten durchgeführt. Jetzt aber
besorgt die VR eine sichere Ausbildungsumgebung für gefährliche chirurgische Behandlungen.
Fehler dürfen gemacht werden ohne gravierende Folgen. Geräte zur Simulation sind zu jeder Zeit
verfügbar und besorgen einen strukturierten Lehrplan, der zum Zweck des Benützers standardisiert,
wiederholt, eskaliert und optimiert werden kann.
Die Fähigkeiten des Arztes können durch beliebig vielen Wiederholungsvorgängen einer virtuellen
Operation verbessert werden. Trotz der Tatsache, dass Simulationen auch mit Videos und CD-s
gemacht werden können, wird meist die VR-Technik bevorzugt, weil sie realistischer ist und die
Aufmerksamkeit des Operierenden auf sich zieht. Vier Typen von chirurgischen Eingriffen sind
verfügbar:
Überblick der zurzeit verfügbaren medizinischen Eingriffsimulatoren in der Chirurgie:
Einfache Eingriffe
Komplexe Eingriffe
Endoskopische
Ganze Operationen
Eingriffe
Lumbar Puncture
Suturing
of Bronchoscopy,
Abdominal surgery
anastomosis
ureteroscopy,
sigmoidoscopy
Intravenous catheter Laparoscopy
Arthroscopy
Laparoscopic
insertion
cholecystectomy
Ultrasonographic
Endonasal
sinus
examination
surgery
Eye surgery
Wound debridement
Simulationen können auch für das Lernen der psychologischen Behandlung von Patienten benützt
werden. Simulatoren für Anaesthesia-Ausbildung sind schon entwickelt worden. Diese müssen
besonders empfindlich sein, wegen der aktuellen Lage des Patienten während des Operierens,
beispielsweise Atmungsgeräusche, die Grösse der Pupille und Bewegungen bei operativen
Behandlungen.
2. Präoperative und intraoperative Anwendung (Planung):
Ein Beispiel für die präoperative Anwendung der VR ist die Orthopädie. In der orthopädischen
Chirurgie kommt der geometrisch-exakten Planung und Ausführung eines Eingriffes am Knochen eine
entscheidende Bedeutung zu. Für die Planung eines Eingriffes an Knochenstrukturen stehen dem
Orthopäden
insbesondere
Röntgenprojektionsaufnahmen,
sowie
Computertomographische
Schnittbilder zur Verfügung. Die jüngsten Entwicklungen im Bereich der computerunterstützten
Chirurgie bieten verschiedene Lösungsansätze, um die hohe geometrische Genauigkeit der präoperativen Bildgebung und Planung, mit Hilfe passiver sensorbasierter Navigationssysteme, bzw.
semiaktiver oder aktiver Robotersysteme, für eine ebenso präzise intraoperative Ausführung zu
nutzen.
Am Helmholtz-Institut Aachen wurde das Verfahren der CT-bildbasierten Individualschablonen
entwickelt.
Verfahrensschritte:
A) Präoperativ:
 CT-Aufnahmen & Datenübertragung
1. 3D-Rekonstruktion & -Analyse
2. Operationsplanung & -simulation
3. Definition der Aufsatzflächen
4. automatische Werkzeugwegprogrammierung
5. automatische computergesteuerte Bearbeitung
 Dampfsterilisation
B) Intraoperativ
 konventioneller Operationszugang
6. formschlüssiges Aufsetzen der Schablone auf den Knochen (optional: Röntgenkontrolle)
7. schablonengeführte Bearbeitung des Knochens entschprechend der präoperativen Planung.
Für intraopetative Ausführungen werden heute in den USA angereicherte Realitäten (augmented
reality) benützt. Das ist eine Technologie in welcher das computergenerierte Bild im Benützers
Blickfeld eingefügt wird. Dieses Bild gibt dem Benützer zusätzliche Informationen, die der Computer
generiert hat. In „augmented reality“ gibt es keine vollständige Integration des Arztes in der virtuellen
Umgebung. In der AR wird ein Teil oder eine gesamte visuelle Information aus der realen Welt (die
üblicherweise über eine Videokamera aufgenommen wird) mit virtuellen Bestandteilen (Objekten)
angereichert. Durch Benutzung der AR-Systemen ist der Überblick
des Benutzers durch
Bezeichnungen, 3D-Rendermodellen oder beschattete Modifikationen vergrössert.
3. Postoperative Anwendung:
VR hat seine Anwendung in postoperativen Behandlungen gefunden. Viele Rehabilitationsprozesse
können durch Benutzung der VR verbessert werden. Körperlich behinderte oder verletzte Patienten
können in der virtuellen Umgebung üben, um das Gefühl von normalen Verhalten wieder zu erlangen.
Wichtige Schritte sind auch gemacht worden um Therapien von psychiatrischen Behandlungen zu
verbessern.
Futuristische Anwendungen:
Nach der historischen Entwicklung und der aktuellen medizinischen Technik, möchten wir zeigen,
dass diese Technologie sich in grosser Wandlung befindet. Wir möchten dies anhand von 3 Beispielen
genauer erläutern. Es gilt dabei zu beachten, dass alle 3 Beispielen technologisch realisiert sind
(obschon sie einen sehr futuristischen Eindruck erwecken), aber noch keine übliche Anwendung
darstellen.
Wie eine gelähmte Hand durch ein neuronales Netz wieder fühlen kann:
Ziels ist es, dass Querschnittsgelähmte wieder Kontrolle über ihre bewegungslose Hand bekommen,
so daß sie wieder greifen und wenigstens für elementare Bedürfnisse wie Essen oder Trinken ohne
fremde Hilfe sorgen können. Bislang war es schon verschiedentlich Wissenschaftlern gelungen, die
Muskeln der Hand künstlich elektrisch zu stimulieren, so dass die Patienten zumindest wieder
zugreifen konnten. Die elektrischen Impulse können die Patienten dabei selbst steuern, indem sie
nicht gelähmte Körperteile, wie beispielsweise ihre Schultern, in bestimmter Weise leicht bewegen und
so das Zugreifen auslösen. Das Ziel des GRIP-Projektes ist höher gesteckt: Der Patient soll wieder
kraft seines Willens zufassen können, und er soll wieder spüren, was seine Hand berührt.
Das Prinzip sieht dabei folgendermassen aus: Mit Hilfe eines Computers werden über die
Nervenbahnen auf dieselbe Art "Befehle" an die verschiedenen Muskelgruppen weitergeben, wie dies
vor der Lähmung vom Gehirn oder Rückenmark aus geschehen ist, anstatt wie bisher direkt die
Muskeln mit elektrischem Strom über Elektroden zum Zusammenziehen zu bringen. Dabei wird ein
kleiner Chip mit Kontakt zu den Nervenbahnen im Arm implantiert, der von einem Sender auf der Haut
angesteuert wird. Dies ermöglicht es, mit wesentlich geringeren Stromstärken zu arbeiten und soll
Ermüdungen und Krämpfe vermeiden, die mit der bisherigen Verfahrensweise auftreten können.
Mit dem neuen Verfahren steigen aber auch die Ansprüche an die Informatiker erheblich: Aus der
riesigen Zahl elektrischer Impulse in den Nervenbahnen müssen diejenigen Signalmuster
herausgefiltert werden, die für die Steuerung der Muskeln verantwortlich sind und dann möglichst
genau nachgeahmt werden. Hier konnten die Wissenschaftler auf den Ertrag des bereits
abgeschlossenen INTER-Projekts zurückgreifen, bei dem eine Verbindung zwischen Nerv und Chip
geschaffen wurde, eine Schnittstelle zwischen peripherem Nervensystem des menschlichen
Organismus und elektronischer Signalverarbeitung. Im Rahmen des INTER-Projektes war es
gelungen, bei Tieren die Signale in den Nervenbahnen mit einer neu entwickelten Elektrode
abzuleiten und soweit zu entschlüsseln, dass man mit den gewonnenen Daten eine Hand-Prothese
steuern konnte. Mit den gewonnenen Erkenntnisse über die Signalmuster in den Nervenbahnen sollen
nun für die Stimulation einer vorhandenen, aber gelähmten Hand angewandt werden. Neu ist im
Rahmen des GRIP-Projektes auch, dass erstmals ein "Feedback" der nunmehr beweglichen, aber
noch immer gefühllosen Hand erzeugt werden soll. Ein Handschuh wird mit Sensoren für Druck und
Wärme ausgestattet, über die gelähmte Hand gezogen und mit einem Rechner verbunden. So soll
vermieden werden, dass sich der Patient, ohne es zu merken, Verbrennungen an einem heißen Topf
zuzieht oder ein dünnes Glas einfach zerdrückt. Ziel ist es, die natürlichen Schutzreaktionen
automatisch in die Steuerung zu integrieren, so dass beispielsweise die Hand reflexartig von zu
heißen Gegenständen weggezogen wird. Außerdem soll der Patient indirekt wieder etwas von seiner
Hand spüren: Die von den Sensoren ermittelten Werte werden vom Rechner verarbeitet und als
Vibrationen auf Hautpartien weitergeleitet, an denen der Gelähmte noch Gefühl hat.
Wichtiger noch ist der Sensor-Handschuh aber für die Steuerung der Hand, er meldet dem Rechner
die aktuelle Haltung der Hand und ihre dreidimensionale Position im Raum. Dadurch wird eine sehr
genaue Erfolgskontrolle möglich: Hat die Hand die gewünschte Bewegung ausgeführt, wie groß ist die
Abweichung? Dies schafft die Voraussetzung für eine weitere, entscheidende Neuerung des Projekts:
Nicht der Mensch soll sich der Maschine anpassen, sondern die Maschine dem Menschen. Kernstück
dieses Grundprinzips ist dabei ein künstliches neuronales Netz, dessen Funktionsweise dem
menschlichen Gehirn nachgebildet wurde und das in der Lage ist zu "lernen", das heißt selbständig
Fehler zu korrigieren und nach kurzer Trainingszeit auf bestimmte Reize die gewünschten Reaktionen
auszulösen. Die "Lernfähigkeit" dieser künstlichen neuronalen Netze wird dabei in zweierlei Hinsicht in
Anspruch genommen: Zum einen ist es seit dem INTER-Projekt in der Lage, die richtigen Signale aus
der Vielzahl elektrischer Impulse in den Nervenbahnen herauszufiltern, um die notwendigen
Muskelpartien zur Aktion anzuregen. Zum anderen passt nun der nach dem Prinzip der Neuronalen
Netze programmierte Rechner eigenständig die Bewegung der Hand auf die vorher festgelegten
"Befehle" durch den Patienten an.
Binnen weniger Sekunden bis Minuten ist das Netz in der Lage, mit Hilfe der Positionsbestimmung
durch den Sensor-Handschuh den "Befehl" des Patienten und die gewünschte Bewegung der Hand
zur Deckung zu bringen. Hat das System dies einmal gelernt, funktioniert die Steuerung künftig in
Echtzeit. Ziel ist es, Mensch und Maschine so weit miteinander zu verknüpfen, dass die Willenskraft
des Patienten ausreicht, um die Hand zu steuern und es keiner besonderen Bewegung eines nicht
gelähmten Körperteils bedarf. An die Hardware stellt das Projekt dabei keine besonderen Ansprüche.
Für die Steuerung der Hand wie auch für die Rückmeldung der Sensoren genügt ein handelsüblicher
Laptop, der bequem am Rollstuhl des Patienten untergebracht werden kann (in der Serienfertigung
werden dabei noch wesentlich kleinere Geräte ausreichen).
Fern- /Teleoperationen:
Abb1: Operator Module Abb2: Worksite Module
Bei der Teleoperation werden die Bilder dem operierenden Arzt zum Beispiel über ein Head Mounted
Display (wird wie ein Helm auf den Kopf gesetzt und liefert steroskopische (3D) Bilder) visualisiert und
die Bewegungen, welche am Operator Module ausgeführt werden, sendet man auf das Worksite
Module (Abb2). Der Arzt sieht dabei nicht das Bild der Abb1, sondern das richtige Operationsbild.
Zwei Kameras übertragen aus dem Worksite Module ein stereoskopes Bild der Operation an das
Head Mounted Display.
Um einen möglichst realistischen Operations-Simulator zu entwickeln ist es notwendig, neben einer
rein optischen Simulation den Tastsinn des Anwenders über geeignete Force-Feedback-Geräte, die
die einzelnen chirurgischen Instrumente simulieren, anzusprechen. Folgende Abbildung zeigt als
Beispiel den Griff eines virtuellen Objekts mittels solcher Eingabegeräte. Dabei hat der Anwender
durch die vorhandene Kraftrückkopplung das Gefühl ein reales Objekt zu greifen. Analog dazu können
Zangen, Scheren usw. simuliert werden. Die folgende Abbildung zeigt zwei PHANTOM® haptic
interfaces von SensAble Technologies:
Der Roboter hat dem Mediziner gegenüber den großen Vorteil, dass er auch über längere
Zeitspannen hinweg absolut ruhig bleiben kann. Er fängt nicht zum Beispiel aus
Ermüdungserscheinungen an zu zittern. Auch kann eventuelles Zittern des operierenden über die
Robotik ausgeglichen werden. Über den Worksite Roboter ist ein wesentlich höherer
Präzisionsstandard ermöglicht worden. Dadurch können selbst kleinste Eingriffe problemlos
ausgeführt werden, bei denen es beim Eingriff durch den Chirurgen zu Schwierigkeiten auf Grund der
Ungenauigkeit kommen könnte.
Ein Chip, der direkt in den visuellen Cortex implantiert wird, kann Erblindeten wieder
rudimentäres Sehen ermöglichen :
Der kurz nach seiner Geburt erblindete Popsänger Stevie Wonder, der Ende des letzten Jahres für
Nachrichten sorgte, nachdem er ankündigte, er wolle sich ein Retina-Implantat einsetzen lassen, um
wieder sehen zu können, wird zwar noch weiter auf technische Wunder warten müssen, doch für
Menschen, die erst später erblindet sind, könnte auch eine andere Art von Neurotechnologie imstande
sein, sie wieder sehen zu lassen.
Stevie Wonder ist wohl von übertriebenen Berichten technischer Fortschritte zu seinem Wunsch
getrieben worden, denn an Retina-Implantaten wird zwar geforscht, aber sie wurden noch nicht
dauerhaft in Menschen eingepflanzt. Die Microchips, die mit einer winzigen Kamera verbunden sind,
können auch nur Retinazellen stimulieren, die noch intakt sind. Die mit nur wenigen Rezeptoren
versehenen Chips können auch nur ein rudimentäres Sehen wiederherstellen, denn die Retina hat
mehr als eine Million Nervenzellen. Überdies scheinen Retina-Implantate nur für wenige Erkrankungen
wie Retinitis pigmentosa Besserung zu versprechen. Menschen, die wie Stevie Wonder nie das Sehen
"gelernt" haben, könnten womöglich mit neuronalen Impulsen, die über den optischen Nerv in das
Gehirn gelangen, auch gar nicht viel anfangen, denn das Gehirn weiß nicht, wie es diese in Bilder
umsetzen soll.
Vom Dobelle Institute, das auch "neurologische Schrittmacher" für die Atmung, die Linderung von
Schmerzen und urogenitale System herstellt, wurde jetzt eine andere Neurotechnologie vorgestellt,
bei der ein Chip nicht in die Retina, sondern direkt an der Oberfläche des visuellen Cortex implantiert
wird. Zumindest ist die dauerhafte Implantation eines Chips hier schon gelungen. Schon 1978 hatte
man zwei blinden Menschen am Columbia-Presbyterian Medical Center in New York die Chips
implantiert, die sich noch immer im Gehirn befinden, bei einem der Patienten, einem 62 Jahre alten
Mann, der mit 36 Jahren völlig erblindet ist, konnte jetzt mit dem "Dobelle Eye" und verbesserter Hardund Software wieder die Sehkraft in einem schmalen visuellen Tunnel hergestellt werden, so dass er
sogar große Buchstaben erkennen und sich in einem Raum bewegen kann.
Das "Dobelle Eye" besteht aus einer Mikrokamera und einem Ultraschall-Entfernungssensor, die auf
einer Brille angebracht sind. Die Sensoren sind über ein Kabel mit einem 2,5 Kg schweren
Minicomputer verbunden, den der Patient am Gürtel trägt. Nach der Verarbeitung der Daten durch ein
Imaging-System und der Vereinfachung des Bildes durch Entfernen des Rauschens werden die
elektrischen Impulse ebenfalls über ein Kabel an den Chip übermittelt, der mit 68 Platinelektroden
ausgestattet ist. Jede der Elektroden kann bis zu vier Phosphene erzeugen, die sich für den Patienten
auf einer schwarzen Hintergrundfläche von 20 x 5 cm befinden. Die sich verändernden Lichtmuster
ergeben so ein Schwarz-Weiß-Bild, das man erst zu interpretieren lernen muss und natürlich in keiner
Weise an die normale Sicht heranreicht. Schwierigkeiten bereitet offenbar vor allem auch der Eindruck
der Tiefe, also wie weit etwas entfernt ist, so dass der Patient immer noch sehr vorsichtig gehen muss
und einen Arm ausstreckt, um Zusammenstöße zu vermeiden.
Nachdem der Patient gelernt hatte, das System zu benutzen, kann er jetzt Buchstaben mit einer
Größe von 5 Zentimetern in einer Entfernung von 1,5 Metern erkennen: "Auch wenn der Chip mit
relativ wenigen Elektroden eine Tunnelsicht erzeugt, kann der Patient sich in fremden Umgebungen
wie der U-Bahn New Yorks bewegen. Wenn man die Minikamera durch ein spezielles elektronisches
Interface ersetzt, kann der Patient auch lernen, Fernsehbilder zu 'sehen', einen Computer zu benutzen
und Zugang zum Internet zu erhalten." Bislang wird das System allerdings lediglich an zwei oder drei
Tagen in der Woche im Labor aktiviert. Im Laufe des Jahres soll eine verbesserte Version des
"Dobelle Eye" auf den Markt kommen.
Masse-Feder-Modell:
Wir möchten nun noch ein Programmbeispiel geben, welches die virtuelle Realität konkret umsetzt.
Das Programm wurde von einem ETH Studenten entwickelt und uns zur Verfügung gestellt. Es ist ein
einfaches Beispiel, das Operateure verwenden können, um die minimal-invasive Chirurgie zu
simulieren. In dieser Arbeit wurde für die Nachbildung der mechanischen Eigenschaften von
deformierbaren Körpern das Masse-Feder-Modell verwendet. Dieses zeichnet sich dadurch aus, dass
physikalische Gleichungen auf diskrete Komponenten des Körpermodells angewendet werden. Diese
Komponenten
sind
dimensionslose,
massebehaftete
Knoten
und
kraftübertragende
Verbindungselemente, Federn. Ein Schritt in die Richtung der virtuellen Realität wurde im Rahmen
dieses Programms gemacht, nämlich die Erstellung eines Masse-Feder-Models zur
Deformationsberechnung.
Das Ziel ist es, eine dreidimensionale Bewegungssimulation eines durch ein Modell approximierten
deformierbaren Körpers unter Berücksichtigung äusserer Einwirkungen auf das System zu realisieren
und diese zu visualisieren. Die Interaktion ist ein Bestandteil dieser Arbeit, sie erlaubt dem Benutzer in
das Geschehen der Simulation einzugreifen und somit an ihm aktiv teilzunehmen.
Mit der heutigen Rechnergeneration ist eine Simulation der Bewegung in Echtzeit auch bei
komplexeren Modellen möglich, solange das Szenario auf feste, unveränderliche Geometrien
beschränk ist. Deformierbare Objekte verändern ihre Gestalt und dadurch wird ihre Simulation
schwieriger.
Um die physikalischen Eigenschaften eines realen Körpers nachzubilden muss ein physikalisches
Modell gewählt werden. Das Masse-Feder-Modell ist ein physikalisches Modell, dass sich auf das
Nachbilden des mechanischen Verhaltens deformierbarer Objekte beschränkt. In der Mechanik hat
sich die FEM durchgesetzt. Der Körper wird hierbei in diskrete Basiselemente, die sogenannte finiten
Elemente unterteilt. Das mechanische Verhalten wird innerhalb dieser Elemente beschrieben und mit
dem Zusammenführen der verschiedenen finiten Elementen wird unter Berücksichtigung der
Übergangs- und Randbedingungen das Verhalten des gesamten Körpers bestimmt.
Eine starke Vereinfachung der FEM sind nodale Netzmodelle. Die Masse des Körpers wird in
nulldimensionale, massebehaftete Knoten diskretisiert. Diese Massepunkte werden mit
kraftübertragenden Verbindungselementen verknüpft. Dieser Ansatz liefert ein systembeschreibendes
Differentialgleichungssystem. Aufgrund der geringeren Komplexität im Vergleich zur FEM sind die
nodalen Netzmodelle besser für Echtzeit Simulation geeignet, haben aber den Nachteil, dass die
Qualität und Genauigkeit der Simulation schlechter ist.
Die mechanischen Eigenschaften können mit den Gesetzmässigkeiten der newtonschen Gesetze
charakterisiert werden. Das Verhalten eines Massenpunktes unter Einwirkung äusserer Kräfte wird
vom zweiten newtonschen Bewegungsgesetz beschrieben:
In dieser Gleichung ist die resultierende Kraft, die den Massenpunkt der Masse m mit der
Beschleunigung a beschleunigt.
Die Geschwindigkeit ist die erste zeitliche Ableitung des Ortsvektors und die Beschleunigung die
zweite zeitliche Ableitung des Ortsvektors.
Wirken auf einige Knoten mehrere Kräfte, so ergibt sich die resultierende Kraft nach dem
Superpositionsprinzip aus der vektoriellen Summe der einzelnen Knoten angreifenden Kräften.
Am Knoten wirken innere und äussere Kräfte. Als innere Kräfte werden in dieser Arbeit die Dämpfung
d(u,∂u/∂t) und die Rückstellkraft der Verbindungselemente f(u,∂u/∂t) berücksichtigt, die äussere Kraft
wird mit FA bezeichnet. Setzt man nun diese Grössen in die obige Gleichung ein, resultiert für den
Fall eines Masse-Feder Pendels folgende systembeschreibende Differentialgleichung:
Dieses Masse-Feder-Modell stellt ein einfaches Beispiel im Anwendungsbereich der Medizintechnik
dar, und kann als Basis für komplexere Modelle dienen, die der Wirklichkeit näher kommen.
Zusammenfassung:
Wir hoffen, dass wir mit dieser Arbeit einen Einblick in die biomedizinischen Technik geben konnten.
Es sollte auch gezeigt werden, dass sich diese Technik sich in grossem Wandel befindet. Umso
interessanter ist es die Forschung (wie beispielsweise das Grip-Projekt) zu verfolgen und die
medizinischen als auch ethischen Konsequenzen zu berücksichtigen. Es folgen nun noch die
Tastaturbefehle des obigen Programms, sowie ein Literaturverzeichnis.
Diese Tabelle stellt eine Bedienungsanleitung für das Programm dar:
Tastatur
Auswirkung
j
Die Nummer des aktiven Massenpunktes(AM) wird inkrementiert
k
Inkrementiert externe Kraft auf AM in +x Richtung
h
Inkrementiert externe Kraft auf AM in -x Richtung
u
Inkrementiert externe Kraft auf AM in +y Richtung
m
Inkrementiert externe Kraft auf AM in -y Richtung
n
Inkrementiert externe Kraft auf AM in +z Richtung
i
Inkrementiert externe Kraft auf AM in -z Richtung
r
Setzt die externe Kraft auf AM auf 0
c
Setzt die externe Kraft auf AM auf 0 und setzt ihn auf Anfangsposition
x
Inkrementiert die Rotation des Modells um x-Achse
X
Dekrementiert die Rotation des Modells um x-Achse
y
Inkrementiert die Rotation des Modells um y-Achse
Y
Dekrementiert die Rotation des Modells um y-Achse
z
Inkrementiert die Rotation des Modells um z-Achse
Z
Dekrementiert die Rotation des Modells um z-Achse
t
Bild vergrössern
T
Bild verkleinern
f
Einzeichnen der resultierenden Kraft auf den AM aktivieren und
deaktivieren
Maus
Auswirkung
Rechte Taste gedrückt
Massenpunkt wird angewählt
Rechte Taste loslassen
Auf den angewählten Massenpunkt wird Kraft ausgeübt
Literaturverzeichnis:
Virtuelle Realität von Sven Bormann
Bionik von Professor Nachtigall
Spektrum der Wissenschaft: Dezember 12/ 1997
Spektrum der Wissenschaft: März
3/ 1998
IEEE Computing in Science and Engineering Magazine
American Journal of College Surgery
IEEE Engineering in Medicine and Biology Magazine
Internetseiten;
http://www.hia.rwth-aachen.de
http://www.heise.de/tp/deutsch/inhalt/co/5691/1.html
http://www2.inf.fh-rhein-sieg.de/mi/lv/vr/ws98/stud/medizin
Herunterladen