Biomedizinische Technik von Jelena Curcic Bojan Gasic Yves Corrodi Geschichte der Virtuellen Realität Einführung: Virtuelle Realität (VR), der Begriff, der noch anfangs der 90er Jahre nur einer kleinen Forschergruppe bekannt gewesen war, hat inzwischen seine Verbreitung in den Massenmedien gefunden. Es ist immer noch schwierig eine eindeutige Antwort auf die Frage „Was ist Virtuelle Realität?“ zu geben. Das aus dem Lateinischen kommende „virtuell“ (virtus, Kraft, Vermögen) fand bislang vorwiegend in der Physik Bedeutung. Unter Realität soll die unabhängig von der Existenz des Lebens, des Psychischen und des Menschen existierende physikalische Welt verstanden werden. Unter Wirklichkeit können wir demgegenüber alle Formen der subjektiven Erscheinung der Realität verstehen, seien sie unmittelbar als Abbild oder als unabhängig von der Realität angesehen. Virtuelle Realität kann kurzgefasst als eine Technik beschrieben werden, durch die der Mensch mit einer von ihm selbst entworfenen und von einem Computer generierten dreidimensionalen künstlichen Welt interagieren kann. Die VR–Technik umfasst Ein- und Ausgabetechniken, die es dem Menschen erlauben, eine sinnliche Erfahrung zu machen, die einer physikalisch existierenden Wirklichkeit nicht entspricht oder eine physikalisch existierende Wirklichkeit um normalerweise so nicht wahrnehmbare Dimensionen erweitert, beispielsweise mit Durchsichtssystemen, bei denen sich ein reales Bild und Computergrafik überlagern. Der Beginn: Die ältesten Zeugnisse bildhafter Gestaltung sind zwischen 30'000 und 50'000 Jahre alt (Die Höhle von Lascaux, siehe Bild). Also lange, bevor der Mensch die Sprache und die Schrift entwickelte, war für den Menschen das Bild die einzige Möglichkeit, seine Umwelt zu beschreiben. Viele Historiker und Philosophen teilen die Meinung, dass die sichtbare Welt zuerst visuell strukturiert und zeichenhaft formuliert werden musste, ehe sie sprachlich erfasst werden konnte. Die Virtualisierung von Raum und Zeit, wurde vor allem durch die Schrift möglich. Der Läufer oder Bote von Nachrichten stellte eine Vorstufe zur räumlichen Virtualisierung dar. Das vom Sender Niedergeschriebene konnte von vielen Empfängern, zu beliebiger Zeit an beliebigen Orten aufgenommen werden. Nachdem jahrhundertlang die Schrift über das Bild dominierte, gelang es visuellen Medien wie Fotografie, Film, Fernsehen, Video und dann auch Computeranimationen in relativ kurzer Zeit, die Vorzeichen umzukehren. Die technische Reproduzierbarkeit des mit den eigenen Augen Gesehenen, faszinierte den Menschen schon sehr früh. Diese Faszination war auch sicherlich eine der entscheidenden Kräfte für die Entwicklung der Fotografie und der Filmtechnik. Den ältesten Vorläufer der Projektionstechnik gab es schon im alten China in Form der Schattenprojektion. Aber erst mit der Entwicklung lichtempfindlicher Substanzen und eines geeigneten Trägermaterials Ende des 19. Jahrhundert wurde es möglich, reale Objekte im Bewegbild aufzuzeichnen und später wiederzugeben. Entwicklung der VR-Technik: Am Anfang des 20. Jahrhunderts, in den Jahrmärkten der Moderne, den Spielhallen, hat die VR bereits Einzug erhalten und diente dort der Publikumsattraktion. Die Entwicklung hin zur heutigen VR- Technik verlief uneinheitlich. Obwohl bereits in den sechziger Jahren die ersten Grundlagen geschaffen wurden, dauerte es doch noch weitere 20 Jahre, bis die erhöhte Leistungsfähigkeit der Computer eine befriedigende interaktive Simulation virtueller Welten erlaubte. Auch wenn sich heute zunehmend Unternehmen für VR-Techniken interessieren, liegen die Ursprünge in der militärischen Forschung. Die gesamte Entwicklung des Computers und der Informatik wurde von Anbeginn an von militärischen Interessen beeinflusst, obgleich die theoretischen Grundlagen, die bis in das Jahr 1843 zurückreichen, zunächst auf nicht-militärischen Überlegungen fusste (beispielsweise das im Jahre 1843 entwickelte Konzept für einen Digitalrechner). Die Verwertung der in Militärforschung gewonnenen Erkenntnissen im zivilen Bereich, ergab sich erst viel später, und auch heute findet sich der Ursprung vieler sogenannter „neuartiger“ Entwicklungen der zivilen Computertechnik in militärischen Anwendungen (beispielsweise die objektorientierte Programmierung). Das Militär bediente sich anfangs der fünfziger Jahre der Videotechnik, die ihnen erstmals eine realistische und interaktive Flugsimulation erlaubte. Viele Forscherprojekte, die in den sechziger und siebziger Jahren begonnen wurden, mussten seinerzeit abgebrochen werden, da die damalige Rechnerkapazität nicht ausreichte, die Ideen auf dem Computer umzusetzen. Das Projekt zur dreidimensionalen Betrachtung und Manipulation von Molekülen hatte seine Wurzeln bereits 1968 und dennoch wurden erst 1986, in einer neuen Versuchsreihe die Systeme entwickelt. An der UNC wurde mit „PixelPlanes“ in den späteren achtziger Jahren von Henry Fuchs, ein speziell auf VR-Anwendungen ausgerichteter Parallelrechner entworfen. Vermutlich relativ unberührt konnte die militärische Forschung weiterlaufen, da die finanziellen Mittel aufgrund der bestehenden Ost/West-Konfrontation weiterflossen. Aber auch diese Forschung wird, wenn sie nicht gar selbst die Entwicklung schnellerer Rechner entscheidend vorangetrieben hat, von der Leistungssteigerung der Hardware- und Softwarekomponenten profitiert haben. Das Programm für das „Virtual Environment Display System“(VIVED) lief 1985 bei der NASA an. Der Hintergrund für die VR-Bemühungen der NASA war zum einen die Entwicklung und Erforschung neuer Mensch-Computer-Schnittstellen, die den Astronauten bei der Kontrolle der immer komplizierter werdenden Raumfahrzeuge helfen sollten. Zum anderen bestand der Wunsch, geeignete telerobotische Systeme zu entwickeln, die zum Bau von Weltraumstationen unentbehrlich sind. Im VPE-Projekt versuchte die NASA die riesigen Datenmengen, die ihnen die Viking-Sonden vom Mars funkten, in einer geeigneten Weise zu visualisieren. Die vorwiegend numerischen Daten über den Mars wurden durch das VR-System dergestalt visualisiert, dass die Forscher die Marsoberfläche dreidimensional und interaktiv erkunden konnten. Darüber hinaus war es das Ziel, ein System zu entwickeln, das sich beliebig auf andere Planetendaten umstellen lässt und somit in Zukunft ein sinnvolles Werkzeug für die virtuelle Planetenerkundung von der Erde aus darstellt. Da die Technik noch nicht so weit ist, autonome Roboter zu konstruieren, verlagerte man den Schwerpunkt auf Teleoperatoren, ferngesteuerte Roboter. VR-Steuersysteme in Verbindung mit präzisen Endeffektoren wie mechanischen Händen ermöglichten den Bau von Telerobotern, die in der Lage sind, beispielsweise Reparaturen an Satelliten durchzuführen. Medizintechnik: Das Potential der VR in der Medizin wurde schon früh erkannt. Schon 1971 entwickelte Ivan Sutherlands Forschergruppe in Zusammenarbeit mit einem Ärzteteam eine Methode zur Operation eines simulierten Zusammenflusses zweier grosser Arterien. In den neunziger Jahren begannen sich die High-Tech-Systeme in der Medizin, wie die Röntgen-, Ultraschall-, Computer- und Kernspintomographie-Geräten einzureihen. Viele dieser Geräte erlauben die Erzeugung von volumigen Bildern von Organen oder anderen inneren Körperteilen. In Verbindung mit der VR-Technik konnten diese Bildergebnisse für den behandelnden Arzt noch besser visualisiert werden. Unter anderem wurden in der Krebstherapie kernspintomographische Aufnahmen (siehe Bild) verwendet, um die verschiedenen Schichten eines Tumors zu zeigen. In unserem Beispiel sehen wir im Bild, eine Aufnahme eines Patienten, dem ein Gen aus einem Herpesvirus in die entarteten Hirnzellen eingeschleust wurde; das Enzym wandelt eine ansonsten unschädliche Verbindung in ein toxisches Produkt um, durch das nicht nur die Herstellerzellen, sondern auch einige der benachbarten Krebszellen absterben, die das Gen nicht ausprägen. Wir sehen die kernspintomographischen Aufnahmen vor und zwei Wochen nach der Behandlung. Im unteren Bild wird die räumliche Rekonstruktion gezeigt. Solche Aufnahmen sind für den Arzt sehr wichtig, weil er die krankheitsbefallenen Zellen genau lokalisieren kann und innerhalb kürzester Zeit exakt auswerten kann. nachher vorher Die VR eröffnete auch neue Möglichkeiten für die minimal-invasive Operationstechnik (unser Programm), was zu einer Vereinfachung und somit Kostenreduzierung der konventionellen Operationen in der Therapie führte. Die Akzeptanz dieser neuen Behandlungsmöglichkeiten ist beim Patienten erwartungsgemäss sehr hoch, auch wenn die Gerätemedizin oft beklagt wird. Zudem werden die angehenden Ärzte immer mehr in hochtechnologischen Gerätschaften eingeführt. Als Folge dieser medizintechnischen Revolution, wurden in vielen Instituten zunehmend die sonst obligatorischen Tierversuche durch entsprechende interaktive Multimedia-Systeme ersetzt. Auf der anderen Seite wuchs auf Seite der Ärzteschaft ständig der Druck, sich den neuen Behandlungsmethoden anzupassen. Natürlich wurden in der medizinischen Abteilung automatisch ungleich höhere Forderungen an ein VR-System gestellt als in anderen Bereichen, denn schliesslich sind in der Medizin Menschen direkt vom korrekten Verhalten des Systems abhängig. Schulung und virtuelle Operationen: Es wurden Systeme entwickelt, wo die Medizinstudenten, anstatt an Leichen an virtuellen Körpern, für zukünftige operative Eingriffe, üben können. Beispielsweise wurde 1993 im amerikanischen Georgia eine Multimedia-Software entwickelt (ADAM Software), die, basierend auf einer anatomischen Datenbank, hochauflösende Bilder mit umfassenden medizinischen Informationen kombiniert. Das ADAM-System erlaubt die stufenweise Sezierung eines menschlichen Körpers. Der Benutzer kann stufenweise verschiedene Schichten des Körpers „abziehen“ und dabei den genauen Aufbau des Körpers studieren. Bis zu 40 Schichten können untersucht, und so jeder Nerv, Muskel oder Knochen offengelegt werden. Des weiteren kann der sezierte Körper von verschiedenen Blickpunkten aus betrachtet werden, und die Informationen werden ergänzt durch zusätzliche Röntgen oder Tomographieaufnahmen. Schon in dieser Zeit wurde heftig diskutiert, wie ein vergleichbares VR-System mit den Telepräsenzmöglichkeiten der VR kombiniert werden kann. Spezialisten könnten auf der ganzen Welt eine gemeinsame Operation durchführen, ohne ihren Heimatort zu verlassen. Natürlich ist ein solches System auch geeignet Studenten zu unterrichten. Denn auch diese hätten die Möglichkeit, den Operationsvorgang aus der Sicht des Professors mitzuerleben. Das gleiche System dient aber auch dazu, Ängste von Patienten vor Operationen zu verringern. Der behandelnde Arzt kann zusammen mit seinem Patienten die Operation in der VR durchspielen. Die Angst des Patienten, die nicht selten nur daraus resultiert, dass der Kranke nicht weiss oder einschätzen kann, was mit ihm geschieht, kann stark vermindert werden. Minimal-Invasive Chirurgie und Nanotechnologie: In der Fernchirurgie kann die eigentliche Operation in der virtuellen Realität vorgenommen werden. Die Vorstellung war, durch Nanotechnologie winzige Teleoperatoren zu konstruieren, die, in die Blutbahn des Patienten gebracht, minimal-invasive chirurgische Operationen erlauben. Unter minimalinvasiven Eingriffen versteht man die Einbringung von speziellen katheder-ähnlichen Instrumenten in den Körper des Patienten. Über die Blutbahn oder den Verdauungstrakt beispielsweise kann der Arzt mit seinen Instrumenten an den eigentlichen Behandlungsort vordringen, ohne einen schweren operativen Eingriff mit all seinen Risiken vorzunehmen. Der Nutzen dieser Technologie liegt darin, Menschen zu helfen, die in Staaten mit schlechter medizinischer Versorgung leben. Obwohl man hier kritisch anmerken darf, dass sich solche Länder wohl kaum die hierfür erforderliche Technik werden leisten können. Die Vorteile für den Patienten sind beträchtlich: Es wird das Risiko gefährlicher Infektionen verringert, da lediglich ein kleiner Schnitt vorgenommen werden muss, um den Führungskatheder einzuführen. Die meisten derartigen Operationen können ohne eine den Patienten belastende Vollnarkose durchgeführt werden, oftmals kann der Patient dadurch sogar den Arzt bei der Operation unterstützen, indem er Beschwerden oder Schmerzen dem Arzt mitteilen kann, der hierdurch zusätzliche Informationen erhält. Gesundes Gewebe oder Organe werden kaum in Mitleidenschaft gezogen, da grosse Schnitte zur Freilegung des Operationsgebietes entfallen können. Viele minimal-invasive Eingriffe sind für den Patienten schmerzlos. Fast alle diese Eingriffe werden mit einem Endoskop oder Miniaturkameras durchgeführt, die dem Operateur einen Einblick in das Innere des Körpers ermöglichen. Es werden dem Arzt sogar VRKomponenten angeboten, die ihm das operieren erleichtern. Ersetzt man die meist einäugige Kamera durch eine Stereo-Videokamera, kann der Arzt mit Hilfe einer Bildschirmbrille einen dreidimensionalen Eindruck vom Inneren des Körpers erhalten. Das räumliche Sehen erleichtert die Positionierung der winzigen Instrumente im Körper. Doch auch das Training dieser neuartigen Operationsmethoden kann die virtuelle Realität helfen. Viele Ärzte, die lange Zeit nur konventionelle Operationen durchführten, müssen umdenken. Viele Patienten bevorzugen aufgrund der oben aufgezählten Vorteile minimal-invasive Eingriffe, und um auch in Zukunft genügend Patienten zu haben, müssen die meisten Ärzte erst in die neue Technik eingeführt werden. Es wurde nicht mehr Präzision in Führung des Skalpells verlangt, sondern die Ärzte mussten nun lernen, wie sie am geschicktesten den Führungskatheder im Körper voranschieben, ohne Verletzungen zu verursachen. Viele der Instrumente die zum Einsatz minimalinvasiver Eingriffe entwickelt wurden, sind Miniaturisierung gewöhnlicher Operationshilfsmittel. Es werden zum Beispiel Laser, Zangen, Ultraschallstossgeräte oder erhitzbare Drahtschlingen verwendet. Gegenwart: „Virtual reality is the ultimate surgical simulator!“ – R.Mann, 1991 Technischer Anblick: Software: Das Erste, was man für eine gute virtuelle medizinische Umgebung braucht, ist eine bildliche Darstellungsquelle. Es wurden nämlich schon Bilder von menschlichen Körper und Organen von hoher Qualität erzeugt. Diese Bilder sind sehr nützlich und sind in Anwendung für die medizinische Ausbildung. Diese sind aber statisch, generisch und nicht patientenspezifisch. Heutzutage kann die computermedizinische Technik patientenspezifische Bilder von so hoher Qualität erzeugen, so dass diese in drei Dimensionen rekonstruiert werden können. Diese Darstellungen können nicht nur in Ausbildung verwendet werden, sondern auch im intraoperativen Anwendungsbereich. Eine von vielen Softwaretechnologien, die zur Verarbeitung von virtuellen Welten eingesetzt werden, ist Rendering. Rendering ist die Transformation des parametrischen Datenmodells in diskrete Bilder, wobei mindestens 20 Bilder pro Sekunde für realistische Bewegungen erforderlich sind. Das Bild muss zuerst segmentiert werden, um den Bereich zu finden, der von Interesse ist. Die Segmentation enthält zwei dimensionale CT (Computer-Tomographie) und Elimination von Fremdgeräuschen. Zurzeit ist dieser Vorgang der Segmentation nicht gut standardisiert, und es bestehen sogar Risiken für medizinische Applikationen in der VR. Realistische interaktive virtuelle chirurgische Umgebungen sollten fähig sein, die Bewegungen der menschlichen Hand und den virtuellen Objekten zu interpretieren. Insbesondere sollten sie die Kollisionen und das Aufeinanderwirken analysieren können. Die meisten heutigen VR-Algorithmen können komplexe graphische Objekte erfolgreich in graphische Polygonen umwandeln und alle nötigen Berechnungen an diese ausführen. Menschliche Leber: Beide Darstellungen enthalten keine Informationen über die innere Struktur von diesem Organ. Das virtuelle Objekt ist damit unvollständig. “Direct“ -oder „volumen rendering“ benützt die ganze Datengarnitur und analysiert das Objekt durch „virtuel eye“. Diese Analyse ermöglicht das Sehen von Objekten unter einem anderen Gesichtswinkel, mit Hilfe von divergenten Strahlen. Das Resultat ist, dass man nun die innere Struktur sehen kann. Die Bilder können nachher weiter verarbeitet werden, um das virtuelle Objekt realistischer zu gestalten. Weil sich die Computertechnik immer schneller entwickelt, werden die Verbesserungsversuche und Optimierungen an diesen virtuellen Objekten immer besser. Hardware: In der realistischen, virtuellen Umgebung sollte man in Echtzeit in der Lage sein virtuelle Objekte zu berühren und zu manipulieren. Wichtige Fortschritte sind in Entwicklung von tastbaren interfaces gemacht worden. Diese ermöglichen direkte Verbindungen mit der virtuellen Umgebung. Die heutigen Computer sind in der Lage, die dreidimensionalen Simulationen mit tastbaren support, zu realisieren. Human-Computer Interfaces: Wenn wir mit unserer reellen Umgebung in Kontakt sind, benützen wir fünf Sinne: das Sehvermögen, das Höhrvermogen, der Tastsinn, der Geruchssinn und der Geschmackssinn. Wenn wir gegenwärtig mit Computer interagieren, benützen wir die Maus, die Tastatur und den Bildschirm. Diese Komponenten können natürlich nicht eine vollständige Integration des Benutzers in die virtuelle Umgebung bewerkstelligen. Deshalb entwickelt man weitere input/output-interfaces um mehrere Möglichkeiten zu liefern. Das Sehvermögen: Das Sehvermögen ist der Hauptbestandteil unserer Sinne; 70% aller Einflüsse aus der Umwelt werden mit dem Auge aufgenommen. Deshalb ist dieser Bestandteil der wichtigste für die Gestaltung des virtuellen Objektes. Das dreidimensionale Eintauchen im VR ermöglicht eine der bekanntesten Iterfaces : head mounted display(HMD). Das Hörvermögen: Der Anteil des Hörvermögens beträgt 20%. Um das Eintauchen zu verbessern, ist ein stereo Kopfhörer in das HMD eingebaut. Es wurde sogar in den letzten Jahren eine Spracherkennung entwickelt, die aber momentan selten in der VR-Umgebung benützt wird. Der Tastsinn: Trotz der Tatsache, dass der Tastsinn nur 5% von unserer interface beträgt, ist diese Entwicklung entscheidend für die medizinische Anwendung der VR. DataGlove ist ein Gerät, das Berührung und Bewegung von virtuellen Objekten ermöglicht. Ein anderes Gerät ist PHANToM, das eine Kraftrückkopplung in drei Richtungen und ein Positionsgefühl in sechs Richtungen erzeugt. Dieses Gerät hat seine Anwendung in der Medizin gefunden. Der Geschmacksinn/der Geruchsinn: Diese beiden Sinne befinden sich noch in der experimentellen Phase. VR Anwendungen in der Chirurgie: 1. Medizinische Ausbildung und Training: Bisher wurde die chirurgische Ausbildung der kommenden Ärzte an Patienten durchgeführt. Jetzt aber besorgt die VR eine sichere Ausbildungsumgebung für gefährliche chirurgische Behandlungen. Fehler dürfen gemacht werden ohne gravierende Folgen. Geräte zur Simulation sind zu jeder Zeit verfügbar und besorgen einen strukturierten Lehrplan, der zum Zweck des Benützers standardisiert, wiederholt, eskaliert und optimiert werden kann. Die Fähigkeiten des Arztes können durch beliebig vielen Wiederholungsvorgängen einer virtuellen Operation verbessert werden. Trotz der Tatsache, dass Simulationen auch mit Videos und CD-s gemacht werden können, wird meist die VR-Technik bevorzugt, weil sie realistischer ist und die Aufmerksamkeit des Operierenden auf sich zieht. Vier Typen von chirurgischen Eingriffen sind verfügbar: Überblick der zurzeit verfügbaren medizinischen Eingriffsimulatoren in der Chirurgie: Einfache Eingriffe Komplexe Eingriffe Endoskopische Ganze Operationen Eingriffe Lumbar Puncture Suturing of Bronchoscopy, Abdominal surgery anastomosis ureteroscopy, sigmoidoscopy Intravenous catheter Laparoscopy Arthroscopy Laparoscopic insertion cholecystectomy Ultrasonographic Endonasal sinus examination surgery Eye surgery Wound debridement Simulationen können auch für das Lernen der psychologischen Behandlung von Patienten benützt werden. Simulatoren für Anaesthesia-Ausbildung sind schon entwickelt worden. Diese müssen besonders empfindlich sein, wegen der aktuellen Lage des Patienten während des Operierens, beispielsweise Atmungsgeräusche, die Grösse der Pupille und Bewegungen bei operativen Behandlungen. 2. Präoperative und intraoperative Anwendung (Planung): Ein Beispiel für die präoperative Anwendung der VR ist die Orthopädie. In der orthopädischen Chirurgie kommt der geometrisch-exakten Planung und Ausführung eines Eingriffes am Knochen eine entscheidende Bedeutung zu. Für die Planung eines Eingriffes an Knochenstrukturen stehen dem Orthopäden insbesondere Röntgenprojektionsaufnahmen, sowie Computertomographische Schnittbilder zur Verfügung. Die jüngsten Entwicklungen im Bereich der computerunterstützten Chirurgie bieten verschiedene Lösungsansätze, um die hohe geometrische Genauigkeit der präoperativen Bildgebung und Planung, mit Hilfe passiver sensorbasierter Navigationssysteme, bzw. semiaktiver oder aktiver Robotersysteme, für eine ebenso präzise intraoperative Ausführung zu nutzen. Am Helmholtz-Institut Aachen wurde das Verfahren der CT-bildbasierten Individualschablonen entwickelt. Verfahrensschritte: A) Präoperativ: CT-Aufnahmen & Datenübertragung 1. 3D-Rekonstruktion & -Analyse 2. Operationsplanung & -simulation 3. Definition der Aufsatzflächen 4. automatische Werkzeugwegprogrammierung 5. automatische computergesteuerte Bearbeitung Dampfsterilisation B) Intraoperativ konventioneller Operationszugang 6. formschlüssiges Aufsetzen der Schablone auf den Knochen (optional: Röntgenkontrolle) 7. schablonengeführte Bearbeitung des Knochens entschprechend der präoperativen Planung. Für intraopetative Ausführungen werden heute in den USA angereicherte Realitäten (augmented reality) benützt. Das ist eine Technologie in welcher das computergenerierte Bild im Benützers Blickfeld eingefügt wird. Dieses Bild gibt dem Benützer zusätzliche Informationen, die der Computer generiert hat. In „augmented reality“ gibt es keine vollständige Integration des Arztes in der virtuellen Umgebung. In der AR wird ein Teil oder eine gesamte visuelle Information aus der realen Welt (die üblicherweise über eine Videokamera aufgenommen wird) mit virtuellen Bestandteilen (Objekten) angereichert. Durch Benutzung der AR-Systemen ist der Überblick des Benutzers durch Bezeichnungen, 3D-Rendermodellen oder beschattete Modifikationen vergrössert. 3. Postoperative Anwendung: VR hat seine Anwendung in postoperativen Behandlungen gefunden. Viele Rehabilitationsprozesse können durch Benutzung der VR verbessert werden. Körperlich behinderte oder verletzte Patienten können in der virtuellen Umgebung üben, um das Gefühl von normalen Verhalten wieder zu erlangen. Wichtige Schritte sind auch gemacht worden um Therapien von psychiatrischen Behandlungen zu verbessern. Futuristische Anwendungen: Nach der historischen Entwicklung und der aktuellen medizinischen Technik, möchten wir zeigen, dass diese Technologie sich in grosser Wandlung befindet. Wir möchten dies anhand von 3 Beispielen genauer erläutern. Es gilt dabei zu beachten, dass alle 3 Beispielen technologisch realisiert sind (obschon sie einen sehr futuristischen Eindruck erwecken), aber noch keine übliche Anwendung darstellen. Wie eine gelähmte Hand durch ein neuronales Netz wieder fühlen kann: Ziels ist es, dass Querschnittsgelähmte wieder Kontrolle über ihre bewegungslose Hand bekommen, so daß sie wieder greifen und wenigstens für elementare Bedürfnisse wie Essen oder Trinken ohne fremde Hilfe sorgen können. Bislang war es schon verschiedentlich Wissenschaftlern gelungen, die Muskeln der Hand künstlich elektrisch zu stimulieren, so dass die Patienten zumindest wieder zugreifen konnten. Die elektrischen Impulse können die Patienten dabei selbst steuern, indem sie nicht gelähmte Körperteile, wie beispielsweise ihre Schultern, in bestimmter Weise leicht bewegen und so das Zugreifen auslösen. Das Ziel des GRIP-Projektes ist höher gesteckt: Der Patient soll wieder kraft seines Willens zufassen können, und er soll wieder spüren, was seine Hand berührt. Das Prinzip sieht dabei folgendermassen aus: Mit Hilfe eines Computers werden über die Nervenbahnen auf dieselbe Art "Befehle" an die verschiedenen Muskelgruppen weitergeben, wie dies vor der Lähmung vom Gehirn oder Rückenmark aus geschehen ist, anstatt wie bisher direkt die Muskeln mit elektrischem Strom über Elektroden zum Zusammenziehen zu bringen. Dabei wird ein kleiner Chip mit Kontakt zu den Nervenbahnen im Arm implantiert, der von einem Sender auf der Haut angesteuert wird. Dies ermöglicht es, mit wesentlich geringeren Stromstärken zu arbeiten und soll Ermüdungen und Krämpfe vermeiden, die mit der bisherigen Verfahrensweise auftreten können. Mit dem neuen Verfahren steigen aber auch die Ansprüche an die Informatiker erheblich: Aus der riesigen Zahl elektrischer Impulse in den Nervenbahnen müssen diejenigen Signalmuster herausgefiltert werden, die für die Steuerung der Muskeln verantwortlich sind und dann möglichst genau nachgeahmt werden. Hier konnten die Wissenschaftler auf den Ertrag des bereits abgeschlossenen INTER-Projekts zurückgreifen, bei dem eine Verbindung zwischen Nerv und Chip geschaffen wurde, eine Schnittstelle zwischen peripherem Nervensystem des menschlichen Organismus und elektronischer Signalverarbeitung. Im Rahmen des INTER-Projektes war es gelungen, bei Tieren die Signale in den Nervenbahnen mit einer neu entwickelten Elektrode abzuleiten und soweit zu entschlüsseln, dass man mit den gewonnenen Daten eine Hand-Prothese steuern konnte. Mit den gewonnenen Erkenntnisse über die Signalmuster in den Nervenbahnen sollen nun für die Stimulation einer vorhandenen, aber gelähmten Hand angewandt werden. Neu ist im Rahmen des GRIP-Projektes auch, dass erstmals ein "Feedback" der nunmehr beweglichen, aber noch immer gefühllosen Hand erzeugt werden soll. Ein Handschuh wird mit Sensoren für Druck und Wärme ausgestattet, über die gelähmte Hand gezogen und mit einem Rechner verbunden. So soll vermieden werden, dass sich der Patient, ohne es zu merken, Verbrennungen an einem heißen Topf zuzieht oder ein dünnes Glas einfach zerdrückt. Ziel ist es, die natürlichen Schutzreaktionen automatisch in die Steuerung zu integrieren, so dass beispielsweise die Hand reflexartig von zu heißen Gegenständen weggezogen wird. Außerdem soll der Patient indirekt wieder etwas von seiner Hand spüren: Die von den Sensoren ermittelten Werte werden vom Rechner verarbeitet und als Vibrationen auf Hautpartien weitergeleitet, an denen der Gelähmte noch Gefühl hat. Wichtiger noch ist der Sensor-Handschuh aber für die Steuerung der Hand, er meldet dem Rechner die aktuelle Haltung der Hand und ihre dreidimensionale Position im Raum. Dadurch wird eine sehr genaue Erfolgskontrolle möglich: Hat die Hand die gewünschte Bewegung ausgeführt, wie groß ist die Abweichung? Dies schafft die Voraussetzung für eine weitere, entscheidende Neuerung des Projekts: Nicht der Mensch soll sich der Maschine anpassen, sondern die Maschine dem Menschen. Kernstück dieses Grundprinzips ist dabei ein künstliches neuronales Netz, dessen Funktionsweise dem menschlichen Gehirn nachgebildet wurde und das in der Lage ist zu "lernen", das heißt selbständig Fehler zu korrigieren und nach kurzer Trainingszeit auf bestimmte Reize die gewünschten Reaktionen auszulösen. Die "Lernfähigkeit" dieser künstlichen neuronalen Netze wird dabei in zweierlei Hinsicht in Anspruch genommen: Zum einen ist es seit dem INTER-Projekt in der Lage, die richtigen Signale aus der Vielzahl elektrischer Impulse in den Nervenbahnen herauszufiltern, um die notwendigen Muskelpartien zur Aktion anzuregen. Zum anderen passt nun der nach dem Prinzip der Neuronalen Netze programmierte Rechner eigenständig die Bewegung der Hand auf die vorher festgelegten "Befehle" durch den Patienten an. Binnen weniger Sekunden bis Minuten ist das Netz in der Lage, mit Hilfe der Positionsbestimmung durch den Sensor-Handschuh den "Befehl" des Patienten und die gewünschte Bewegung der Hand zur Deckung zu bringen. Hat das System dies einmal gelernt, funktioniert die Steuerung künftig in Echtzeit. Ziel ist es, Mensch und Maschine so weit miteinander zu verknüpfen, dass die Willenskraft des Patienten ausreicht, um die Hand zu steuern und es keiner besonderen Bewegung eines nicht gelähmten Körperteils bedarf. An die Hardware stellt das Projekt dabei keine besonderen Ansprüche. Für die Steuerung der Hand wie auch für die Rückmeldung der Sensoren genügt ein handelsüblicher Laptop, der bequem am Rollstuhl des Patienten untergebracht werden kann (in der Serienfertigung werden dabei noch wesentlich kleinere Geräte ausreichen). Fern- /Teleoperationen: Abb1: Operator Module Abb2: Worksite Module Bei der Teleoperation werden die Bilder dem operierenden Arzt zum Beispiel über ein Head Mounted Display (wird wie ein Helm auf den Kopf gesetzt und liefert steroskopische (3D) Bilder) visualisiert und die Bewegungen, welche am Operator Module ausgeführt werden, sendet man auf das Worksite Module (Abb2). Der Arzt sieht dabei nicht das Bild der Abb1, sondern das richtige Operationsbild. Zwei Kameras übertragen aus dem Worksite Module ein stereoskopes Bild der Operation an das Head Mounted Display. Um einen möglichst realistischen Operations-Simulator zu entwickeln ist es notwendig, neben einer rein optischen Simulation den Tastsinn des Anwenders über geeignete Force-Feedback-Geräte, die die einzelnen chirurgischen Instrumente simulieren, anzusprechen. Folgende Abbildung zeigt als Beispiel den Griff eines virtuellen Objekts mittels solcher Eingabegeräte. Dabei hat der Anwender durch die vorhandene Kraftrückkopplung das Gefühl ein reales Objekt zu greifen. Analog dazu können Zangen, Scheren usw. simuliert werden. Die folgende Abbildung zeigt zwei PHANTOM® haptic interfaces von SensAble Technologies: Der Roboter hat dem Mediziner gegenüber den großen Vorteil, dass er auch über längere Zeitspannen hinweg absolut ruhig bleiben kann. Er fängt nicht zum Beispiel aus Ermüdungserscheinungen an zu zittern. Auch kann eventuelles Zittern des operierenden über die Robotik ausgeglichen werden. Über den Worksite Roboter ist ein wesentlich höherer Präzisionsstandard ermöglicht worden. Dadurch können selbst kleinste Eingriffe problemlos ausgeführt werden, bei denen es beim Eingriff durch den Chirurgen zu Schwierigkeiten auf Grund der Ungenauigkeit kommen könnte. Ein Chip, der direkt in den visuellen Cortex implantiert wird, kann Erblindeten wieder rudimentäres Sehen ermöglichen : Der kurz nach seiner Geburt erblindete Popsänger Stevie Wonder, der Ende des letzten Jahres für Nachrichten sorgte, nachdem er ankündigte, er wolle sich ein Retina-Implantat einsetzen lassen, um wieder sehen zu können, wird zwar noch weiter auf technische Wunder warten müssen, doch für Menschen, die erst später erblindet sind, könnte auch eine andere Art von Neurotechnologie imstande sein, sie wieder sehen zu lassen. Stevie Wonder ist wohl von übertriebenen Berichten technischer Fortschritte zu seinem Wunsch getrieben worden, denn an Retina-Implantaten wird zwar geforscht, aber sie wurden noch nicht dauerhaft in Menschen eingepflanzt. Die Microchips, die mit einer winzigen Kamera verbunden sind, können auch nur Retinazellen stimulieren, die noch intakt sind. Die mit nur wenigen Rezeptoren versehenen Chips können auch nur ein rudimentäres Sehen wiederherstellen, denn die Retina hat mehr als eine Million Nervenzellen. Überdies scheinen Retina-Implantate nur für wenige Erkrankungen wie Retinitis pigmentosa Besserung zu versprechen. Menschen, die wie Stevie Wonder nie das Sehen "gelernt" haben, könnten womöglich mit neuronalen Impulsen, die über den optischen Nerv in das Gehirn gelangen, auch gar nicht viel anfangen, denn das Gehirn weiß nicht, wie es diese in Bilder umsetzen soll. Vom Dobelle Institute, das auch "neurologische Schrittmacher" für die Atmung, die Linderung von Schmerzen und urogenitale System herstellt, wurde jetzt eine andere Neurotechnologie vorgestellt, bei der ein Chip nicht in die Retina, sondern direkt an der Oberfläche des visuellen Cortex implantiert wird. Zumindest ist die dauerhafte Implantation eines Chips hier schon gelungen. Schon 1978 hatte man zwei blinden Menschen am Columbia-Presbyterian Medical Center in New York die Chips implantiert, die sich noch immer im Gehirn befinden, bei einem der Patienten, einem 62 Jahre alten Mann, der mit 36 Jahren völlig erblindet ist, konnte jetzt mit dem "Dobelle Eye" und verbesserter Hardund Software wieder die Sehkraft in einem schmalen visuellen Tunnel hergestellt werden, so dass er sogar große Buchstaben erkennen und sich in einem Raum bewegen kann. Das "Dobelle Eye" besteht aus einer Mikrokamera und einem Ultraschall-Entfernungssensor, die auf einer Brille angebracht sind. Die Sensoren sind über ein Kabel mit einem 2,5 Kg schweren Minicomputer verbunden, den der Patient am Gürtel trägt. Nach der Verarbeitung der Daten durch ein Imaging-System und der Vereinfachung des Bildes durch Entfernen des Rauschens werden die elektrischen Impulse ebenfalls über ein Kabel an den Chip übermittelt, der mit 68 Platinelektroden ausgestattet ist. Jede der Elektroden kann bis zu vier Phosphene erzeugen, die sich für den Patienten auf einer schwarzen Hintergrundfläche von 20 x 5 cm befinden. Die sich verändernden Lichtmuster ergeben so ein Schwarz-Weiß-Bild, das man erst zu interpretieren lernen muss und natürlich in keiner Weise an die normale Sicht heranreicht. Schwierigkeiten bereitet offenbar vor allem auch der Eindruck der Tiefe, also wie weit etwas entfernt ist, so dass der Patient immer noch sehr vorsichtig gehen muss und einen Arm ausstreckt, um Zusammenstöße zu vermeiden. Nachdem der Patient gelernt hatte, das System zu benutzen, kann er jetzt Buchstaben mit einer Größe von 5 Zentimetern in einer Entfernung von 1,5 Metern erkennen: "Auch wenn der Chip mit relativ wenigen Elektroden eine Tunnelsicht erzeugt, kann der Patient sich in fremden Umgebungen wie der U-Bahn New Yorks bewegen. Wenn man die Minikamera durch ein spezielles elektronisches Interface ersetzt, kann der Patient auch lernen, Fernsehbilder zu 'sehen', einen Computer zu benutzen und Zugang zum Internet zu erhalten." Bislang wird das System allerdings lediglich an zwei oder drei Tagen in der Woche im Labor aktiviert. Im Laufe des Jahres soll eine verbesserte Version des "Dobelle Eye" auf den Markt kommen. Masse-Feder-Modell: Wir möchten nun noch ein Programmbeispiel geben, welches die virtuelle Realität konkret umsetzt. Das Programm wurde von einem ETH Studenten entwickelt und uns zur Verfügung gestellt. Es ist ein einfaches Beispiel, das Operateure verwenden können, um die minimal-invasive Chirurgie zu simulieren. In dieser Arbeit wurde für die Nachbildung der mechanischen Eigenschaften von deformierbaren Körpern das Masse-Feder-Modell verwendet. Dieses zeichnet sich dadurch aus, dass physikalische Gleichungen auf diskrete Komponenten des Körpermodells angewendet werden. Diese Komponenten sind dimensionslose, massebehaftete Knoten und kraftübertragende Verbindungselemente, Federn. Ein Schritt in die Richtung der virtuellen Realität wurde im Rahmen dieses Programms gemacht, nämlich die Erstellung eines Masse-Feder-Models zur Deformationsberechnung. Das Ziel ist es, eine dreidimensionale Bewegungssimulation eines durch ein Modell approximierten deformierbaren Körpers unter Berücksichtigung äusserer Einwirkungen auf das System zu realisieren und diese zu visualisieren. Die Interaktion ist ein Bestandteil dieser Arbeit, sie erlaubt dem Benutzer in das Geschehen der Simulation einzugreifen und somit an ihm aktiv teilzunehmen. Mit der heutigen Rechnergeneration ist eine Simulation der Bewegung in Echtzeit auch bei komplexeren Modellen möglich, solange das Szenario auf feste, unveränderliche Geometrien beschränk ist. Deformierbare Objekte verändern ihre Gestalt und dadurch wird ihre Simulation schwieriger. Um die physikalischen Eigenschaften eines realen Körpers nachzubilden muss ein physikalisches Modell gewählt werden. Das Masse-Feder-Modell ist ein physikalisches Modell, dass sich auf das Nachbilden des mechanischen Verhaltens deformierbarer Objekte beschränkt. In der Mechanik hat sich die FEM durchgesetzt. Der Körper wird hierbei in diskrete Basiselemente, die sogenannte finiten Elemente unterteilt. Das mechanische Verhalten wird innerhalb dieser Elemente beschrieben und mit dem Zusammenführen der verschiedenen finiten Elementen wird unter Berücksichtigung der Übergangs- und Randbedingungen das Verhalten des gesamten Körpers bestimmt. Eine starke Vereinfachung der FEM sind nodale Netzmodelle. Die Masse des Körpers wird in nulldimensionale, massebehaftete Knoten diskretisiert. Diese Massepunkte werden mit kraftübertragenden Verbindungselementen verknüpft. Dieser Ansatz liefert ein systembeschreibendes Differentialgleichungssystem. Aufgrund der geringeren Komplexität im Vergleich zur FEM sind die nodalen Netzmodelle besser für Echtzeit Simulation geeignet, haben aber den Nachteil, dass die Qualität und Genauigkeit der Simulation schlechter ist. Die mechanischen Eigenschaften können mit den Gesetzmässigkeiten der newtonschen Gesetze charakterisiert werden. Das Verhalten eines Massenpunktes unter Einwirkung äusserer Kräfte wird vom zweiten newtonschen Bewegungsgesetz beschrieben: In dieser Gleichung ist die resultierende Kraft, die den Massenpunkt der Masse m mit der Beschleunigung a beschleunigt. Die Geschwindigkeit ist die erste zeitliche Ableitung des Ortsvektors und die Beschleunigung die zweite zeitliche Ableitung des Ortsvektors. Wirken auf einige Knoten mehrere Kräfte, so ergibt sich die resultierende Kraft nach dem Superpositionsprinzip aus der vektoriellen Summe der einzelnen Knoten angreifenden Kräften. Am Knoten wirken innere und äussere Kräfte. Als innere Kräfte werden in dieser Arbeit die Dämpfung d(u,∂u/∂t) und die Rückstellkraft der Verbindungselemente f(u,∂u/∂t) berücksichtigt, die äussere Kraft wird mit FA bezeichnet. Setzt man nun diese Grössen in die obige Gleichung ein, resultiert für den Fall eines Masse-Feder Pendels folgende systembeschreibende Differentialgleichung: Dieses Masse-Feder-Modell stellt ein einfaches Beispiel im Anwendungsbereich der Medizintechnik dar, und kann als Basis für komplexere Modelle dienen, die der Wirklichkeit näher kommen. Zusammenfassung: Wir hoffen, dass wir mit dieser Arbeit einen Einblick in die biomedizinischen Technik geben konnten. Es sollte auch gezeigt werden, dass sich diese Technik sich in grossem Wandel befindet. Umso interessanter ist es die Forschung (wie beispielsweise das Grip-Projekt) zu verfolgen und die medizinischen als auch ethischen Konsequenzen zu berücksichtigen. Es folgen nun noch die Tastaturbefehle des obigen Programms, sowie ein Literaturverzeichnis. Diese Tabelle stellt eine Bedienungsanleitung für das Programm dar: Tastatur Auswirkung j Die Nummer des aktiven Massenpunktes(AM) wird inkrementiert k Inkrementiert externe Kraft auf AM in +x Richtung h Inkrementiert externe Kraft auf AM in -x Richtung u Inkrementiert externe Kraft auf AM in +y Richtung m Inkrementiert externe Kraft auf AM in -y Richtung n Inkrementiert externe Kraft auf AM in +z Richtung i Inkrementiert externe Kraft auf AM in -z Richtung r Setzt die externe Kraft auf AM auf 0 c Setzt die externe Kraft auf AM auf 0 und setzt ihn auf Anfangsposition x Inkrementiert die Rotation des Modells um x-Achse X Dekrementiert die Rotation des Modells um x-Achse y Inkrementiert die Rotation des Modells um y-Achse Y Dekrementiert die Rotation des Modells um y-Achse z Inkrementiert die Rotation des Modells um z-Achse Z Dekrementiert die Rotation des Modells um z-Achse t Bild vergrössern T Bild verkleinern f Einzeichnen der resultierenden Kraft auf den AM aktivieren und deaktivieren Maus Auswirkung Rechte Taste gedrückt Massenpunkt wird angewählt Rechte Taste loslassen Auf den angewählten Massenpunkt wird Kraft ausgeübt Literaturverzeichnis: Virtuelle Realität von Sven Bormann Bionik von Professor Nachtigall Spektrum der Wissenschaft: Dezember 12/ 1997 Spektrum der Wissenschaft: März 3/ 1998 IEEE Computing in Science and Engineering Magazine American Journal of College Surgery IEEE Engineering in Medicine and Biology Magazine Internetseiten; http://www.hia.rwth-aachen.de http://www.heise.de/tp/deutsch/inhalt/co/5691/1.html http://www2.inf.fh-rhein-sieg.de/mi/lv/vr/ws98/stud/medizin