Universitätsklinik für Kiefer- und Gesichtschirurgie
Universität Wien

(Wagner, A., Enislidis, G.)

Das an der Wiener Universitätsklinik für Kiefer- und Gesichtschirurgie in klinischer Anwendung stehende System eines Augmented Reality Environment wurde von Dr.M.Truppe (ARTMA) entwickelt. Es ermöglicht im Patienten Strukturen und Vorgänge sichtbar zu machen. Durch Bildfusion virtueller Strukturen mit dem realen OP Feld werden diese am Patienten sichtbar gemacht [1-3].



Der Weg zur intraoperativen Navigation beginnt bei der Erstellung der präoperativen Bilddaten. Diese werden direkt aus dem bildgebenden radiologischen Modalitäten in den Computer zur weiteren Bearbeitung transferiert. Am Bildschirm vermag der Chirurg die von ihm identifizierten pathologischen Strukturen zu markieren, sowie chirurgische Zugangswege zum Zielort durch virtuelle Markierung zu kennzeichnen. Einen so markierten pathologischen Prozeß kann man in weiterer Folge direkt während der Operation im Patienten sehen. Die Verwendung einer halbdurchsichtigen Datenbrille dient der Überprojektion von virtuellen Strukturen über die realen Gegebenheiten.

Zur Korrelation des Patienten mit seinen eigenen präoperativ erhobenen Bilddaten, sowie den darauf eingezeichneten virtuellen Planungsgraphiken dient ein intraoperativ verwendetes Tracking-System. Dieses besteht aus elektromagnetischen Sensoren, die ihre eigene Position im dreidimensionalen Raum abmessen können und an ein zentrales Computersystem übermitteln. Auch andere Systeme, zum Beispiel solche mit optoelektronischer Identifikation der Zielstrukturen, sind in klinischer Anwendung.

Die im zentralen Computersystem installierte Software ermöglicht die Fusion von präoperativ ermittelten, diagnostischen Schichtbildern mit der intraoperativen Videoansicht des Patienten. Dadurch wird die Eichung der Bilddaten auf den Patienten möglich, sowie die exakte Projektion der virtuellen Planungsgraphiken. Des weiteren können jene Instrumente und Implantate, an denen kleindimensionierte Bewegungssensoren (elektromagnetisch oder optoelektronisch) fixiert sind, während der Operation mit Hilfe des Virtual Patient® Systems mit virtuellen Strukturen belegt und daher auch dann visualisiert werden, wenn sie im Körperinneren des Patienten verschwinden.

Die uneingeschränkte Einsehbarkeit des Operationsfeldes durch die semiimmersive Datenbrille erlaubt es dem Operateur stets eigene Korrekturen vorzunehmen und somit auch nötigenfalls unabhängig vom Computer zu operieren. Die Durchführung des Eingriffes liegt, im Gegensatz zu Robotersystemen, bei denen Computerarme die Operationen durchführen sollten, beim Chirurgen.

Eine Beurteilung der Operationspräzision des ARTMA Virtual Patient® Systems wird durch das Einblenden von charakteristischen anatomischen Leitstrukturen, die vor der Operation markiert wurden, als intraoperative Genauigkeitskontrolle ermöglicht. Bei der Verwendung eines elektromagnetischen Tracking-Systems kann es durch metallische Gegenstände zur Verzerrung des magnetischen Feldes kommen. Diese Abweichungen sind jedoch durch die eingeblendeten Kontrollpunkte ständig sichtbar und damit kontrollierbar. Das System zeigte bei sämtlichen bisher durchgeführten Operationen eine Genauigkeit von weniger als 3 mm Abweichung. Dadurch daß diese Abweichung bereits intraoperativ erkannt wird ist es möglich daß System bei Bedarf intraoperativ neu zu kalibrieren.

Zusammenfassend erwarten wir für den klinischen Einsatz [4-20]eine Erleichterung, sich in schwierigen anatomischen Verhältnissen zu orientieren, sowie eine Verringerung der Operationszeit und Verminderung der intra- und postoperativen Komplikationen durch eine generelle Reduktion der Invasivität, ermöglicht durch ein zielgerichteteres Vorgehen.

Wie durch die Demonstration in Brüssel vorgestellt wurde kann die Änderung einer Planung in Echtzeit in den Operationssaal übermittelt werden. Die interaktive Modifikation des Operationsplanes durch den Experten wird als virtuelle 3D Struktur übertragen [21]. Der Chirurg hat diese Hilfestellung in das intraoperative Gesichtsfeld über Bildfusion eingeblendet, mittels eines heads up displays. Ein Experte kann durch diese Technologie eine Operation durch Telenavigation begleiten.






Universitätsklinik für Unfallchirurgie
Universität Wien


Die Biomechanik des Kniegelenkes unterscheidet sich maßgeblich von allen anderen Gelenken. Entscheidende Faktoren für die physiologische Kinematik sind Form der Gelenkflächen, Bandstrukturen, Menisci und als dynamische Stabilisatoren die einzelnen Muskelgruppen. Der sehr komplexe Bewegungsablauf kann an Modellen [22] oder Leichenpräparaten nur unzureichend nachvollzogen werden. Exakte Untersuchungen unter in vivo Bedingungen [23-25] sind bis dato nicht durchgeführt worden, weil weder das notwendige Instrumentarium noch das notwendige Know how zur Verfügung standen.

Die genaue Kenntnis der Bewegungsabläufe im Kniegelenk ist jedoch die Grundlage für Diagnose und Therapie von Kapselbandverletzungen des Kniegelenkes. Eine Zunahme von Kniegelenkverletzungen durch erhöhte sportliche Freizeitaktivität ist in den Industrieländern zu beobachten.

Exakte Kenntnis der Biomechanik und Gelenkkinematik ist Voraussetzung für jeden chirurgischen Eingriff am Kapselbandapparat des Kniegelenkes. Trotz der großen Anzahl an Untersuchungen wird die Kinematik noch kontroversiell beurteilt. Eines der Hauptprobleme stellt die im Leichenexperiment nicht oder nur unzureichend simulierbare Muskulatur dar, die jedoch gemeinsam mit den ligamentären Strukturen eine wesentliche Bedeutung für die Gelenkführung und stabilisierung hat.

Das Verhalten der Kreuzbänder ist an der Leiche exakt bestimmbar, die Biomechanik und Gelenkkinematik ist jedoch unter den physiologischen Bedingungen des Gehens und Laufens noch nicht genau untersuchbar.

Das Ziel ist die dynamische Aufzeichnung der Kinematik des Kniegelenkes unter Belastung. Als erste Ergebnisse liegen die Auswertungen der Versuche am Leichenknie vor.




Nach der Definition der Ansatzpunkte der Ligamente in 3D durch eine stereophotometrische Analyse von Röntgen [26, 27]wurde die geführte Bewegung eines Leichenknies über Sensoren aufgezeichnet. Nach Auswertung der Meßwerte wurden diese graphisch dargestellt.



Da damals erst die erste Generation eines 3D Digitizers zur Verfügung stand erwarten wir durch die zwischendurch erfolgten technischen Weiterentwicklungen nun eine wesentliche Erleichterung des praktischen Einsatzes.





Universitätsklinik für HNO
Universität Innsbruck

Im Jahre 1993 wurde Univ.-Prof.Dr.W.Thumfart erstmals in den USA die Technologie für die Anwendung in der endoskopischen Chirurgie von Dr.Truppe vorgestellt. Nach Anwendung des Systems in der endoskopischen NNH Chirurgie [28] wurde im Jänner 1996 in San Diego auf dem Symposium Medicine meets Virtual Reality die teleunterstützte stereotaktische endoskopische Navigation vorgestellt [29] sowie danach auf der Tagung Computer Assisted Radiology (CAR96) in Paris [30].

Die klinischen Vorteile des Artma Systems zu bestehenden Lösungen werden herausgearbeitet [31].

Ein besonderer Schwerpunkt der Entwicklung der Universitätsklinik für HNO in Innsbruck ist eine aus Kohlefaser angefertigte Sensorhalterung. Damit ist es möglich den intraoperativen Aufwand der technischen Vorbereitungen für die computergesteuerte Navigation weiter zu reduzieren.








Universitätsklinik für Zahnheilkunde
Universität Wien

Die Universitätsklinik für Zahnheilkunde (Vorstand Univ.-Prof.Dr.R.Slavicek) erarbeitet mit Dr.Truppe eine Softwarelösung um die Daten der elektronischen Axiographie mit dem CT des Patienten in Bezug zu bringen. Durch einen an der Stirne befestigten 3D Sensor wird die Position der ebenfalls mit einem 3D Sensor ausgestatteten Videokamera definiert, die optischen Abbildungsparameter sind durch einen Eichvorgang bekannt.



An der Abteilung für orale Chirurgie (Leiter: Prof.Dr.G.Watzek) konzentriert sich die Forschungstätigkeit auf die Positionierung von Implantaten [32-34]. Insbesondere soll die präprothetische Planung mit der intraoperativen Positionierung von Implantaten verbunden werden.




Bibliographie



[1]

O. Ploder, A. Wagner, G. Ensilidis, and R. Ewers, "Computer-assisted intraoperative visualization of dental implants. Augmented reality in medicine," Radiologe, vol. 35, pp. 569-72, 1995.


[2]

A. Wagner, O. Ploder, G. Enislidis, M. Truppe, and R. Ewers, "Virtual image guided navigation in tumor surgery--technical innovation," J Craniomaxillofac Surg, vol. 23, pp. 217-3, 1995.


[3]


G. Enislidis, O. Ploder, A. Wagner, and M. Truppe, "Prinzipien der virtuellen Realität und deren Anwendung in intraoperativen Navigationshilfesystemen," ACA, vol. 28, 1996.


[4]


G. Enislidis, O. Ploder, A. Wagner, M. Truppe, and R. Ewers, "Advantages and Drawbacks of Intraoperative Navigation Systems in Oral and Maxillofacial Surgery," presented at Computer Assisted Radiology, Berlin, 1995.


[5]


G. Enislidis, A. Wagner, O. Ploder, M. Truppe, and R. Ewers, "Semiimmersive Umfelder in der Kiefer- und Gesichtschirurgie," presented at Symposium Operationssimulation und intraoperative Navigation mit 3-D Modellen und Augmented Reality, Wien, 1995.


[6]


R. Ewers, G. Enislidis, A. Wagner, O. Ploder, and B. Schumann, "Die "Augmentierte Realität" Intraoperative Navigationshilfe in der Mund-, Kiefer- und Gesichtschirurgie," presented at Symposium Digitale Bildverarbeitung im Neuen AKH Dez. 95, Wien, 1995.


[7]


R. Ewers, O. Ploder, A. Wagner, G. Enislidis, and M. Truppe, "Intraoperative 3D Navigation in der Implantologie," presented at Symposium Operationssimulation und intraoperative Navigation mit 3-D Modellen und Augmented Reality, Wien, 1995.


[8]


O. Ploder, A. Wagner, G. Enislidis, and M. Truppe, "3D Augmented Reality in der Mund-Kiefer-Gesichtschirurgie," presented at Symposium Operationssimulation und intraoperative Navigation mit 3-D Modellen und Augmented Reality, Wien, 1995.


[9]


O. Ploder, A. Wagner, G. Enislidis, M. Truppe, and R. Ewers, "3D Endoscopic Surgery," presented at Computer Assisted Radiology, Berlin, 1995.


[10]


O. Ploder, A. Wagner, G. Ensilidis, and R. Ewers, "3-D-Navigation mit dem Endoskop - eine Fallpräsentation am stereolithographischen Modell," Stomatol, vol. 92, pp. 147-9, 1995.


[11]


O. Ploder, A. Wagner, M. Truppe, M. Rasse, and R. Ewers, "CT-guided Drill System for Osteointegrated Implant Placement," presented at International Meeting on Functional Surgery of the Head and Neck, Graz, 1995.


[12]


O. Ploder, A. Wagner, M. Truppe, M. Rasse, and R. Ewers, "Image Guided Stereotactic Endoscopic Navigation," presented at International Meeting on Functional Surgery of the Head and Neck, Graz, 1995.


[13]


M. Truppe, "3D Augmented Reality - Grundlagen der Bildfusion," presented at Symposium Operationssimulation und intraoperative Navigation mit 3-D Modellen und Augmented Reality, Wien, 1995.


[14]


A. Wagner, O. Ploder, G. Enislidis, B. Schumann, and R. Ewers, "Semi-Immersive Artificial Environments in Maxillofacial Surgery," Journal of Computer Aided Surgery, vol. 2, pp. 19, 1995.


[15]


A. Wagner, O. Ploder, G. Enislidis, and M. Truppe, "3D Image Guided Surgery," presented at Symposium Operationssimulation und intraoperative Navigation mit 3-D Modellen und Augmented Reality, Wien, 1995.


[16]


A. Wagner, O. Ploder, M. Truppe, M. Rasse, and R. Ewers, "Simulation of soft tissue changes of Le Fort I procedures," presented at International Meeting on Functional Surgery of the Head and Neck, Graz, 1995.


[17]


A. Wagner, O. Ploder, M. Truppe, M. Rasse, and R. Ewers, "Visualization of Temporomandibular Joint Function," presented at International Meeting on Functional Surgery of the Head and Neck, Graz, 1995.


[18]


R. Ewers, W. F. Thumfart, M. Truppe, O. Ploder, A. Wagner, G. Enislidis, N. Fock, A. R. Gunkel, and W. Freysinger, "Computed navigation in cranio-maxillofacial and ORL-head and neck surgery. Principles, indications and potentials for telepresence," J Craniomaxillofac Surg, vol. 24, Suppl. 1, 1996.


[19]


A. Wagner, O. Ploder, G. Ensilidis, M. Truppe, and R. Ewers, "Navigation Assistance by a Virtual Image Guiding Operation System. Initial description and operation simulation on a stereolithographic skull model," Stomatol, vol. 93, pp. 87-90, 1996.


[20]


A. Wagner, O. Ploder, J. Zuniga, G. Undt, and R. Ewers, "Augmented Reality Environment for Temporomandibular Joint Motion Analysis," Int J Adult Orthod Orthognath Surg, vol. 11, pp. 127-136, 1996.


[21]


W. Millesi, M. Truppe, F. Watzinger, A. Wagner, and R. Ewers, "Image Guided Surgery Extended by Remote Stereotactic Visualization," presented at First International Joint Conference CVRmed - MRCAS, Grenoble, 1997.


[22]


M. R. Torres, J. Foort, J. B. Morrison, and C. G. Saunders, "A reference shape library for computer aided socket design in above-knee prostheses," Prosthet Orthot Int, vol. 13, pp. 130-9, 1989.


[23]


F. R. Noyes, E. S. Grood, D. L. Butler, and L. Raterman, "Knee ligament tests: what do they really mean?," Phys Ther, vol. 60, pp. 1578-81, 1980.


[24]


S. D. Barber, F. R. Noyes, R. E. Mangine, J. W. McCloskey, and W. Hartman, "Quantitative assessment of functional limitations in normal and anterior cruciate ligament-deficient knees," Clin Orthop, pp. 204-14, 1990.


[25]


H. Jonsson, J. Karrholm, and L. G. Elmqvist, "Laxity after cruciate ligament injury in 94 knees. The KT-1000 arthrometer versus roentgen stereophotogrammetry," Acta Orthop Scand, vol. 64, pp. 567-70, 1993.


[26]


H. Jonsson, L. G. Elmqvist, J. Karrholm, and A. Fugl-Meyer, "Lengthening of anterior cruciate ligament graft. Roentgen stereophotogrammetry of 32 cases 2 years after repair," Acta Orthop Scand, vol. 63, pp. 587-92, 1992.


[27]


L. Ryd and N. Egund, "Subsidence of tibial components in knee arthroplasty. A comparison between conventional radiography and roentgen stereophotogrammetry," Invest Radiol, vol. 30, pp. 396-400, 1995.


[28]


R. Gunkel, W. Freysinger, W. F. Thumfart, and M. Truppe, "Application of the ARTMA Image-Guided Navigation System to Endonasal Sinus," presented at Computer Assisted Radiology, Berlin, 1995.


[29]


M. Truppe, W. Freysinger, A. R. Gunkel, and W. F. Thumfart, "Teleassisted stereotactic endoscopic surgery," presented at Computer Assisted Radiology, Paris, 1996.


[30]


M. Truppe, W. Freysinger, A. R. Gunkel, and W. F. Thumfart, "Augmented reality remote-guided navigation in ENT surgery," in Medicine meets Virtual Reality, S. Weghorst, H. Sieburg, and K. Morgan, Eds. San Diego: IOS Press, 1996, pp. 280-282.


[31]


W. Freysinger, A. R. Gunkel, C. Pototschnig, W. F. Thumfart, and M. Truppe, "New developments in 3D endonasal and frontobasal endoscopic sinus surgery," in 2nd International Conference on Acoustic Neuroma Surgery and 2nd European Skull Base Society Congress, J. M. Sterkers, R. Charachon, and O. Sterkers, Eds. Paris: Kugler Publications, 1995, pp. 593-599.


[32]


S. Grampp, P. Solar, S. Rodinger, B. Gsellmann, and M. Truppe, "In-vitro accuracy of a computer-aided surgical navigation system," presented at Computer Assisted Radiology, Paris, 1996.


[33]


P. Solar, S. Grampp, S. Rodinger, B. Gsellmann, M. Truppe, and C. Ulm, "Accuracy of a computer-aided surgical navigation system," J Craniomaxillofac Surg, vol. 24, Suppl. 1, 1996.


[34]


P. Solar, S. Rodinger, C. Ulm, S. Grampp, B. Gsellmann, and M. Truppe, "A computer-aided navigation system for oral implants using 3D-CT reconstructions and real time video projection," presented at Computer Assisted Radiology, Paris, 1996.


© Copyright 1996 M.Truppe. All rights reserved. Last modified Jan 4, 1997.