Skip to main content
Die Urologie
Info
Publiziert am: 08.10.2022

Computertomographie

Verfasst von: Andreas Georg Schreyer
Die Computertomografie stellt in der Radiologie gegenwärtig die Standarduntersuchung bei den Schichtbildaufnahmen dar, mit der durch hohe Ortsauflösung und Durchführungsgeschwindigkeit bei der Untersuchung sowohl zeitkritische Fragestellungen in der Notfallmedizin als auch exakte onkologische Beurteilungen der Knochen, des Lungengewebes und der parenchymatösen Organe durchgeführt werden können.
Prinzipiell erlaubt die Computertomografie (CT) als ein weiter entwickeltes computergestütztes Röntgenverfahren durch die Berechnungen mehrerer Projektionen im Verlaufe von 360° um den Körper eine exakte anatomische Darstellung von errechneten Schnittbildern basierend auf der Absorption von Röntgenstrahlen. Durch die massive Steigerung der Geschwindigkeit der Untersuchungsdurchführung in den letzten Jahren, hier besonders durch die Spiral- und Multidetektor-CT, ist es zusätzlich möglich geworden, kontrastgestützte Aufnahmen in dedizierte Kontrastphasen zu akquirieren. Damit werden u. a. angiografische Phasen zu verschiedenen Zeitpunkten (arteriell, portalvenös, venös) möglich. Durch die verschiedenen Kontrastmittel-Phasen können aber auch verschiedene biologische Eigenschaften unterschiedlicher Gewebe und Tumoren eine Verbesserung des Kontrastes pathologischer Strukturen erreichen. So sind mittlerweile durch die hohe Geschwindigkeit im Routineeinsatz sogar Untersuchungen am schlagenden Herzen mit entsprechender Technik möglich. Die Weiterentwicklung stellt gegenwärtig das Dual-Energy Prinzip dar, das die biologische Auflösung der Methode weiter verbessert.
Im folgenden Kapitel sollen nach einer kurzen Beschreibung der historischen Entwicklung der Computertomografie die Prinzipien der CT erläutert werden. Im Anschluss werden neue Techniken wie etwa das Dual-Energy CT oder das Perfusions-CT kurz erklärt und ein Ausblick in die Entwicklung der nahen Zukunft der CT gegeben.

Eine kurze Geschichte der CT

Die mathematischen Grundlagen zur Durchführung der Computertomografie (CT) liegen weit zurück am Anfang des 20. Jahrhunderts. Prinzipiell liegen die ersten Ansätze in den Entwicklungen des Mathematikers Johann Radon, der mit seinen sogenannten „Radon-Transformationen“ die Grundlagen dafür legte, die Strukturen eines röntgentransparenten Objektes durch mathematische Berechnungen aus mehreren Richtungen mit Hilfe der sogenannten gefilterten Rückprojektion zu erzeugen. Darauf basierend entstanden in der Radiologie zunächst die Methodik der konventionellen Tomografien in den späten 30er- und 40er-Jahren.
In den 60er-Jahren arbeitete dann Allan M. Cormack an den weiteren theoretischen Grundlagen der mathematischen Auflösung, um durch die unterschiedliche Absorption von Röntgenstrahlung unterschiedliche Gewebsstrukturen darstellen zu können (Cormack 1994). Zwischen 1968 und 1969 konnte Godfrey Hounsfield bei der Firma EMI (Electrical and Musical Industries) die Herstellung von Prototype beginnen. Die ersten kommerziellen CT-Scanner, die sogenannten „EMI-Scanner“, wurden ab 1972 hergestellt.
Als Anekdote der CT Geschichte in diesem Zusammenhang wird immer wieder der Einfluss der „Beatles“ auf die CT Entwicklung erwähnt. Argumentiert wird hier, dass durch die hohen Verkaufsumsatzzahlen der „Beatles“ EMI hohe Summen von Forschungsgelder zur freien Verfügung standen, was die CT zu einem „Geschenk der Beatles“ machte. Trotz eines minimalen Kernes der Wahrheit in diesen Geschichten ist der Einfluss der „Beatles“ auf die CT jedoch eher eine „urban legend“. In einer wissenschaftlichen historischen und finanziellen Analyse konnte gezeigt werden, dass dieser Einfluss nur sehr gering war und die „Beatles“ in keiner Weise in der Geräteentwicklung der Computertomographie auch nur irgendwie involviert waren (Maizlin und Vos 2012). Hounsfield arbeitet bei EMI zwar als Wissenschaftler an freien Projekten und wollte seine Idee eines „umgekehrten Radars“ bei EMI entwickeln. Er fand dabei die Anwendung in der Radiologie als guten praktikablen Ansatz. Die Finanzierung dieses Vorhaben wurde jedoch durch die Verunsicherung des Managements von EMI, ein Gerät für den medizinischen Markt herzustellen, vom British Department of Health and Social Security (DHSS) zum größten Teil übernommen, so dass die Entwicklung und Herstellung der ersten „EMI-Scanners“ eher ein Geschenk der britischen Steuerzahler als der „Beatles“ waren.
Zusammen mit Allan M. Cormack (1924–1998) erhielt Godfrey Hounsfield (1919–2004) im Jahre 1979 gemeinsam den Nobelpreis für Medizin. Die normierten Dichtewerte in der Computertomographie werden nach G. Hounsfield als sogenannte „Hounsfield-Skala“ bezeichnet.
Die erste Generation der Computertomographen stellten die sogenannte Translation/Rotationsscanner dar, bei denen eine Röntgenröhre und ein Röntgendetektor sich in einer Translationsbewegung um ein festes Objekt bewegten und so den Körper erfassten. Die erste Generation des Gerätes, der EMI Mark 1, brauchte dabei für etwa 180 Projektionen einer Schicht etwa 5 Minuten. Die Rechenzeiten lagen dabei im Bereich von 30 Minuten für ein Bild.
Bei der zweiten Generation der CT-Scanner ab 1972 wurde dann ein fächerartig angeordneter Röntgenstrahl verwendet, der auf mehrere Detektoren gleichzeitig projizierte und somit die Geschwindigkeit erhöhte. Etwa 1975 kam dann die Gerätegeneration der sogenannten „Rotate-Rotate“-Klasse auf den Markt, bei der lediglich eine Röntgenröhre um den Patienten rotiert und auf der gegenüberliegenden Seite mit entsprechenden Detektorzeilen die Strahlung aufgenommen wird. Im groben hat sich dieses Prinzip bis heute erhalten, wobei jedoch signifikante Evolutionen bzw. Revolutionen dazu kamen. Unter anderem wurde bei diesen Geräten der dritten Generation zunächst mit Hilfe einer sogenannten Schleifringtechnologie die Möglichkeit gegeben, eine Dauerrotation zu erzeugen, die vorher bei kabelgebundener Datenabtastung nicht möglich war. Somit war die Voraussetzung für das sogenannte Spiral- oder Helix-CT gegeben, das heute in der klinischen Routine Standard ist. Beim Spiral-CT wird in einer Dauerrotation in vollen 360° Drehungen um den Patienten eine kontinuierliche Datenakquisition vorgenommen, wobei sich hier während der kontinuierlichen Datenaufnahme der Patient entlang seiner Längsachse (Z-Achse) kontinuierlich durch die Gantry bewegt. Diese Methode führte der deutsche Physiker Prof. Dr. Willi A. Kalender im Jahre 1989 ein. Bei diesen noch heute eingesetzten Verfahren ergeben sich durch die primäre Bewegung während der Datenaufnahme bewusste Bewegungsartefakte. Daher wird bei dieser Gerätegeneration aus einem Rohdatensatz bzw. aus dem Volumendatensatz jeweils eine errechnete Schicht herausgerechnet.
Eine Weiterentwicklung stellte dann die Einführung von Mehrzeilen-CT oder Multidetektor-CTs dar, die ihren ersten Repräsentanten (2-Zeiler) im Jahre 1992 bei einem CT Scanner der Firma Elscint hatte. Das Prinzip der simultanen Akquisition von mehreren Zeilen wurde von allen Herstellern aufgenommen und weiterentwickelt, so dass sich schnell 4 bzw. 6 oder 8-zeilige Geräte durchsetzten. Im Jahre 2001 waren 16-zeilige Geräte auf dem Markt, im Jahre 2006 bereits Geräte bis zu 64 Zeilen. Gegenwertig können parallel bis zu 640 (eigentlich 320 Zeilen, doppelt ausgelesen) durch einige Hersteller gleichzeitig ausgelesen werden. Dabei ist diese Geschwindigkeit der mehrzeiligen CT eher bei der Akquisition bewegter Körperstrukturen entscheidend. So sind beispielsweise Geräte ab 64 Zeilen für die Darstellung am schlagenden Herzen die Voraussetzung. Im Tumorstaging mit weniger bewegungssensitiven Darstellungen sollte mit den Klassen ab 32 Zeilen weitgehend ausreichend sein.
Auf Grundlage der in Deutschland nun ubiquitär eingesetzten Spiral- bzw. Mehrzeilen-CT werden nun von allen modernen Geräten hochauflösende Bilder entlang der Patientenachse (Z-Achse) in kürzester Zeit akquiriert. Bei Scanzeiten einer gesamten Körperregion von teilweise unter 10 sec. Ist es damit möglich, während einer Atemanhalte-Phase eine gesamte Körperregion ohne Bewegungsartefakte darzustellen. Zusätzlich können durch die schnellen Akquisitionszeiten einer Volumenakquisition im Körper auch unterschiedliche Kontrastmittelphasen problemlos akquiriert und ausgewertet werden.
So hat sich in der Routinedarstellung von Gefäßen und Organen vor allem die arterielle und die portalvenöse Kontrastmittelphase als eine Standartphase in der CT etabliert. Die sogenannte native Datenakquisition wird in der Tumordiagnostik nur noch bei strenger Kontraindikation des jodhaltigen Kontrastmittels durchgeführt und hat häufig wenig zusätzlichen diagnostischen Wert. Arterielle Datenerfassungen werden zum einen zur sogenannten CT-Angiographie durchgeführt, bei der das arterielle Gefäßsystem dargestellt wird. Diese Kontrastmittelphase ist zusätzlich wertvoll, um vor allem hyperarterialisierte und hypervaskularisierte Tumore (Nierenzellkarzinom, neuroendokrine Tumore, hepatozelluläres Karzinom) durch die spezielle Tumorbiologie besser darzustellen (Abb. 1). Die sogenannte portalvenöse Phase, die etwa 70 sec. nach der intravenösen Kontrastmittelgabe gestartet wird, ist in der Regel die Routinephase, in der vor allem die Leber optimal beurteilt werden kann. Da das Lebergewebe in der portalvenösen Phase die höchste Kontrastmittelanreicherung aufweist, stellen sich vor allem Metastasen in der Leber durch eine frühzeitige Entspeicherung des Kontrastmittels als hypodense (als also dunkle) Strukturen dar (Abb. 2).
Im Übrigen kann durch die hochauflösende Volumenakquisition auch aus den prinzipiell axial akquirierten CT-Daten bei modernen Geräten weitere sekundäre Ebenen wie etwa sagittale oder koronale Rekonstruktionen erstellt werden. Zusätzlich können 3-dimensionale Rekonstruktionen aus den Daten angefertigt werden. Hier ist das sogenannte Oberflächen-Rendering (Surface Rendering) oder die Volumen-Rendering-Technik (VRT), die eine schnelle qualitative 3-dimensionale Beurteilung von Organen. Gefäßen oder Knochen basierend auf ihren Dichtewerten erlaubt, die grundlegenden Methoden. Diese Techniken werden jedoch eher zur übersichtlichen Visualisierung von komplexen Befunden angewendet; die eigentliche radiologische Befundung und Bildauswertung erfolgt weiterhin auf den originären axialen Schichten oder den dünnen Rekonstruktionen (multiplanare Rekonstruktionen) in den verschiedenen Ebenen.

Strahlenexposition bei CT

Wenn man die medizinischen Quellen für Strahlenexposition in der Bevölkerung vergleicht, repräsentiert die CT die Untersuchung mit der höchsten Strahlenexposition in zivilisierten Ländern. So wurde beispielsweise in Deutschland in den letzten Jahren durchschnittlich bei nahezu 5 Millionen Menschen pro Jahr eine CT durchgeführt. So ist es auch nicht verwunderlich, dass die CT insgesamt für nahezu 50 % der jährlichen Strahlenexposition der Bevölkerung in den westlichen Ländern verantwortlich ist. Wissenschaftlich ist ein direkter Zusammenhang zwischen der Strahlenexposition und der Tumorentstehung in niedrigen Dosen, wie sie bei der CT im Bereich zwischen 2 und 10 mSv pro Jahr auftreten, nicht eindeutig geklärt. Die Kalkulationen zur Entstehung von Strahlenschäden oder Tumorentstehung durch die CT basieren eher auf mathematischen Modellen, die durch Extrapolation der Strahlungsintensität bei Strahlenunfällen oder dem Einsatz von nuklearen Waffen entstanden. Obwohl die Zusammenhänge in evidenzbasierten Studien zwischen niedrigen Strahlenexpositionen und Tumoren nicht bewiesen sind, müssen Radiologen dennoch eine strenge Indikationsstellung zur CT stellen. Insgesamt ist die schädliche Wirkung von Röntgenstrahlen, gerade im Bereich höherer Dosen, unumstritten. Diese muss besonders bei urologischen Untersuchungen, die eine hohe Strahlenexposition im Bereich der Reproduktionsorgane (Becken) aufweisen, bedacht werden. Bei einer natürlichen durchschnittlichen Strahlenbelastung der Allgemeinbevölkerung von 2,1 mSv verursacht z. B. eine CT des Abdomens durchschnittlich zwischen 5,3 und 10 mSv zusätzliche Strahlenexposition.

Weitere Entwicklungen der Computertomografie

Neben den erwähnten rasanten Fortschritten der CT bezüglich verminderter Strahlenexposition (sogenannte „low dose“-Techniken) vor allem bei Niedrigdosisaufnahmen mit Adaptation aufwendiger iterativer Bildrekonstruktionsalgorithmen stellt die sogenannte Dual-Energy einen weiteren entscheidenden Meilenstein in der Entwicklung dar.
Die Dual-Source-CT Technik wurde im Jahre 2005 eingeführt, wobei hier zwei um 90 Grad versetzte Röntgenstrahler simultan eingesetzt werden. Dies kann zum einen dazu benutzt werden, mit der Kraft von zwei Strahlern stärker in eine untersuchte Region einzustrahlen und somit Artefakte bei adipösen Patienten zu vermeiden. In der Regel wird die Technik jedoch verwendet, um durch die 90 Grad versetzte Strahlengabe und Akquisition eine nahezu Verdopplung der Akquisitionsgeschwindigkeit zu erreichen. Nachteil der Dual-Source Technik liegt im Allgemeinen vor allem wirtschaftlich in den hohen Anschaffungskosten der Geräte und den konsekutiv höheren Wartungskosten von zwei Strahlern. Der Haupteinsatz liegt aber sicherlich künftig in der sogenannten Dual-Energy-Technik (Spektrales Imaging), in der zwei Spektren an Röntgenstrahlen simultan benutzt werden.
Das Vorgehen der „Zwei-Spektren“ oder „Multi-Energy-Computertomographie“ beruht prinzipiell darauf, dass die Absorptionseigenschaften des untersuchten Gewebes von der jeweiligen Photonenenergie der Strahlung abhängig sind, was dazu genutzt werden kann, verschiedene Gewebearten wie etwa Urat bzw. Materialien wie Kalk oder Jod zu identifizieren. So kann z. B. durch die Erzeugung von sogenannten Jod-Maps das Jod durch die Dual-Energy-Technik identifiziert werden und somit mathematisch aus den kontrastgestützten Bildern subtrahiert werden, sodass daraus wiederum eine virtuell native CT entstehen kann, ohne dass die Region zweimal gescannt werden muss. Auch die Zusammensetzung beispielsweise von Konkrementen in der Gallenblase oder in den abführenden Harnwegen ist durch die Dual-Energy-Technik möglich. Aktuell ist diese Technik nicht mehr ausschließlich auf Geräte mit zwei Röntgenröhren beschränkt (Dual-Source-Technik), sondern kann durch den Einsatz verschiedener Herangehensweisen mit Filter in der Detektion, Sandwich-Technik der Detektoren oder Filter in den Röntgenstrahlern bzw. minimal zeitversetzte Akquisition von zwei Röntgenspektren auch von hochwertigen Single-Source-Geräten durchgeführt werden. Durch den routinemäßigen Einsatz dieser Technik werden sicherlich die nächsten Jahre noch spannende klinische Anwendungen in der Materialdetektion und unter Umständen in der Auswertung von Tumorgeweben möglich werden.
Auch die Perfusions-CT, die die letzten Jahre lediglich in der Darstellung des Hirnes benutzt wurde, erscheint eine spannende Anwendung neuer Techniken. Hier kann durch die breiten Detektoren bei modernen mehrzeiligen CT-Geräten simultan ein großes Volumenelement des Patienten gleichzeitig erfasst werden und somit in Echtzeit im Subsekundenbereich eine Perfusion von Gewebsvolumen nach Kontrastmittelgabe untersucht werden. Nachteile für die klinische Routine liegt sicherlich daran, dass durch die repetitive Datenakquisition mit Röntgenstrahlen desselben Volumenbereiches dementsprechend auch eine höhere Strahlenexposition entsteht, sodass diese Technik gegenwärtig eher in der Forschung angewandt wird und durch die höhere Strahlenexposition noch keinen direkten Einzug in die Routine gefunden hat.
Die Anwendung von künstlicher Intelligenz mit Deep Learning-Algorithmen wird von einigen Herstellern vermehrt als Softwareupgrade angeboten. Analog der Herangehensweise mit den iterativen Rekonstruktionen wird auch hier versucht, basierend auf den Rohdaten ohne Reduktion der Auflösung der Originalkontraste eine Verbesserung des Kontrastes und Reduktion des Bildrauschens zu erreichen, was konsekutiv zu einer Verringerung der Strahlenexposition führt.

Die (nahe) Zukunft der CT

Viele der in dem letzten Abschnitt beschriebenen technischen Entwicklungen stellen eine Evolution und zuweilen nahezu eine Revolution der Computertomographie dar. Die Steigerung der „biologischen“ oder besser „Materialauflösung“ der spektralen CT wird sicherlich bei zunehmend geringerer Strahlenexposition die nahe Zukunft der CT prägen. Sicherlich revolutionär wird jedoch die nächsten Jahre die Einführung der sogenannten „Photon Counting“-Technologie in der CT sein (Willemink et al. 2018). Dabei werden neuartige Detektoren benutzt werden, die in der Lage sein werden, die Anzahl der eintreffenden Photonen zu messen und so die Photonenenergie zu messen. Mit dieser Technik wird es möglich sein, die Ortsauflösung und das Signal-Rausch-Verhältnis bei reduzierter Strahlung massiv bei gleichzeitig optimierter spektraler Bildgebung zu verbessern.

Zusammenfassung

  • Die CT wurde in den 70iger-Jahren eingeführt und konsequent weiterentwickelt.
  • Die Computertomographie ist gegenwärtig die Standartuntersuchung bei Schichtbildaufnahmen in der Radiologie, mit hoher örtlicher und zeitlicher Auflösung Organsysteme zu untersuchen.
  • Die Computertomographie (CT) ist ein computergestütztes Röntgenverfahren, das wegen der Strahlenexposition einer strenge Indikationsstellung bedarf.
  • Die sogenannte ,,Spiral-CT“ erlaubt eine Volumenakquisition und ist heute die Standartaufnahmemethode der CT-Diagnostik.
  • Die Einführung von mehrzeiligen CT erhöhte massiv die Geschwindigkeit der Datenaufnahme. Für reguläre Staginguntersuchungen sollten dabei Geräteklassen ab 16 bis 32 Zeilen in den meisten Fällen ausreichend sein.
  • Durch die hohe zeitliche Auflösung können Organsysteme in verschiedenen Kontrastmittelphasen (arteriell bzw. portalvenös, etc.) aufgenommen werden.
  • Die CT ist für nahezu 50 % der jährlichen (nicht natürlichen) Strahlenexpositionen der Bevölkerung in Deutschland verantwortlich.
  • Die Strahlenexposition eines Abdomen-/Becken-CTs liegt zwischen 5 und 10 mSv, die durchschnittliche natürliche Strahlenbelastung der allgemeinen Bevölkerung liegt etwa bei 2,1 mSv.
  • Die Neu- und Weiterentwicklung in der CT ist gegenwärtig vor allem in der Dual-Energy-Technik, mit der unterschiedliche biologische Materialien und Strukturen (Kalzium, Jod, Urat) aufgelöst werden können, zu finden.
  • Durch neue Techniken wird die Strahlenexposition der Geräte konsequent geringer. Durch die geringere Dosis erhöht sich zunächst das Bildrauschen. Mit modernen Methoden der iterativen Rekonstruktion oder der künstlichen Intelligenz wird dieses Rauschen dabei verlustfrei reduziert.
Literatur
Cormack AM (1994) My connection with the Radon transform. In: Michor P (Hrsg) 75 years of Radon transform. International Press, Boston, S 32–35
Maizlin ZV, Vos PM (2012) Do we really need to thank the Beatles for the financing of the development of the computed tomography scanner? J Comput Assist Tomogr 36:161–164. https://​doi.​org/​10.​1097/​RCT.​0b013e318249416f​CrossRefPubMed
Willemink MJ, Persson M, Pourmorteza A et al (2018) Photon-counting CT: technical principles and clinical prospects. Radiology 289:293–312. https://​doi.​org/​10.​1148/​radiol.​2018172656CrossRefPubMed