[werner.stangl]s arbeitsblätter 

Gehirnforschung - Bildgebende Verfahren

In früheren Zeiten fehlten den Ärzten die technischen Voraussetzungen, das Innenleben des Gehirns zu studieren. Sie mussten sich damit begnügen, die Gehirne Verstorbener zu sezieren, zu analysieren und zu konservieren.

1896 beschrieben die russischen Ärzte Bechterew und Chrustchew erste Anwendungen von Röntgenstrahlen in der Neurologie. Seither wurden immer leistungsfähigere Apparate entwickelt, um das lebende Gehirn bei der Arbeit zu beobachten. Wie auch in vielen anderen Bereichen wurden hier die bahnbrechenden Fortschritte durch die Entwicklung der Elektronik und der Computertechnik ermöglicht.

Heute sind bildgebende Verfahren jene Methoden, mit denen hirnanatomische Strukturen mit Hilfe von Messwerten rekonstruiert und dreidimensional visualisiert werden. Die Grundlage für kognitive Prozesse sind Veränderungen in der Gehirnaktivität, die sich auf neuronale Aktivitäten zurückführen lassen. Damit verbunden sind in den entsprechenden Arealen erhöhte Hirndurchblutung sowie vermehrte Stoffwechselaktivität. Diese Faktoren lassen sich lokalisieren, messen und darstellen. Entscheidend bei der visuellen Umsetzung ist das Lambert-Beer Gesetz, das besagt, dass jedes Gewebe mit der Änderung des funktionalen Zustandes auch seine optischen Eigenschaften ändert. Wenn Lichtquanten auf Gewebe treffen, werden sie je nach Durchblutung und Stoffwechselzustand, verschieden stark reflektiert oder absorbiert. Die bildliche Erfassung wird somit möglich.

Diese Neuroimaging-Methoden erlauben also den Forschern nach ihrem eigenen Selbstverständnis, einen Blick ins Gehirn machen zu können und sogar nach den neuronalen Spuren von Persönlichkeitsstrukturen zu fahnden. Zwei große Entwicklungen prägen daher die moderne Neurowissenschaft: Zum einen gewinnen die Forscher immer präzisere Erkenntnisse über die molekularbiologischen Vorgänge im menschlichen Gehirn, zum anderen ermöglichen immer leistungsfähigere Bildgebungsverfahren, diese Hirnfunktionen besser zu verstehen.

Der entscheidende Durchbruch gelang mit der Erfindung computergestützter Schnittbildverfahren. Dabei wird der Körper Schicht für Schicht mit Röntgenstrahlen oder Radiowellen abgetastet. Eines dieser Verfahren ist die sog. Positronen-Emissions-Tomographie (PET).

Bei dieser Methode werden zunächst in einem Zyklotron chemische Substanzen oder auch körpereigene Stoffe wie Traubenzucker radioaktiv markiert. Diese Substanzen werden dann in den Blutkreislauf injiziert. Danach wird das Gehirn mit einen PET-Scanner durchleuchtet. Der Computer errechnet aus den Daten zwei- oder dreidimensionale Bilder. Diese zeigen, wie sich die radioaktive Substanz im Gehirn ausbreitet. Mit unterschiedlichen Substanzen kann durch PET der Blutfluss sowie der Sauerstoff- und Traubenzucker-Stoffwechsel sichtbar gemacht werden. Blutfluss sowie Sauerstoff- und Traubenzucker-Stoffwechsel spiegeln das Ausmaß der Aktivität einzelner Gehirnregionen wieder. Und so können wichtige Erkenntnisse über die Physiologie und Neurochemie des arbeitenden Gehirns gewonnen werden.

Heute ist offensichtlich kaum mehr eine Wissenschaft vor der Invasion durch die Hirnforschung sicher, denn es scheint keine Forschungsdisziplin mehr zu geben, die sich nicht mit der Vorsilbe "Neuro-" modernisieren und mit der Aura vermeintlicher Beweisbarkeit veredeln liesse. Angefangen von der Neurophilosophie, Neurotheologie, Neuroethik, Neuroökonomie, Neuromarketing, Neuropsychoanalyse bis zur Neuroedukation. Jedes dieser neuen Fächer behauptet mehr oder minder selbstbewusst, die ursprünglichen Wissenschaften mit den "neuesten Erkenntnissen aus der Hirnforschung" zu versorgen. Der "Homo cerebralis" erscheint am Wissenschaftshorizont und der Mensch wird mehr oder minder auf die Funktionsweise eines einzigen Organs zu reduziert. Mit verantwortlich dafür ist eben vor allem die die funktionelle Magnetresonanztomografie. Moderne Bildgebungsverfahren wie die funktionelle Magnetresonanztomografie (fMRT) erlauben es angeblich, das Gehirn beim Denken zu beobachten. Zunächst untersuchten die Hirnforscher mittels fMRT die grundlegenden Funktionen wie Motorik, Aufmerksamkeit oder Sprache, doch seit einigen Jahren wird diese Methode auch für das Studium höherer kognitiver Funktionen verwendet, etwa der Verarbeitung von Emotionen im Gehirn.

Die Methode der Computertomografie beruht auf einer 1936 von Linus Pauling entdeckten Annahme, dass eine lokale Gehirnaktivität im Blutfluss an einer erhöhten Sauerstoffversorgung dadurch ablesbar ist, indem sich dadurch die magnetischen Eigenschaften des Hämoglobins verändern. Bei diesen Kernspinaufnahmen des Gehirns werden große Datenmengen gewonnen, pro Aufnahme bis an die 100000 dreidimensionale Bildpunkte, so genannte Voxel. Jeder dieser Bildpunkte steht für die Aktivität von Tausenden von Neuronen, wobei nicht eine Aufnahme genügt, sondern wer die Abläufe im Gehirn verstehen will, muss den Prozess dokumentieren. Daher entsteht bei einer Kernspinbeobachtung etwa alle zwei Sekunden ein neues Bild, und das über den Zeitraum von bis zu einer Stunde. Mittels der mathematischen Methode der multivariaten Musteranalyse wird aus den Daten am Ende ein sinnvolles Bild der Denkabläufe herausgerechnet. Kernspinbilder sind daher nur grobe Verallgemeinerungen, wenn man berücksichtigt, dass das Gehirn aus etwa 100 Milliarden Nervenzellen besteht. Daher ist die Sprache des Gehirns also noch lange nicht bekannt, sondern man kann man nur einzelne Wörter verstehen, nicht aber ganze Sätze oder längere Texte. Vor jeder Untersuchung mit dem Tomografen muss das Gerät auf die Versuchsperson geeicht werden, um konkrete Gedanken (Zustimmung, Ablehnung z.B.) überhaupt erkennen zu können, da der Bauplan des Gehirns zwar im Prinzip bei allen Menschen gleich ist, aber auf Grund persönliche Erfahrungen und der individuellen Biografie sind die Unterschiede zwischen ProbandInnen im Detail oft erheblich.

Ed Vul et al. (2009) erfassten im Tierexperiment die gleichen Hirnaktivitäten auf zwei verschiedenen Wegen, indem sie zum einen das neuronale Feuern durch Einzelzellableitung maßen, zum anderen mit dem Computertomografen die Sauerstoffversorgung des Blutstroms. Es zeigte sich dabei, dass die erhobenen Parameter nicht immer im Gleichtakt variierten, sondern die erhöhte Sauerstoffversorgung kann nicht allein nur durch einen Reiz ausgelöst werden, sondern auch schon durch die Erwartung des Reizes. Dadurch müssen viele Experimente kritisch betrachtet werden, die im Computertomografen die die Gehirnaktivitäten allein nach der Darbietung eines Reizes messen.

Weitere Fehler bei der Betrachtung von solchen Forschungsergebnissen passieren bei der statistischen Auswertung, wobei moderne Software wie SPS einfach und schnell die komplexesten statistischen Berechnungen ermöglicht, worüber viele Forscher vergessen, unter welchen Bedingungen welches statistische Verfahren überhaupt eingesetzt werden darf. Bei Versuchen mit dem Computertomografen wird das Gehirn in etwa 130.000 Voxel (dreidimensionale Volumseinheiten) aufgeteilt, wodurch die Wahrscheinlichkeit sehr hoch wird, dass einzelne Voxel ein falsches Signal liefern, die aber statistisch korrekt berücksichtigt werden müssen. Vor allem sollte die Methode der Kreuzvalidierung in diesem Bereich häufiger eingesetzt werden, also die Kontrolle der Forschungsergebnisse an einer anderen Stichprobe.

Carp (2012) hat in einer Metaanalyse die Qualität der eingesetzten Methoden und vor allem statistischen Verfahren bei 240 neuropsychologischen Studien untersucht, die mit dem functional magnetic resonance imaging arbeiten. Die Studien stammten aus 68 verschiedenen Journals wie "PLoS One", "PNAS" oder "Journal of Neuroscience", In mehr als einem Drittel der Studien wurde die Anzahl, die Dauer und die Abstände der Versuchsabläufe nicht beschrieben und in weniger als der Hälfte wurde die Anzahl der ausgeschlossenen Probanden angegeben oder die Gründe für den Ausschluss. Es wurde nicht gesagt, ob und wie Versuchspersonen für die Teilnahme am Experiment entschädigt wurden. Auch über die Auflösung, den genauen Untersuchungsbereich oder die Anordnung der Schichtbilder der fMRI-Untersuchung fehlten ausreichende Informationen. Ebenfalls nicht angeführt wurden Details, wie die Veränderung der Aufnahmezeit eines Scans oder die Anwendung von Modellen, die selbstständig nach Ähnlichkeiten und Verbindungen zwischen den Einzelscans suchen. Das ist für eine Replikation der Studien aber unbedingt notwendig, denn wenn diese Parameter verändert werden, dann kann das zu beträchtlichen Unterschieden beim Ergebnis führen. Carp konnte auch 207 verschiedene Kombinationen von statischen Verfahren ausfindig machen, wobei diese Zahl beinahe so groß ist, wie die Anzahl der Studien selbst. Wenn bestimmte statistische Methoden günstigere Ergebnisse zu Tage führen als andere, dann werden einige Wissenschaftler sicher nur über jene Kanäle berichten, die die vorteilhaften Ergebnisse hervorgebracht haben. Es sind daher standardisierte Richtlinien für die Publikation von Studien der Hirnforschung und Neuropsychologie zu fordern, wie dies in anderen Bereichen üblich ist.

Bildgebende Verfahren haben zahlreiche methodische Probleme, die eine Interpretation der Ergebnisse erschweren. Viele Studien beruhen dabei auf zu kleinen Probandenzahlen, wobei häufig die Analysen rein zufällig signifikante Ergebnisse hervorbringen, die sich dann in Folgestudien nicht wiederholen lassen. Die meisten bildgebenden Experimente begnügen sich mit Schnappschüssen vom Gehirn, d. h., sie verraten wenig darüber, woher ein Unterschied herrührt, wobei zeitliche Veränderungen und situative Einflüsse selten berücksichtigt werden. Nicht alle statistisch signifikanten Unterschiede sind auch praktisch bedeutsam, denn viele sind so klein, dass sich die Differenzen der untersuchten Gruppen stark überlappen. Nur die Angabe der Effektstärke macht eine Einschätzung der Relevanz eines Befunds möglich.

Viele Forscher halten daher den Aussagewert der funktionellen Bildgebung für äußerst begrenzt, denn diese liefert überhaupt keine Aussagen über die Ursachen eines bestimmten Verhalten, sondern bloß über die Aktivierung einer bestimmten Region des Gehirn, wobei auch klar ist, dass sich kognitive Phänomene in der Regel nicht eindeutig bestimmten Hirnregionen zuordnen lassen. Bewusstes Erleben ist ein dynamisches Zusammenspiel verschiedener Bereiche des Gehirns und gerade die so wichtige zeitliche Auflösung ist beim Neuroimaging mehr als bescheiden. Heftige Kritik wird auch an den angewandten statistischen Methoden geübt, denn viele Bildgebungsstudien werden ohne jede Ausgangshypothese gemacht, vielmehr fischt man einfach einmal im Trüben und tut dann so, als hätte man von Anfang an gewusst, wonach man sucht. Die so wichtigen Kreuzvalidierungen fehlen in den meisten Studien.

Zwischen den unzähligen molekularbiologischen Forschungsarbeiten - manche Wochenendbeilagen von Tageszeitungen sind voll davon! - und dem wahren Verständnis der Hirnfunktionen klafft daher immer noch eine große Lücke und von einer umfassenden Theorie des menschlichen Denkens ist die Hirnforschung noch immer sehr weit entfernt.

Felix Hasler (Universität Zürich) formuliert das pointiert so: "Wer im 21. Jahrhundert noch ernsthaft an die autonome Existenz einer Seele glaubt, riskiert, als hoffnungslos reaktionär und unaufgeklärt zu gelten. Und so haben sich mittlerweile schon viele zähneknirschend von den veralteten Vorstellungen von autonomem Geist und freiem Willen verabschiedet. Immerhin — auch als evolutionsgesteuerter Bioautomat ohne tieferen Sinn und Zweck lässt es sich im Alltag ganz gut leben. Und mit der konsequenten Umsetzung im Alltag hapert es ohnehin. Unwahrscheinlich schließlich, dass wir eines Tages sagen werden: 'Boah, mein Gyrus fusiformis ist heute wieder mal mies durchblutet, ich hätte ja vorhin meinen Nachbarn fast nicht erkannt.'"

Ein neuer Ansatz ist der Einsatz von leistungsfähigen Supercomputern, auf denen ein detailgetreues Abbild eines kleinen Teils der Großhirnrinde simuliert werden kann. Die Simulation soll das Zusammenwirken von tausenden dieser Zellen detailgetreu nachbilden. Doch auch diese Computersimulationen gelten als umstritten.

Brainscan bald Wirklichkeit?

Nach einem Bericht von Stefan Krempl in heise.de vom Mai 2018 wird es angeblich immer leichter, mit Brainscannern Gehirnwellen zu messen. So fürchtet man, dass sich die entsprechenden Geräte bald verbreiten wie Smartphones und dass Hirndaten in großem Maßstab von Facebook, Google & Co. in die Cloud geladen und analysiert werden. Es heißt in dem Artikel: "Gehirn-Computer-Schnittstellen, über die Nutzer mit ihren Hirnströmen Rechner steuern können, wandern langsam aus dem Forschungsbereich in praktische Anwendungen etwa im Bereich Virtual-Reality-Spiele." Auf der re:publica in Berlin wurde schon weniger über Frage der Technik an sich diskutiert, sondern vor allem über den Datenschutz, denn es sei völlig unklar, wem die besonders sensiblen personenbezogenen Informationen gehörten und wer sie kontrolliere. Weiter heißt es dort: "Startups und Internetkonzerne dürften sich bald einen Wettbewerb um die Nutzung der menschlichen Hirndaten liefern, schätzt der Neurologe. Neue einschlägige Gadgets würden dann damit beworben, dass sie dank der Messung der Gehirnaktivitäten ein besseres Nutzungserlebnis böten oder die Anwender klüger machten. Auch mit Schlagwörtern wie "Bewusstseinserweiterung" oder "Selbstoptimierung" dürften Kunden angelockt werden. Ähnlich wie bei persönlichen Informationen in sozialen Netzwerken könnte dies dazu führen, dass "Hirndaten im großen Maßstab freigegeben, in die Cloud hochgeladen und ausgewertet werden (…). Die beteiligten Firmen könnten über derart angereicherte Big-Data-Analysen etwa versuchen, Depressionen oder eine Suizidgefahr vorherzusagen." In der neuen EU-Datenschutzverordnung gibt es keine spezielle Kategorie dafür jenseits etwa von allgemeinen Gesundheitsdaten, wobei die Einwilligungsoptionen vergleichsweise breit gefasst sind.

Gehirnforschung und psychische Störungen

Die Gehirnforschung versucht, die Abläufe im Gehirn besser zu verstehen und damit auch die Ursachen von schwerwiegenden psychischen Krankheiten wie Schizophrenie oder bipolaren Störungen. Bei Betroffenen von Schizophrenie und bipolaren Störungen können kognitive Fähigkeiten wie Entscheidungsverhalten, Arbeitsgedächtnis und kognitive Kontrolle schwer beeinträchtigt sein, wobei es für sie etwa schwierig ist, Reize kontextbezogen einzuordnen, zu priorisieren und wichtige von unwichtigen Reizen zu unterscheiden. Die Lebensqualität der Menschen ist dabei stark eingeschränkt, wobei herkömmliche medikamentöse Therapien nach wie vor unbefriedigend sind und teilweise massive Nebenwirkungen mit sich bringen. Daher ist für die Prüfung neuer Ansätze bei dieseb Krankheiten sowie die Entwicklung neuer Therapien ein besseres und grundlegendes Verständnis der Funktionsweise des Gehirns unabdingbar. Trotz moderner bildgebender Verfahren ist aber die Abbildung von Prozessen im menschlichen Gehirn nach wie vor limitiert, wobei viele Erkenntnisse, wie etwa der menschliche präfrontale Cortex funktioniert, auf Studien mit nicht-menschlichen Primaten zurückgehen, da sie neben dem Menschen und Menschenaffen als einzige über einen ähnlich strukturierten präfrontalen Cortex verfügen. Der präfrontale Cortex ist jener Gehirnteil, der dem Menschen viele seiner kognitiven Fähigkeiten erlaubt, sodass sich Wissenschaftler aus dessen Untersuchung wegweisende Ansätze für die Behandlung von psychischen Erkrankungen erhoffen.

Magnetresonanztomographie-Studien sind aufgrund kleiner Stichprobengrößen oft wenig hilfreich

Die Magnetresonanztomographie hat das Verständnis des menschlichen Gehirns durch die gut reproduzierbare Zuordnung von Fähigkeiten zu bestimmten Strukturen etwa in Läsionsstudien und Funktionen verändert, doch bei der Erforschung und Behandlung psychischer Erkrankungen sind ähnliche Fortschritte durch die Magnetresonanztomographie noch nicht erreicht worden. Eine der größten Herausforderungen besteht darin, Assoziationen zwischen interindividuellen Unterschieden in der Hirnstruktur oder -funktion und komplexen kognitiven oder psychischen Phänotypen zu reproduzieren, etwa in hirnweiten Assoziationsstudien. Solche Studien beruhen in der Regel auf Stichprobengrößen, die für das klassische Brain Mapping geeignet sind – die mittlere Stichprobengröße von Neuroimaging-Studien liegt bei etwa 25 -, aber potenziell zu klein sind, um reproduzierbare Assoziationen zwischen Gehirn und Verhaltensphänotyp zu erfassen. Marek et al. (2022) haben drei der größten derzeit verfügbaren Neuroimaging-Datensätze verwendet mit einer Gesamtstichprobengröße von etwa 50.000 Probanden, um die Effektgrößen und die Reproduzierbarkeit in Abhängigkeit von der Stichprobengröße zu quantifizieren. Dabei waren die die Zusammenhänge kleiner als bisher angenommen, was zu statistisch unzureichend abgesicherten Studien, aufgeblähten Effektgrößen und Reproduktionsfehlern bei typischen Stichprobengrößen führte. Als der Stichprobenumfang in die Tausende ging, begannen sich die Reproduktionsraten zu verbessern und die Inflation der Effektgrößen nahm ab. Robustere Effekte wurden für funktionelle Magnetresonanztomographie im Vergleich zu strukturellen, kognitiven Tests im Vergleich zu Fragebögen zur psychischen Gesundheit und multivariate Methoden im Vergleich zu univariaten festgestellt. Diese Ergebnisse zeigen die systemischen, strukturellen Probleme bei solchen Untersuchungen, die versuchen, Zusammenhänge zwischen zwei so komplexen Phänomenen wie dem menschlichen Gehirn und dem menschlichen Verhalten zu finden. Da solche Studien sehr teuer und aufwändig sind, arbeiten die viele Forscherinnen und Forscher mit zu kleinen Stichprobengrößen und finden so zufällig bedeutsame, aber falsche Beziehungen, während andere Zusammenhänge übersehen werden, was unter Umständen den Forschungsfortschritt bremsen kann. Man sollte daher öffentliche Datensätze schaffen, ähnlich wie es mit Genom-Daten der Fall ist. Dadurch könnte man relevantere Studien durchführen, um psychische Erkrankungen besser zu verstehen und bessere Behandlungsmöglichkeiten zu finden.

Multiphotonenmikroskop zur Beobachtung in Echtzeit

Mithilfe eines Multiphotonenmikroskops können WissenschaftlerInnen in das Gehirn von Fruchtfliegen schauen, während die Fliegen leben und riechen, denn dieses Spezialmikroskop erkennt quasi in Echtzeit die Nervenzellen und sogar die Synapsen, die beim Erkennen und Abspeichern der olfaktorischen Informationen aktiv werden. Sichtbar gemacht wird das über Fluoreszenz bzw. Fluoreszenzmoleküle in den Neuronen. Multiphotonenmikroskope können daher tief in das Gewebe hineinschauen und dabei fluoreszierende Substanzen erkennen, die in den Nervenzellen normalerweise nicht vorkommen, weshalb die Tiere genetisch verändert werden müssen, damit sich Sensorproteine in den Synapsen bilden. Diese wiederum beginnen zu leuchten, wenn elektrische Impulse einlaufen. Mit dieser Methode kann man viele Synapsen gleichzeitig in einem lebenden Tier betrachten, um einzelne Synapsen und die Physiologie einzelner Synapsen zu untersuchen, oder auch um die Synapsen in Gewebepräparationen oder in kultivierten Zellen zu beobachten. Ziel ist es, die Aktivität von Nervenzellen und Synapsen in einem Kontext zu beobachten, in dem ein Tier noch lebt und Reize wahrnehmen kann, sodass Lern- und Gedächtnisprozesse untersucht werden können, die im Gehirn ablaufen und in Form von Leuchterscheinungen sichtbar werden.

Literatur

http://www.herz-hirn-und-hand.de/psycho/drogen-report/drogen-gehirn.htm (05-08-11)

http://dasmagazin.ch/index.php/stoppt-den-neurowahn/ (09-10-23)

http://www.deutschlandfunk.de/flackernde-synapsen-liveuebertragung-aus-dem-gehirn-von.676.de.html?dram:article_id=317909 (15-04-25)

Carp, Jonathan (2012). The secret lives of experiments: Methods reporting in the fMRI literature. Neuroimage, 63, 289-300.

Marek, Scott, Tervo-Clemmens, Brenden, Calabro, Finnegan J., Montez, David F., Kay, Benjamin P., Hatoum, Alexander S., Donohue, Meghan Rose, Foran, William, Miller, Ryland L., Hendrickson, Timothy J., Malone, Stephen M., Kandala, Sridhar, Feczko, Eric, Miranda-Dominguez, Oscar, Graham, Alice M., Earl, Eric A., Perrone, Anders J., Cordova, Michaela, Doyle, Olivia, Moore, Lucille A., Conan, Gregory M., Uriarte, Johnny, Snider, Kathy, Lynch, Benjamin J., Wilgenbusch, James C., Pengo, Thomas, Tam, Angela, Chen, Jianzhong, Newbold, Dillan J., Zheng, Annie, Seider, Nicole A., Van, Andrew N., Metoki, Athanasia, Chauvin, Roselyne J., Laumann, Timothy O., Greene, Deanna J., Petersen, Steven E., Garavan, Hugh, Thompson, Wesley K., Nichols, Thomas E., Yeo, B. T. Thomas, Barch, Deanna M., Luna, Beatriz, Fair, Damien A. & Dosenbach, Nico U. F. (2022). Reproducible brain-wide association studies require thousands of individuals. Nature, doi:10.1038/s41586-022-04492-9.
Stangl, W. (2022, 18. März). Studien mit Magnetresonanztomographie sind aufgrund kleiner Stichprobengrößen fehleranfällig. Psychologie-News.
https://psychologie-news.stangl.eu/4109/studien-mit-magnetresonanztomographie-sind-aufgrund-kleiner-stichprobengroessen-fehleranfaellig

Vul, Edward, Harris, Christine, Winkielman, Piotr & Pashler, Harold (2009). Puzzlingly High Correlations in fMRI Studies of Emotion,Personality, and Social Cognition. Perspektive of Psychological Science, 4 (3), 274-290.


Siehe dazu: PET in der Suchtforschung


Überblick über weitere Arbeitsblätter zum Thema Gehirn



inhalt :::: nachricht :::: news :::: impressum :::: datenschutz :::: autor :::: copyright :::: zitieren ::::


navigation: