Laborjournal 2018-01/02

| 1-2/2018 22 HInterGrUnD tels Magnetresonanztomographie (MRT) bei- spielsweise erkennen, ob sich eineTestperson für die Subtraktion oder Addition zweier Zah- len entschieden hat ( Curr. Biol. 17(4): 323-8). In der Literatur findet man diverse Beispiele un- terschiedlicher Autoren, wonach Experimenta- toren die Gedanken ihrer Probanden per MRT „gelesen“ haben – und beispielsweise an der Grafik mit den bunten Klecksen erkennen, ob die Testperson gerade an einenTisch oder ein Auto denkt. Der Schritt vom „ Brain Reading “ zum „ Thought Reading “ ist trotzdem nicht leicht. „Wir können die Hirnaktivität nur mit begrenz- ter Auflösungmessen“, nennt Haynes eine Ein- schränkung nicht-invasiver Verfahren. Außer- dem ist jedes Gehirn individuell und hat ei- gene Aktivitätsmuster, die bestimmte Gedan- ken oder Gefühle repräsentieren. Ein Compu- ter, der „Gedanken lesen“ soll, muss also zu- nächst für jeden Probanden individuell trai- niert werden.„Dafür brauchen wir auch Daten darüber, was eine Person gerade denkt, wäh- rend sie im MRT liegt“, so Haynes. Expertise zu Privatwirtschaft Die hier genannten Möglichkeiten zum „Gedankenlesen“ sind derzeit also nur unter aufwändigen Laborbedingungen realisier- bar. Der normale Internetnutzer hingegen wird sich wohl nicht zum Surfen ins MRT le- gen. Womöglich könnte man aber schon aus EEG-Daten persönliche Informationen ziehen. Ein Algorithmus, der lernt, wie die individuel- len Hirnströme zu deuten sind, könnte viel- leicht auch erkennen, welche Werbung den Nutzer anspricht; oder ob er sich eher zu Frau- en oder Männern hingezogen fühlt. Falls sol- che Technologien einmal so selbstverständ- lichwerdenwie derTablet-PC, dannmussman sich auch über Persönlichkeitsrechte und Da- tenschutz Gedanken machen. Und vor allem müssen natürlich die Rechte körperlich beein- trächtigter Patienten geschützt werden, die solche Technologien nicht zum reinen Ver- gnügen nutzen, sondern um überhaupt mit ihren Mitmenschen kommunizieren oder ei- nen selbstbestimmten Alltag leben zu können. Kommen wir zurück zum eingangs er- wähnten Kommentar, den Neuroforscher un- längst in Nature veröffentlicht haben. Die Au- torennennendarin Szenarien, indenenNeuro- technologien künftigmit Persönlichkeitsrech- ten und demDatenschutz in Konflikt geraten könnten, und die auch ethische Fragen auf- werfen. Sie wollen damit auf künftige Heraus- forderungen im Umgang mit diesen Techno- logien hinweisen. Mitgeschrieben hat Philipp Kellmeyer, der an der Universität Freiburg im Translational Neurotechnology Lab forscht.„Das Besondere an Hirndaten ist ja, dass sie die ein- zige Art von Daten sind, die eine direkte Reprä- sentation der Vorgänge imGehirn darstellen“, beschreibt Kellmeyer den Unterschied zu an- deren persönlichen Daten, wie man sie über Bewegungsprofile, Payback-Zahlungen oder das Surfverhalten ermittelt.„Wenn es techni- sche Fortschritte in Sachen Signalqualität gibt und sich Deep-Learning -Systeme individuell an den Nutzer anpassen, dann wird man ei- ne ganze Reihe neuer Anwendungen sehen“, ist sich Kellmeyer sicher und vermutet:„Auch das konventionelle EEG wird künftig verbes- sert werden, um Hirnzustände in hoher Ge- nauigkeit auszulesen.“ Hier zeigt sich Kellmeyer besorgt über das Engagement von Internetfirmen für die Entwicklung von BCI-Technologien. „Derzeit wandert Expertise zur Akquise und Analyse von Hirndaten systematisch von der öffent- lichen Forschung in die Privatwirtschaft ab.“ Bislang dürfte es nämlich schwer absehbar sein, was sich aus einem EEG tatsächlich alles herauslesen lässt, wenn man Signalverarbei- tung undDatenauswertung künftig verbessert undmit anderen Big-Data -Archiven verknüpft. „In den Hirndaten stecken ja möglicherwei- se auch Informationen über bislang nicht be- kannte Krankheitszustände“, nennt Kellmeyer ein Beispiel. Vielleicht kann eine private Kran- kenversicherung sich bald in sozialen Netz- werken über die neuronalen Signaturen ei- nes Anwärters informieren – und diesen dann ablehnen, falls der einen bestimmten Schwel- lenwert für das Parkinson- oder Alzheimer-Ri- siko überschreitet. Im Artikel werfen die Autoren außerdem ein, dass das Zusammenspiel zwischen Ge- hirn und Technik auch die Persönlichkeit ver- ändern könnte.Weiterdenken ließe sich dieses Beispiel, wenn künftige Implantate Hirnfunk- tionen auf der Platine nachbilden – vielleicht, um durch einen Schlaganfall zerstörte Regio- nen funktionell zu ersetzen. Kommt der we- sentliche Impuls für eine Entscheidung dann vomMenschen oder von einem technischen Gerät? Der Patient wäre sich darüber womög- lich selbst gar nicht bewusst. Inwiefern sich BCIs auf das Handlungserleben und Autono- mie-Empfinden eines Patienten auswirken können, sei kaum untersucht, so Kellmeyer: „Man braucht mehr empirische Forschung, um diese Effekte überhaupt erstmal zu verstehen.“ Spezialfall Neurorecht? Schon bei einem System wie dem Ro- boter-Assistenten aus Freiburg stellt sich die Frage nach der Verantwortung. Beispielswei- se falls einmenschlicher Pfleger durch das Ge- rät verletzt werden sollte. Ein solches Szena- rio spielen die Autoren des Positionspapiers als Eingangsbeispiel durch. Man könnte hier die Schuld beim Patienten suchen, der wis- sen müsste, wie der Roboter auf seine neu- ronalen Eingaben reagiert. Oder man argu- mentiert, dass die „Gedanken frei“ seien und stellt stattdessen die Algorithmen des Robo- ters zur selbstständigen Handlungsplanung in Frage; technische Sicherheitsvorkehrungen müssten einen solchen Zwischenfall ja schließ- lich verhindern. Konfrontiert uns die Neurotechnologie nun alsomit gänzlich unregulierten Bereichen? Könnte dieTechnik die Gesellschaft überrollen, bevor der Gesetzgeber reagieren kann? Rechts- anwalt und Jura-ProfessorTade Spranger beru- higt an dieser Stelle, denn es gebe sehr wohl rechtliche Regelungen, die auch für BCI und Co. greifen. Sprangers Lehrstuhl an der Uni- versität Bonn ist auf Themen wie Biotechno- logie, Bioethik und Technikrecht spezialisiert. „Von der Neuroethik zum Neurorecht?“ lau- tet etwa der Titel eines Buches aus dem Jah- re 2009, das er gemeinsammit zwei Fachkol- legen verfasst hat (ISBN 978-3-525-40414-0). So sei der hypothetische Fall einer Pfle- gekraft, die von einem neuronal gesteuerten Roboter-Assistenten verletzt wird, aus juristi- scher Sicht nichts Besonderes. „Das ist ganz Neuroimplantate sind keine Zukunftsmusik mehr – doch hier nur kreativ imModell verbaut. ( Foto: iStock / Nikola Nastasic)

RkJQdWJsaXNoZXIy Nzk1Nzg=