top of page

Fortschritte der Neurotechnologie werfen ethische Fragen auf

Mit neurotechnologischen Methoden lassen sich womöglich einst Gedanken lesen, steuern und manipulieren. Braucht es deshalb neue Menschenrechte? Forschende sind sich uneins.


Roboter und Computer mit Gedanken steuern: Das ist die Vision von drahtlosen Gehirn-Computer-Schnittstellen (Brain-Computer-Interfaces, BCIs). Invasive BCIs sind kleine, im Gehirn implantierte Geräte, die mit Elektroden Hirnströme aufzeichnen und in Steuersignale umwandeln. Bei nicht-invasiven Methoden werden Elektroden aussen auf die Kopfhaut gelegt. So gelingt es Querschnittsgelähmten schon heute, beispielsweise mithilfe von Hirnimplantaten Roboterglieder zu steuern oder mit der Macht der Gedanken zu schreiben. Und in den nächsten Jahrzehnten wird dieses Feld in neue Sphären dringen, so zumindest die Einschätzung führender Expertinnen und Experten. BCIs werden demnach die Behandlung neurodegenerativer und psychiatrischer Erkrankungen verändern, aber auch die Gehirnfunktion gesunder Menschen verbessern. Vorschläge für neue Menschenrechte Der Zugang zu Informationen aus dem menschlichen Gehirn und dessen Manipulation wirft aber tiefgreifende ethische Fragen auf: Wem gehören diese Daten, was darf damit gemacht werden und wie lässt sich die Schaffung einer "kognitiven Elite" verhindern? Aus Sicht des Ethikers Marcello Ienca von den ETH Zürich und Lausanne reichen die bestehenden Menschenrechte nicht aus, um unbeabsichtigte Folgen der Neurotechnologie zu verhindern. Bereits 2017 schlug er mit seinem Kollegen Roberto Andorno von der Universität Zürich vor, die bestehenden Menschenrechte um vier weitere zu ergänzen: Das Recht auf kognitive Freiheit, das Recht auf geistige Privatsphäre, das Recht auf geistige Integrität und das Recht auf psychologische Kontinuität. "Der erste Gedanke zur Notwendigkeit neuer Menschenrechte entwickelte sich bei uns erstmals während einer Zugreise von Basel nach Zürich", erzählte Ienca im Gespräch mit der Nachrichtenagentur Keystone-SDA. Ethikerinnen und Ethiker hätten der Möglichkeit, Gedanken zu lesen und zu beeinflussen, bis dahin viel zu wenig Beachtung geschenkt. Nicht überregulieren Die Schaffung neuer Menschenrechte sieht die Neurowissenschaftlerin und Neuroethikerin, Judy Illes von der kanadischen University of British Columbia, kritisch: Es lenke von den wichtigeren Zielen im Gesundheitswesen ab. "Meine Einschätzung ist, dass wir mit den künftigen Herausforderungen der Neurotechnologie im Rahmen der derzeitigen Menschenrechte umgehen können", sagte sie gegenüber Keystone-SDA. Andernfalls bestehe das Risiko, Innovationen zu überregulieren und überkriminalisieren. Sie plädiert stattdessen für eine enge Zusammenarbeit von Ethikerinnen und innovativen Unternehmern, um Selbstverwaltung und Transparenz zu fördern. "Wir sollten unseren Fokus vor allem auf die medizinischen Möglichkeiten legen, die die Neurotechnologie birgt", sagte sie und meint damit die Behandlung von schweren Depressionen, zwanghaften Störungen und altersbedingten Krankheiten wie Alzheimer. Und: "Insbesondere müssen wir sicherstellen, dass diese Behandlungen für alle Menschen zugänglich sein werden, unabhängig ihres Wohnorts, ihres sozio-ökonomischen Status und ihrer Kultur." Eine kognitive Elite? Derzeit lassen sich mit BCIs die kognitive Fähigkeit von gesunden Menschen noch nicht soweit verbessern, dass es einen Vorteil mit sich bringen würde. Aber: "Wir haben keinen Grund anzunehmen, dass das nicht bald der Fall sein wird", sagte Ienca. Die damit einhergehende Gefahr sei, dass dies reichen Menschen vorbehalten bleibe und somit eine kognitive Elite geschaffen werde. "Deshalb müssen die Kosten tief sein und es braucht staatliche Subventionen, um allen Menschen den Zugang zu dieser neuen Technologie zu gewährleisten." Natürlich lasse sich darüber streiten, ob Menschen überhaupt mit Technologien ihre Gehirnleistungen verbessern sollten, so Ienca. Aber es sei ein grosses Risiko, Wissenschaft aufzuhalten und neue Technologien zu verbieten. "Denn damit verhindert man auch Positives", sagte Ienca. Erstellt für Keystone-SDA.

bottom of page