zurück zum Artikel

Mit Neurotechniken werden sich Absichten, Gefühle und Entscheidungen manipulieren lassen

Bild: US Naval Institute

Eine Gruppe von Wissenschaftlern fordert zur Regulierung der Neurotechnik auf, in der KI und Gehirn-Computer-Schnittstellen konvergieren, und formuliert vier ethische Prinzipien

Nach den KI- und den Robotikwissenschaftlern haben sich nun auch Neurowissenschaftler und -techniker sowie Ethiker und Mediziner in die Reihen der Experten eingereiht, die vor Entwicklungen aus ihrer Forschung warnen und letztlich die Gesellschaft bzw. die Politik auffordern, nicht alles einfach wild weiterlaufen zu lassen und auch zu finanzieren, sondern die Entwicklung zu steuern oder auch zu begrenzen. Verwiesen wird auf die großen Investitionen, die von der Privatwirtschaft wie von Kernel oder Elon Musk oder vom Staat mit der US Brain Initiative oder von der Darpa gemacht wurden und werden.

Einen in der Zeitschrift Nature veröffentlichten "Kommentar" [1] von Biologieprofessor Rafael Yuste an der Columbia University und Philosophieprofessorin Sara Goering an der University of Washington, in dem sie vier ethische Richtlinien formulierten, wurde von 25 weiteren Kollegen aus zahlreichen Ländern unterzeichnet. Sie gehören der Morningside Group an und haben sich im Mai getroffen, um die Ethik der Neurotechnik und der Maschinenintelligenz zu besprechen.

Die Autoren gehen davon aus, dass es vermutlich bald möglich sein wird, "die geistigen Prozesse der Menschen zu decodieren und direkt die Gehirnmechanismen zu manipulieren, die ihren Absichten, Gefühlen und Entscheidungen zugrundeliegen. Überdies werde es möglich sein, dass die Menschen nur durch das Denken miteinander zu kommunizieren, sie also weder Sprache noch Schrift oder andere Symbole benötigen. Und es werde "mächtige Computersysteme geben, die direkt mit den Gehirnen der Menschen verbunden sind und für sie die Interaktionen mit der Welt so unterstützen, dass ihre geistigen und körperlichen Fähigkeiten in großem Maße erweitert werden".

Kognitive Cyborgs

Es sind selbstverständlich keine Ludditen, die ein Ende der Forschung wünschen. Sie gehen, auch im eigenen Interesse, davon aus, dass die medizinischen und gesellschaftlichen Vorteile der Neurotechniken "riesig" sein werden, aber man müsse ihre Entwicklung auf eine Weise lenken, so dass sie "das Beste in der Menschheit respektieren, schützen und befähigen". Auch wenn bislang bei der Forschung und Entwicklung von Gehirn-Computer-Schnittstellen medizinische Anwendung dominieren, so dass gelähmte Menschen einen Cursor, einen motorisierten Rollstuhl oder eine Prothese durch Abnahme von neuronalen Signalen in den motorischen Arealen steuern können, so werden Neurotechniken irgendwann zum Alltag gehören.

Jetzt schon sei es grundsätzlich, wenn auch sehr eingeschränkt möglich, neuronale Signale so zu entziffern, dass man erkennen kann, ob ein Mensch an eine Person oder ein Auto denkt. Wenn aber Neurotechnik mit Künstlicher Intelligenz konvergiert, entstünde etwas qualitativ ganz Neues, kogntive Cyborgs nämlich: "Die direkte Verbindung von menschlichen Gehirnen mit der Maschinenintelligenz und das Umgehen der sensomotorischen Funktionen von Gehirnen und Körpern."

Die Autoren schreiben die angenommene Fortschrittsgeschichte fort und sind der Meinung, dass bislang bestehende ethische Richtlinien nicht ausreichend seien, also die Deklaration von Helsinki mit ihren Grundsätzen für die medizinische Forschung am Menschen, den Belmont-Bericht zum Schutz der Menschen in der biomedizinischen und Verhaltensforschung und auch die nach einer Konferenz des Future of Life Institute zu Beginn des Jahres formulierten "Asilomar AI Principles" [2] mit gleich 23 Prinzipien für die KI-Forschung ( Hawking warnt: Roboter könnten die Menschen ersetzen [3]). Warum diese Prinzipien nicht ausreichen, wird nicht begründet, statt dessen wollen die Autoren mit einem eigenen Manifest andere Prinzipien geltend machen.

Ethische Prinzipien: Datenschutz, Identität, Gleichheit des Zugangs, Vermeidung von Vorurteilen

Als erstes Prinzip machen die Autoren geltend, dass mit Neurotechnik noch mehr persönliche Daten erfasst und gesammelt werden. Sobald neuronale Aktivitätsmuster über mit dem Internet verbundene Geräte/Schnittstellen von Unternehmen, Regierungen oder Hackern ausgewertet werden können, lassen sich die mentalen Zustände eines Menschen nachverfolgen und möglicherweise auch manipulieren. Die Menschen müssten die Möglichkeit besitzen, ihre neuronalen Daten privat zu halten, beispielsweise durch eine voreingestellte Opt-out-Möglichkeit. Und weil wahrscheinlich Menschen dennoch freiwillig ihre Daten weitergeben, müsste zumindest der Kauf, die kommerzielle Weitergabe und die Nutzung von neuronalen Daten streng reguliert werden, ähnlich wie das Verbot im Transplantationsgesetz für den Kauf menschlicher Organe. Eingeschränkt werden sollte auch eine zentrale Verarbeitung der Daten.

Als zweites Prinzip wird der Schutz von Identität und Handlungsfähigkeit bezeichnet. Schließlich können schon Techniken wie die Tiefenstimulation zu Irritationen führen. Wenn dann Geräte mit Gehirnschnittstellen und maschinellem Lernen es beispielsweise, so die Autoren, Absichten schneller etwa durch eine Auto-Complete- oder eine Auto-Correct-Funktion in eine Handlung zu überführen, Geräte über weite Entfernungen durch Gedanken gesteuert oder mehrere Gehirne zusammengeschaltet sind, um gemeinsam zu arbeiten, dann wird das Verständnis von der Identität einer Person und vom Ort des Handelns tiefgreifend verändert.

Vorgeschlagen wird ein neues UN-Abkommen, um Verbote für Neurotechnik und Maschinenintelligenz zu definieren. Als Vorbild sehen die Autoren das Abkommen zum Schutz aller Personen vor dem Verschwindenlassen, das 2010 in Kraft getreten ist, aber erst von 58 Staaten ratifiziert, Staaten wie die USA, Russland oder die USA haben es nicht einmal unterzeichnet.

Als drittes Prinzip, das auch wenig Chancen haben dürfte, wird die Gleichheit des Zugangs zu Neurotechnik gefordert. Befürchtet wird ein Wettrennen auf Neurotechniken, die die kognitive und körperliche Leistung der Menschen verbessern, aber nur für diejenigen verfügbar sind, die dafür bezahlen können. So könnte sich aus der technischen Überlegenheit eine weitere Diskriminierung von Menschen ergeben, die sich Enhancement-Techniken nicht leisten können. Verbote würde hier nichts nützen, denn dann würden die Techniken vermutlich auf dem Schwarzmarkt gehandelt. Streng und international reguliert werden müsste der Einsatz von Neurotechnik auf militärischem Gebiet, insgesamt seien Beschränkungen der Enhancement-Techniken erforderlich. Aber dazu wird es bereits zu spät sein, weil hier viele staatliche und private Projekte bereits unterwegs sind und die Diskussion darüber noch nicht wirklich bis auf Nischen stattgefunden hat.

Und schließlich müsste auch als viertes Prinzip vermieden werden, Vorurteile in neurotechnische Geräte einzubetten und wirksam werden zu lassen. Techniken können bestimmte Gruppen privilegieren oder diskriminieren, so die Autoren. So hatte man 2015 bemerkt, dass Google-Algorithmen, die Jobs anboten, Frauen einen geringeren Lohn offerierten als Männer. Eine von Strafverfolgungsbehörden genutzte Software sagte [4] fälschlich voraus, dass schwarze Straftäter mit höherer Wahrscheinlichkeit rückfällig werden als vergleichbare weiße. Die Autoren weisen auf eine Studie [5] hin, nach der es sehr schwierig sei, Fairness streng mathematisch zu definieren.

Empfohlen wird, Maßnahmen zur Bekämpfung von Vorurteilen zur Norm für Maschinenlernen zu machen und es vor allem bereits diskriminierten Gruppen zu ermöglichen, schon früh in der Entwicklung Einblick in die Algorithmen und Geräte zur Korrektur zu ermöglichen. Kaum vorstellbar unter derzeitiger Rechtslage ist, dass sich Firmen hier in die Karten schauen lassen.

Eine Ethik für Wissenschaftler und Techniker?

Tatsächlich wäre eine breite Diskussion über die möglichen Gefährdungen von Neurotechniken in Verbindung mit Künstlicher oder Maschinen-Intelligenz an der Zeit, bevor der Zug ganz abgefahren ist. Dass Wissenschaftler und Techniker, die von der Forschung und Entwicklung in diesen Gebieten leben, hier selbst in größeren Maße aktiv werden und die Forschung beeinflussen können, ist nicht wirklich abzusehen - und ist auch noch nie geschehen. Es braucht gesellschaftlichen Druck, aber wenn auch nur wenige Staaten internationalen Abkommen zur Regulierung von Waffen, Forschung oder Technik nicht beitreten, wird es immer Druck und eine Art Wettrüsten geben.

Die Autoren sehen das Problem, obgleich sie zu flüchtig darüber hinweggehen, wie denn ethische Prinzipien in der wirklichen Welt verankert werden können. "Die Geschichte weist darauf hin", so schreiben sie, "dass die Jagd nach dem Profit oft die soziale Verantwortung in der Welt der Privatunternehmen übertrumpfen wird."

Dabei geht es bei Wissenschaftlern und Technikern nicht nur um Profit, sondern schlicht um ein Auskommen, das sie dazu führt, ethische Bedenken hintanzustellen. Und es geht nicht nur um Privatunternehmen, in Staaten wird etwa aus nationalem Interesse der militärischen, technischen und wirtschaftlichen Überlegenheit auch gefördert, was ethisch bedenklich ist, in der Rüstungsforschung allemal.

Es ist ein wenig naiv anzunehmen, dass Wissenschaftler und Techniker viel anders handeln und entscheiden würden, wenn im Zuge ihrer Ausbildung Ethik zur Pflicht gemacht würde, wie es die besorgten Autoren vorschlagen. So könnten Angestellte angeblich tiefer darüber nachdenken, "wie sie Fortschritte verfolgen und Strategien anwenden können, die zur Gesellschaft eher Konstruktives beitragen, als sie zu zerbrechen". Ähnlich würden Mediziner im Studium über ethische Prinzipien unterrichtet, die zum Ablegen des Hippokratischen Eids gehören.

Das hat zumindest einzelne nicht daran gehindert, grausame Experimente mit Menschen durchzuführen oder auch wie kürzlich im Krieg gegen den Terror im Dienste der US-Regierung Foltermethoden zu entwickeln und zu beaufsichtigen. Und Angestellte, die in Unternehmen arbeiten, die selbst nur an den Profit denken und bestenfalls sich nur an die gesetzlichen Bestimmungen halten, werden unter Druck kommen, sollten sie plötzlich zu sehr auf ethische Prinzipien drängen.


URL dieses Artikels:
https://www.heise.de/-3888449

Links in diesem Artikel:
[1] http://nature.com/articles/doi:10.1038/551159a
[2] https://futureoflife.org/ai-principles/
[3] https://www.heise.de/tp/features/Hawking-warnt-Roboter-koennten-die-Menschen-ersetzen-3878037.html
[4] http://go.nature.com/29aznyw
[5] http://go.nature.com/2ztfjt9