• 21.3.2024
  • Lesezeit: 3 Min.

NewIn: Marcello Ienca

Warum wir Neuro-Ethik brauchen

Neue Erkenntnisse auf den Gebieten der Künstlichen Intelligenz (KI) und der Gehirnforschung beschleunigen sich gegenseitig. Die entstehenden Technologien werden unser Leben tiefgreifend verändern. In welcher Form das geschieht, haben wir aber selbst in der Hand, sagt Marcello Ienca. Der Professor für Ethics of AI and Neuroscience erzählt in dieser Folge von „NewIn“ von den Potenzialen und Risiken der aktuellen Entwicklungen.

Externen Inhalt anzeigen

An dieser Stelle sind Inhalte eines externen Anbieters (Quelle: www.xyz.de) eingebunden. Beim Anzeigen können Daten an Dritte übertragen oder Cookies gespeichert werden, deshalb ist Ihre Zustimmung erforderlich.

Mehr Informationen und die Möglichkeit zum Widerruf finden Sie unter www.tum.de/datenschutz.

"Wir müssen jetzt handeln, um Neurotechnologien in Einklang mit den Menschenrechten und ethischen Grundsätzen zu bringen", sagt Marcello Ienca, Professor für Ethics in AI and Neuroscience an der TUM.

Durch Programme wie Chat GPT bekommen Computer menschenähnliche Fähigkeiten, gleichzeitig gab es zuletzt gleich mehrere bahnbrechende Forschungsarbeiten, in denen Menschen durch KI-basierte Implantate wieder sprechen oder laufen gelernt haben. Gibt es da einen Zusammenhang?

Auf jeden Fall. Wir haben es gerade mit einer wissenschaftlichen Revolution zu tun. Fortschritte in der KI und in der Neurowissenschaft beflügeln sich gegenseitig. Sie bilden einen „Virtuous Circle“ – das Gegenstück zum Teufelskreis.

Das klingt sehr optimistisch. KI birgt doch schon für sich genommen viele Gefahren: Intransparenz, Diskriminierung, fehlerhafte Entscheidungen…

Natürlich gibt es Gefahren. Es ist zum Beispiel prinzipiell denkbar, dass sich aus Neurodaten mithilfe von Machine Learning Informationen wie die sexuelle Orientierung eines Menschen ableiten lassen. Daraus ergeben sich neue Fragen zur Selbstbestimmung. Unser Gehirn ist immer weniger eine Festung, die streng von der digitalen Welt getrennt ist – wir haben immer mehr Zugriff auf die neurologische Basis von Gedankenprozessen. Deshalb müssen wir als Gesellschaft überlegen, was wir wollen und wo wir rote Linien ziehen.

Und darum brauchen wir Ethik?

Ja. Aber Ethik bedeutet für mich nicht nur, Gefahren und Risiken zu vermeiden, sondern auch darum, Gutes zu tun. Das machen wir, in dem wir Technologien entwickeln, die den Hunderten von Millionen Menschen mit neurologischen und psychiatrischen Störungen helfen können. Vor allem, wenn wir ethische Überlegungen von Anfang an durch eine auf den Menschen ausgerichtete Technologieentwicklung einbeziehen.

Ist es dafür nicht schon zu spät?

Für Neurotechnologien: Nein. Beim Thema KI wurde nur reaktiv gehandelt und auf bestehende Technologien reagiert. Diesmal handeln wir proaktiv. Es gibt beispielsweise seit 2019 Richtlinien für eine verantwortungsbewusste Entwicklung von Neurotechnologien der OECD, der internationalen Organisation für wirtschaftliche Zusammenarbeit und Entwicklung. Daran habe ich selbst mitgearbeitet. Auch der Europarat und UNESCO erarbeiten Grundsätze zu diesem Thema.

Sind die Richtlinien denn auch für Firmen relevant? Elon Musks Unternehmen Neuralink hat kürzlich verkündet, einem Patienten ein Hirnimplantat eingesetzt zu haben. Apple hat sich 2023 ein Patent für die Messung von Hirnströmen mit AirPod-Kopfhörern gesichert. Für mich klingt das eher beunruhigend.

Teilweise herrschen in der Privatwirtschaft tatsächlich Wildwestzustände. Neuralink ist ein Beispiel für eine Firma, die kein Interesse an Ethik hat. Aber: Viele andere Unternehmen haben Ethikkommissionen eingerichtet und waren aktiv an den OECD-Richtlinen beteiligt. Wir müssen – und können –  sicherstellen, dass eine Mehrheit der Neurotech-Unternehmen eine Kultur der verantwortungsbewussten Innovation pflegt.

Das bedeutet, neue Gesetze sind nicht zwingend notwendig?

Wir können Gesetze erlassen, die regulieren, welche Produkte in Europa auf den Markt gebracht werden dürfen. Zwang ist aber nicht immer die einzige Lösung. Es ist auch im Interesse der Unternehmen, dass es in den nächsten Jahren nicht zu einem Skandal wie bei Cambridge Analytica kommt. Das hätte verheerende Auswirkungen auf das ganze Feld.

Abgesehen von der Arbeit an den Richtlinien: Woran forschen Sie selbst gerade?

An vielen Projekten. In einem kollaborativen internationalen Projekt arbeiten wir zum Beispiel mit Menschen mit Hirnimplantaten zusammen. Wir wollen den Blick der Betroffenen auf ethische Aspekte einholen und auf Basis ihrer Erfahrungen zukünftige Implantate verbessern. Ein weiteres Beispiel: Mit Kollegen aus der Informatik an der TUM arbeiten wir an der Entwicklung von transparenter KI für die Neurotechnologie und datenschutzfreundlicher Verarbeitung von neuronalen Daten.

Weitere Informationen und Links

Zur Person 

„Ich wurde 1988 geboren und bin in den 1990ern aufgewachsen – in einer Zeit, in der Computer immer mehr Einzug in den Alltag gehalten haben“, sagt Marcello Ienca. „Intelligente Systeme fand ich schon als Kind faszinierend: Künstliche Intelligenz, aber auch das menschliche Gehirn. Deswegen habe ich zunächst auch beides studiert: Philosophie, Informatik und Psychologie mit einem Fokus auf Kognitionswissenschaften. In meinem Master und meiner Promotion konnte ich dann beides verbinden.“

Nach seinem Studium in Rom, Berlin, New York und Leuven promovierte Marcello Ienca 2018 an der Universität Basel. Nach weiteren Stationen an der ETH Zürich und an der Uni Oxford hat er das Intelligent Systems Ethics Lab an der EPF Lausanne gegründet. Er wurde 2023 auf die Professur für Ethics of AI and Neuroscience an die TUM berufen.

Alle Folgen der Serie “NewIn”

Technische Universität München

Corporate Communications Center

Kontakte zum Artikel:

Prof. Dr. Marcello Ienca
Technische Universität München
Professur für Ethics of AI and Neuroscience
Tel. +49 89 4140 4041
marcello.iencaspam prevention@tum.de

Aktuelles zum Thema

HSTS