„Künstliche Intelligenz, die für Verhaltensmanipulation genutzt wird, ist besonders problematisch“

Der Forschungsverbund „Forum Privatheit“ zeigt in einem Policy Paper auf, wie KI die Selbstbestimmung des Menschen fördert oder verletzt – und gibt konkrete Empfehlungen, wie diese geschützt und gestärkt werden kann.

Sprachassistenten, Übersetzungssoftware oder Suchmaschinen – in den vergangenen Jahren hat die Entwicklung von KI-Systemen rasante Fortschritte gemacht. Viele der Anwendungen stehen jedoch im Verdacht, die Autonomie oder Selbstbestimmung von Menschen einzuschränken. Auf der anderen Seite bietet künstliche Intelligenz auch viele Chancen und neuen Nutzungsmöglichkeiten. So können digitale Assistenzsysteme im Gesundheitswesen die Selbstbestimmung und Autonomie fördern, indem beispielsweise Menschen mit Seh- oder Hörbehinderung Technologien einsetzen, die die gesprochene Sprache in Text umwandeln (und umgekehrt), um ihre Wahrnehmungseinschränkungen zu kompensieren.

Problematisch sind Technologien der Täuschung und Verhaltensmanipulation

Hingegen greift eine subtile Manipulation der Nutzenden, so genanntes „nudging“ (engl. für "anstoßen", "schubsen" oder "stupsen"), auf Basis der Auswertung großer Datenmengen in die Selbstbestimmung dieser Menschen ein. „Vor allem Technologien wie DeepFakes, also Bilder, Videos oder Sprachdateien, die durch maschinelles Lernen synthetisch hergestellt wurden und die dezidiert zum Zweck der Verhaltensmanipulation und Täuschung entwickelt werden, halte ich für besonders problematisch“, so Dr. Thilo Hagendorff, Medienethiker an der Universität Tübingen und Mitglied im „Forum Privatheit“. Hier seien sowohl der Gesetzgeber aber auch die Entwickler von KI-Technologie selbst gefragt, um Regeln und Grenzen zu definieren. „Nur so kann gesichert werden, dass auch die vielen positiven Potenziale von KI realisiert werden.“

Betroffene Personen sollten den Einsatz von KI selbst bestimmen können 

Rechtliche Rahmenbedingungen für KI-Anwendungen müssten weiterentwickelt werden, sodass betroffene Personen selbstbestimmt entscheiden können, ob und welche personenbezogenen Daten verarbeitet werden. "Die Selbstbestimmung eines Menschen ist ein wesentlicher Grundpfeiler unseres Verfassungssystems. Künstliche Intelligenz und selbstlernende Systeme oder Maschinen stellen jedoch das Recht in vielen Bereichen vor enorme Herausforderungen. Dies darf aber nicht dazu führen, dass wir etablierte Grundprinzipien infolge des von der Technik ausgeübten Drucks aufgeben. Vielmehr müssen insbesondere die datenschutzrechtlichen Prinzipien von Transparenz und Erforderlichkeit, die Ausdruck verfassungsrechtlicher Wertungen sind, die Gestaltung von KI bestimmen", fordert Dr. Christian Geminn, Rechtswissenschaftler an der Universität Kassel und Mitglied im „Forum Privatheit“.

Mehr zum Einfluss künstlicher Intelligenz auf die individuelle und kollektive Selbstbestimmung von Mensch und Gesellschaft sowie konkrete Vorschläge, wie welche Akteure zum Schutz von Selbstbestimmung beitragen können, finden Sie im Policy Paper „Risiken Künstlicher Intelligenz für die menschliche Selbstbestimmung“

Im Forum Privatheit setzen sich Expert*innen aus sieben wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Projekt wird vom Fraunhofer ISI koordiniert. Weitere Partner sind das Fraunhofer SIT, die Universität Duisburg-Essen, das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel, die Eberhard Karls Universität Tübingen, die Ludwig-Maximilians-Universität München sowie das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Forum Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

Firmenkontakt und Herausgeber der Meldung:

Fraunhofer-Institut für System-und Innovationsforschung (ISI)
Breslauer Straße 48
76139 Karlsruhe
Telefon: +49 (721) 6809-0
Telefax: +49 (721) 689152
http://www.isi.fraunhofer.de

Ansprechpartner:
Barbara Ferrarese
Forum Privatheit
Telefon: +49 (721) 6809-678
E-Mail: presse@forum-privatheit.de
Dr. Michael Friedewald
Forum Privatheit
Telefon: +49 (721) 6809-146
E-Mail: Michael.Friedewald@isi.fraunhofer.de
Für die oben stehende Pressemitteilung ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel