Bitte weisen Sie nach, dass Sie kein Roboter sind
Anzeigensonderveröffentlichung
BERLIN SCIENCE WEEK

Bitte weisen Sie nach, dass Sie kein Roboter sind

Der Ruf nach einer Ethik, nach Regeln und Richtlinien für automatisierte Entscheidungen wird immer lauter. Aber die Entwicklung objektiver Kriterien zum Miteinander von Mensch und Maschine ist anspruchsvoll. Wo stehen wir?

„Confirm Humanity“, fordert die Eingabemaske auf, bevor man eine Mailingliste abonnieren darf. „I’m not a robot“ soll man anklicken.

TEXT Matthias C. Kettemann, Humboldt Institute for Internet and Society

Die Ironie wächst, wenn man bedenkt, dass hier ein Mensch einer Maschine (streng genommen: einer algorithmenbasierten Kommunikationsanwendung) bestätigt, keine Maschine zu sein. Warum, möchte man fragen, dürfen nur Menschen E-Mail-Listen abonnieren? Und was hat das mit den fundamentalen Fragen unserer Gesellschaft zu tun?

Nach einer anfänglichen Euphorie über die Potenziale Künstlicher Intelligenz hat sich die Erkenntnis abgeklärt, dass Maschinen irren können. Studie um Studie belegt: Algorithmen diskriminieren. Allerdings wurden sie dafür auch entwickelt: um zu unterscheiden. Wichtig sind indes Kriterien, nach denen unterschieden wird, nach denen menschliche und nichtmenschliche Entscheidungsfindungmechanismen sich gegenseitig beeinflussen (dürfen). Und sogar mehr: Selbst die Auswahl der Kriterien und die Einstellungen und Ideologien, die hinter der Auswahl von Kriterien stehen, sind nicht objektiv. Und die Datenmengen, mit denen automatisiertes Lernen betrieben wird, sind erst recht nicht objektiv, nur weil sie groß sind. Vielmehr sind sie fast immer historische Daten und damit belastet mit den Vorstellungen und Überzeugungen der Vergangenheit.

Richtlinien für automatisierte Entscheidungen

Zu Recht wird daher der Ruf lauter nach Richtlinien für Algorithmen, deren Entwicklung und Einsatz; auch nach dem Recht, nur menschlichen Entscheidungen unterworfen zu sein; nach dem Anspruch, nicht unversehens mit Sozialrobotern (Social Bots) zu kommunizieren, ohne dies zu wissen; nach dem Verbot, von automatisierten Entscheidungssystemen in vielen gesellschaftlichen Subsektionen – besonders im Rechtsstaat; nach dem (schon jetzt im geltenden Recht verankerten) Einblick in die Logik automatisierter Entscheidungen.

Kurz: Es scheint, dass während einerseits die Digitalisierung aller Lebensbereiche fortdauert, die Medienkonvergenz und das Internet der Dinge aus unseren Handys, Zeitungen und aus unseren Kühlschränken Ziele von Hackerangriffen macht, gesellschaftliche Beharrungskräfte an Stärke gewinnen. Diese sind teils von tatsächlichen Gefährdungslagen alimentiert, teils aber auch als Fundamentalkritik an Fortschritt und Technik ideologisch aufgeladen.

Wir suchen mit Google, aber Google (durch-)sucht auch uns; wir nutzen soziale Netzwerke, aber soziale Netzwerke nutzen auch uns (aus). Rote Linien für die Technik der Mensch-Maschine-Interaktion ethisch vertretbar und rechtlich haltbar zu ziehen, fällt in Zeiten des Aufeinanderprallens von präventionspolitischen Ansätzen und technologischem Fortschritt schwer. Daher muss der Blick radikal gewandt werden – zur grundlegenden Frage zurück: Wie kann die Digitalisierung ethisch optimal ausgestaltet werden?

Bitte weisen Sie nach, dass Sie kein Roboter sind-2
Hund und Herrchen: ein neues Miteinander.

Welche Regeln braucht Künstliche Intelligenz?

Zunächst zur Ethik: Die Ethik hilft uns, richtig zu handeln. Ethische Regeln und rechtliche Regeln (Gesetze) gestalten unser Zusammenleben aus, helfen uns, Konflikte zu vermeiden, schützen Rechte und tragen zum gesellschaftlichen Zusammenhalt bei. Natürlich sind Regeln einem steten Wandlungsprozess unterworfen. Gerade im Bereich der Hochtechnologie müssen Ethik und Recht nachziehen, wenn technische Anwendungen voranschreiten. Die Fragen, die wir uns stellen müssen, sind komplex: Nach welchen Kriterien müssen Chatbots programmiert sein, damit sie diskriminierungsfrei, also ohne ungerechtfertigte Benachteiligung, kommunizieren? Welche Regeln müssen bei der Programmierung von Künstlicher Intelligenz gelten, damit diese dem Wohl aller dienen? Wie gestalten wir die Algorithmen, die unsere Gesellschaft prägen? Diesen Fragen gehen Forscher*innen am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) nach. Unterstützt von der Stiftung Mercator zeigen sie, wie die Digitalisierung fairer gestaltet werden kann. Sie haben dabei Unterstützung von höchster Ebene: Das Projekt findet unter der Schirmherrschaft des Bundespräsidenten statt und die Fellows des Projekts waren schon zweimal zu Gast beim deutschen Staatsoberhaupt. Dort haben sie unter anderem darauf hingewiesen, dass Digitalisierung stets den Menschen ins Zentrum rücken muss – und sind damit auf große Zustimmung bei Frank-Walter Steinmeier gestoßen. Die Forscher*innen am HIIG zeigen aber auch, wie man besser forschen kann. Sie haben vorgestellt, dass innovative Wissenschaftsformate, sogenannte Research Sprints und Clinics, schnell gutes Wissen produzieren können, das der Politik dann hilft, bessere Regeln zu entwickeln.

Unter Nutzung innovativer Wissenschaftsformate konnten die Fellows die Ethik der Digitalisierung einem wichtigen Update unterziehen. In Forschungssprints und Forschungsclinics erarbeiteten sie Wege, wie Algorithmen rechtwahrend auf Diskriminierungsgehalte durchleutet werden können. Sie konnten herausfinden, was die Forschung wissen muss, um algorithmische Moderation von Inhalten auf Plattformen effektiv bewerten zu können (mehr Daten, besonders Rohdaten sind wichtig; sich nur auf die Aussagen der Plattformen zu verlassen, reicht nicht aus). Diese Erkenntnisse sind wichtig und passen gut zu den aktuellen europäischen Gesetzesvorhaben. Sowohl im Rechtsakt über digitale Dienste, als auch in jenem über digitale Märkte ist mehr Einsicht in die Logiken der Nutzung von Algorithmen (und deren Auditierung) ein wichtiges Element.

Das Recht auf Rechtfertigung

In anderen Projekten, Forschungssprints und Forschungsclinics kooperierten HIIG-Kolleg:innen am Berkman Klein Center der Harvard University mit der Stadtverwaltung von Helsinki, um die Nutzung von Künstlicher Intelligenz im Öffentlichen Sektor rechtskonform auszugestalten. Aktuell tut sich in dem Bereich der Plattformforschung im Übrigen sehr viel: An mehreren Instituten werden gerade Forschungsinfrastruktureinrichtungen gegründet, die den Plattformen auf die Finger schauen. Am HIIG macht das Platform Governance Archive historische Nutzungsbedingungen von Plattformen durchsuchbar. Am Leibniz-Institut für Medienforschung / Hans-Bredow-Institut untersucht das Private Ordering Observatory private Regelsetzung. Immer wenn ein Akteur – sei es der Staat oder ein Unternehmen – über Rechte und Pflichten verfügt, Güter oder Lasten zuweist, dann muss diese Entscheidung erklärbar und rechtfertigbar sein. Alle, die von diesen Entscheidungen betroffen sind, haben ein Recht zu wissen, wie diese Entscheidungen gefallen sind. Und wenn Algorithmen involviert sind, gilt das in besonderem Ausmaß.

Bitte weisen Sie nach, dass Sie kein Roboter sind-3
Forschende des HIIG diskutieren: Wie gestalten wir die Algorithmen, die unsere Gesellschaft prägen?

Der Frankfurter Philosoph Rainer Forst hat dies das Recht auf Rechtfertigung genannt. Dieses Recht gilt offline wie online, auch wenn die Rechtfertigung situationsbedingt knapper ausfallen kann und die Abwägungsprozesse schneller ablaufen können. Es bedarf stets, auch das hat das Projekt gezeigt, einer behutsamen Governance der Art und Weise, wie diese Rechtfertigungen kommuniziert werden.

Was für Algorithmen gilt, hat auch die Coronazeit gezeigt: Nur wenn Regeln und Entscheidungen verstanden werden, werden sie als legitim wahrgenommen. Algorithmen werden in immer mehr gesellschaftlichen Teilbereichen eingesetzt. Eine zentrale Aufgabe einer Ethik der Digitalisierung ist es daher, auf den Schutz menschlicher Autonomie und Würde dergestalt zu achten, dass unser Recht zu verstehen, was warum (mit uns) passiert, geschützt bleibt.

Programmtipps

3. NOV 19.00, hybrid, Deutsch
Airbnb, Uber, Lieferando: Die Zukunft der Wirtschaft?
ORGANISER
Einstein Center Digital Future, Humboldt Institut für Internet und Gesellschaft, Weizenbaum- Institut

4. NOV 15.00, digital, Deutsch
Menschliche und Künstliche Intelligenz Spielerisch verstehen
ORGANISER
University of Surrey

6. NOV 18.00, digital, English
Unsolved Problems in the Study of Intelligence
ORGANISER
Cluster of Excellence — Science of Intelligence

7. NOV 11.00, hybrid, English
ETH Global Lecture
ORGANISER
ETH Zürich

Bitte weisen Sie nach, dass Sie kein Roboter sind-4
  

Prof. Dr. Matthias C. Kettemann arbeitet am Humboldt Institute for Internet and Society (HIIG) im Leitungsteam des Projekts zur Ethik der Digitalisierung und lehrt Innovations- und Internetrecht an der Universität Innsbruck.