Demokratie geht uns alle an.

Ethik & Digitalisierung: Warum wir neue Regeln brauchen

Die Politikwissenschaftlerin Lorena Jaume-Palasi untersucht die Wechselwirkungen zwischen Ethik und digitalen Technologien. Im Interview spricht sie über Verantwortung im Netz und erklärt, warum wir Regeln für Kollektive brauchen.

 

Frau Jaume-Palasi, im Filmklassiker „2001: Odyssee im Weltraum“ von Stanley Kubrick handelt der Computer eines Raumschiffes eigenmächtig und unethisch und stellt eine Bedrohung für die Besatzung dar. Der Film ist mehr als 50 Jahre alt. Wie weit sind wir heute in Sachen Ethik und Algorithmen?

Lorena Jaume-Palasi: Von einer Technologie wie in „2001“ sind wir noch weit entfernt. Die Maschinen, die wir haben, sind nicht in der Lage, sich logisch oder emotional in andere hineinzuversetzen. Unsere Maschinen rechnen nur: Sie geben statistische Einschätzungen, Zahlen und Wahrscheinlichkeiten, sie liefern aber keine Erklärungen oder Interpretationen dazu. Die Maschine versteht nicht mal, was sie da berechnet. Als Beispiel: Wenn ein Computer Fotos analysiert, kann er berechnen, dass es sich zu 90 Prozent um eine Katze handelt. Das „Konzept Katze“ versteht er aber nicht, auch nicht, was eine Katze ausmacht.

 

Dennoch sagen Sie, wir benötigen ethische Regeln im Umgang mit Algorithmen.

Lorena Jaume-Palasi: Unbedingt. Der Grund liegt in den Voraussetzungen, die wir für die Entwicklung von Technologie benötigen. Wir entwickeln Programme, um Prozesse anders zu organisieren. Das setzt voraus, dass man zuvor Kategorien und Standards festlegt. Die Kreation dieser Standards ist ein Knackpunkt, denn sie haben später auch Auswirkungen auf die Ergebnisse der neuen Technologien.

 

Worauf muss dabei geachtet werden?

Lorena Jaume-Palasi: Man muss sich immer fragen: Inwiefern bilden die geschaffenen Kategorien auch wirklich alle Profile unserer Gesellschaft ab? Welche Personengruppe wird weniger gesehen, welche zu stark, welche gar nicht? Das muss bedacht werden, da ansonsten ein verzerrter Eindruck der Wirklichkeit entsteht.

 

Können Sie ein Beispiel nennen?

Lorena Jaume-Palasi: Ja, Menschen mit Migrationshintergrund in der Kriminalstatistik: Sie sind dort überrepräsentiert, weil sie häufiger als andere Personengruppen durchsucht, verhört und verdatet wurden. Und das über Jahrzehnte. Bei der Auswertung durch digitale Technik entsteht dann natürlich ein falsches Bild – wir nennen das Datenasymmetrie. Das gleiche Muster ist auch in Opferstatistiken zu erkennen: Weil Anzeigen von Frauen zu häuslicher Gewalt oft nicht ernst genommen wurden, gelangten ihre Aussagen gar nicht erst in die Datenbanken und tauchen deshalb auch nicht in den Statistiken auf. Diese Datenasymmetrien zu beseitigen, ist eine wichtige Aufgabe.

 

Die Politikwissenschaftlerin Lorena Jaume-Palasi forscht zur Ethik der Digitalisierung und Automatisierung. Sie ist Gründerin der „The Ethical Tech Society“, einer gemeinnützigen Organisation, die Technologie auf ihre gesellschaftliche Relevanz hin untersucht. Für die spanische Regierung sitzt Lorena Jaume-Palasi im Weisenrat zu Künstlicher Intelligenz und Datenpolitik. 2018 wurde die Wissenschaftlerin für ihre Initiative „AlgorithmWatch“ mit der Theodor-Heuss-Medaille ausgezeichnet.

 

Sie sind Gründerin der „The Ethical Tech Society“ – welche Ziele verfolgen Sie?

Lorena Jaume-Palasi: Die Organisation befindet sich derzeit in Gründung. Wir möchten dazu beitragen, mehr über die Effekte von Technologien auf die Menschen zu erfahren. Es gibt dazu viele Vermutungen, etwa, dass algorithmische Systeme Menschen manipulieren oder Wahlen von sozialen Medien beeinflusst werden. Wissen tun wir es aber nicht. Und in der Forschung dazu gibt es meiner Ansicht nach ein Transferproblem: Erkenntnisse, die Wissenschaftler in den letzten Jahrzehnten gewonnen haben, werden in der digitalen Forschung nicht berücksichtigt. Beispielsweise gab es in der Propagandaforschung der 1920er Jahre die Theorie, dass Menschen etwas, das sie zum ersten Mal sehen, sofort glauben oder kaufen. Später haben Kommunikationsforscher diese These widerlegt und nachgewiesen, dass der Prozess sehr viel komplexer ist, dass viele Faktoren in einander greifen müssen und ein ungeheurer Aufwand nötig ist, um wirksam Propaganda zu verbreiten. Doch in der Onlineforschung wird diese Theorie heute noch verwendet – obwohl sie offline vor Jahrzehnten verworfen wurde. Dort hat kein Wissenstransfer stattgefunden. Hier will Ethical Tech ansetzen.

 

Was planen Sie konkret?

Lorena Jaume-Palasi: Wir werden mit Wissenschaftlerinnen und Wissenschaftlern zusammenarbeiten und netzwerken, aber auch selbst Technologien entwickeln. Derzeit bereiten wir zwei große Projekte vor: Im Rahmen der „School of Disobedience“ der Nemetschek Stiftung und der Volksbühne Berlin wollen wir Fehlentscheidungen von Gerichtsurteilen systematisch untersuchen und dafür ein digitales Tool entwickeln: eine Datenbank, die so aufgebaut ist, dass sie gut durchsuchbar ist und die statistischen Auswertungen ermöglicht. Unser zweites Projekt ist noch in Planung: Gemeinsam mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) wollen wir ein Set von Tools entwickeln, mit dem Bundesgesetze auf ihre Relevanz für KI durchforstet werden können. Derzeit gibt es nämlich eine Debatte darüber, dass KI reguliert werden muss und es angeblich keine Regelungen dafür gibt. Ich glaube, diese Annahme stimmt nicht so ganz. Wir müssen mal links und rechts schauen. So gibt es bereits Gesetze zu Statistik oder zum Creditscoring. Beides berührt auch KI. Ob das auch noch für andere Gesetze gilt, und für welche, wollen wir mit dem Projekt herausbekommen.

 

„Wir checken auch nicht selbst das Flugzeug, bevor wir einsteigen.“


Lorena Jaume-Palasi, Politikwissenschaftlerin und KI-Expertin

 

Ein großes Thema für viele Verbraucherinnen und Verbraucher ist der Schutz ihrer Daten im Internet. Manche gehen sehr sorglos mit privaten Informationen um, andere boykottieren beispielsweise Soziale Netzwerke. Was empfehlen Sie?

Lorena Jaume-Palasi: Ich glaube, wir sind in diesem Bereich einer unangemessenen Dynamik der Selbstbestimmung verfallen. Wir gehen ja auch nicht mit dem Chemierucksack in den Supermarkt und kontrollieren selbst die Komposition und Güte des Joghurts. Oder checken das Flugzeug durch, bevor wir einsteigen. Beides wäre schlicht unmöglich, weil uns das Fachwissen fehlt. Aber bei algorithmischen Systemen wird das plötzlich verlangt. Die Leute sollen Datenwissenschaftler sein, Mathematiker, Informatiker und Juristen mit der Spezialisierung auf Datenschutz. Das ist zu viel, das kann keiner schaffen. Und das Ganze wird als Selbstbestimmung und Transparenz verkauft. Das halte ich für unethisch. Der Effekt ist, dass Verantwortung dahin transferiert wird, wo sie nicht hingehört, nämlich zu den Bürgerinnen und Bürgern. Dabei müssten die Firmen und der Staat die Verantwortung übernehmen. In anderen Bereichen funktioniert das längst, es gibt offizielle Prüfstellen im Transport- und Gesundheitswesen, auch in der Lebensmittelindustrie.

 

Also brauchen wir staatliche Prüfer, die Facebook kontrollieren oder digitale Datenbanken?

Lorena Jaume-Palasi: Auf jeden Fall müsste der Staat in bestimmten Bereichen anders eingreifen. Das Problem ist, dass bei technologischen Prozessen nicht nur ein Individuum betroffen ist, sondern ein Kollektiv. Unsere Gesetze, etwa das Grundgesetz, regeln aber immer die Bedürfnisse von Individuen. Es ist, als ob wir Wälder durch eine Einzelbaumanalyse regulieren wollten. Das funktioniert nicht.

 

Was würde denn funktionieren?

Lorena Jaume-Palasi: Wir müssen Regelungen für das Kollektive entwickeln. Der Prozess ist auch schon angestoßen. So hat etwa die Europäische Union begonnen, Leitwerte zu entwickeln, die mehr auf kollektive Maßstäbe schauen, und zwar bei Themen wie Nachhaltigkeit oder sozialem Zusammenhalt. Da müssen wir ansetzen und das Vorhandene weiterentwickeln.

 

©iStock.com/piranka, Steffen Leidel/Deutsche Welle

Zurück