Digitalphilosoph Luciano Floridi: „Cool ist, wer die Party organisiert“

Schwergewicht der Digitalphilosophie: Professor Luciano Floridi von der Oxford University entwirft Ethik für die digitale Gesellschaft und berät Tech-Konzerne wie IBM oder Google.

Regelmäßig neue Updates aus dem WIRED-Kosmos!

Schwergewicht der Digitalphilosophie: Professor Luciano Floridi von der Oxford University entwirft Ethik für die digitale Gesellschaft und berät Tech-Konzerne wie IBM oder Google.

Luciano Floridi ist Professor für Philosophie und Informationsethik an der Oxford University, Direktor des Digital Ethics Lab in Oxford, und einer der Pioniere einer Ethik für die digitale Gesellschaft, die er auch in seinem Buch „Die 4. Revolution – Wie die Infosphäre unser Leben verändert“ skizziert hat. Er berät Tech-Giganten wie IBM, Microsoft oder Google und vermittelt philosophische Konzepte in griffigen Metaphern, die jeder versteht. Trotz seiner Arbeit ist Floridi noch optimistisch – „zumindest vier Tage pro Woche“. Am Rande einer Veranstaltung von Wikimedia in Berlin hat er mit WIRED Germany über sein ethisches Upgrade für die Digitalgesellschaft, Kontrollverlust und die Voice AI-Generation gesprochen.

WIRED: Warum braucht die digitale Gesellschaft ein ethisches Upgrade, neue philosophische Konzepte?
Luciano Floridi: Es sind extreme Transformationen, die Technologien hervorrufen. Technologie verändert auch, wie wir uns selbst wahrnehmen, wie wir die Welt wahrnehmen, interagieren. Früher dachten wir, wir sind der Mittelpunkt der Welt – heute stehen stattdessen die Technologien im Zentrum. Wir sprechen mit automatisierten Maschinen, die über unser Leben entscheiden. Wir müssen unsere eigene Rolle als Akteure verstehen, und wie sie von Technologie verändert und geformt wird. Cool ist nicht mehr, wer im Zentrum der Party steht – sondern wer die Party organisiert.

WIRED: Gerade mit Voice AI wird die Trennung zwischen offline und online völlig aufgehoben, wir werden über diverse Interfaces hinweg getrackt – was verändert das?
Floridi: Es ist neu in so vielen Dimensionen: Die Intensität und die Quantität ist immens. Wir haben uns schon immer gegenseitig getrackt, beobachtet, aber es ist ein Unterschied, ob man jemandem hinterherläuft und ihn beobachtet, oder wie jetzt ein massives System hat, das niemals müde wird und immer da ist und immense Datenmengen verarbeitet. Es ist ein neues Spiel. Das zweite, was wir gerade lernen: Wenn man diese komplexen, logischen, referentiellen Systeme wie AI und Menschen zusammenpackt, das ist nicht anpassungsfähig.

Luciano Floridi ist Professor für Philosophie und Informationsethik an der Oxford University, Direktor des Digital Ethics Lab in Oxford, und einer der Pioniere einer Ethik für die digitale Gesellschaft.

WIRED: Wie sehen Sie das Verhältnis von Mensch und Maschine?
Floridi: Es ist nicht einfach dein kleiner Computer, der den Flur saubermacht, der sich dir anpasst – sondern du musst dich anpassen. Meine Frau und ich mussten unser Sofa wechseln, weil Roomba unter dem alten nicht saubermachen konnte. Jetzt haben wir ein Roomba-freundlicheres Haus. Wenn du das mit ein paar Tausend kleinen Entscheidungen jeden Tag multiplizierst: Wer passt sich wem an? Wer dient wem? Ich möchte aber kein Haus haben, das Rooma-friendly ist, oder ein Auto, das der Technologie angepasst ist. Wir müssen sehr vorsichtig sein, wie stark wir uns den Umständen anpassen. In der Geschichte haben sich die Menschen allem angepasst, selbst in den schlimmsten Kapiteln. Wir brauchen Mechanismen, die diese Verzerrung der menschlichen Natur limitieren. Da machen wir gerade keinen guten Job.

WIRED: Klingt ziemlich deterministisch. Sie glauben, dass Technologie die Entscheidungen für uns trifft?
Floridi: Persuasive Technologies, also Werbung, Nudging versuchen, uns zu beeinflussen, ein Stück von dir zu bekommen. Sie erzählen dir: Wenn du diesen Rotwein magst, magst du auch den anderen, und die nächsten zehn Jahre wirst du niemals wieder einen Schluck Weißwein probieren. Und dann bist du eben ein Rotweintrinker. Wir sind wie Wasser, und diese Dinge sind wie Steine. Wenn die Steine uns in den Weg gelegt werden, fließt das Wasser außen herum, denn die Steine bewegen sich nicht.

Wir brauchen Mechanismen, die diese Verzerrung der menschlichen Natur limitieren

WIRED: Was können wir tun, um die Kontrolle wiederzuerlangen?
Floridi: Wir müssen uns fragen: Sind das die Steine, die wir um uns haben wollen? Können wir sie an eine andere Stelle bewegen? War das wirklich deine Entscheidung, bist du das wirklich? Oder inwieweit ist es nur Push & Pull in eine bestimmte Richtung?

WIRED: Das Problem geht weit über den persönlichen Umgang mit sozialen Netzwerken, Smartphones, Tech hinaus, oft gibt es keinen realistischen Opt-Out mehr. Scoring findet in allen Bereichen statt, von Polizeiarbeit bis hin zu Krankenkassen. Wie kann man das System transparenter machen?
Floridi: In bestimmten Bereichen wie Gesundheit, aber auch Predictive Policing, vorausschauender Polizeiarbeit, ist der Schaden nicht wiedergutzumachen, wenn etwas schiefläuft. Wenn man jemand aus dem falschen Grund für zehn Jahre ins Gefängnis bringt, weil die Software falsch liegt, hast du sein Leben ruiniert. Die Frage ist: Wer kontrolliert das, wer ist verantwortlich? Ich bezweifle, dass Regierung oder Regierungsinstitutionen diese Rolle im AI-Bereich einnehmen können, alles wird von privaten Konzernen dominiert. Selbst wenn sie es könnten, weiß ich nicht, ob wir ihnen vertrauen würden. Es gibt Joint Ventures, aber die sind kommerziell orientiert. Und der medizinische Sektor expandiert zum Beispiel gerade extrem.

WIRED: Wie könnte eine sinnvolle Kontrollinstanz aussehen?
Floridi: Wir sollten ein Joint Venture anstreben, aber eines, das auf einer Position der Stärke basiert. Gerade ist es eher ein reaktives Spiel. Die Regierung spielt immer nur den Ball zurück – die Unternehmen sind agiler, sie haben viel Geld, Profitinteressen. In Italien oder in England reagiert der nationale Gesundheitssektor extrem langsam, es dauert Jahre, digitale Transformationsprozesse zu durchlaufen. Google, Deep Mind geht in einen Markt rein – und sie fangen einfach an zu arbeiten. Was da passiert, muss transparenter sein, aber man sollte auch nicht versuchen, es zu stoppen. Viele Leute rufen nach einer Handbremse. Ich finde: Wo ist das Gaspedal? Ich will nicht, dass der britische Gesundheitsdienst NSH das macht, weil sie es eben nicht richtig machen können – aber sie müssen in der Lage sein, die Kontrolle zu übernehmen, Fehlverhalten zu bestrafen, oder eben Projekte fördern, die gut laufen.

WIRED: Gute Daten, schlechte Daten: Wo sehen Sie eine sinnvolle Nutzung von Big Data?
Floridi: Es gibt viel Wert, den man aus Daten extrahieren kann. Und wenn wir über riesige Datenmassen reden, dann sind das keine persönlichen Daten mehr – man kann sie für eine bessere Verkehrsplanung nutzen, Luftverschmutzung messen oder die erfolgreiche Implementierung von Politik. In diesen Bereichen gibt es so viel mehr, was wir tun könnten, bisher kratzen wir nur an der Oberfläche. Der Weg, den wir eingeschlagen haben, ist vor allem auf persönliche Daten fokussiert, also Social Media, Werbung, soziale Kontrolle, Monitoring. Ich bin optimistisch, dass wir eine Vielzahl von Chancen haben, Big Data zu nutzen – aber ich weiß nicht, ob wir die Gelegenheiten richtig nutzen werden. Ich habe für die EU-Kommission unter Barroso eine Ethik-Zukunftsfolgenanalyse entwickelt. Bei Großprojekten sollte eine ethische Risikoanalyse vorgenommen werden, wie es für gesellschaftliche, wirtschaftliche, gesundheitliche Folgen jetzt schon gemacht wird, wenn etwa ein Flughafen oder ein neuer Supermarkt geplant wird. Je besser wir uns vorbereiten, auch ethische Folgen kalkulieren, desto erfolgreicher kann das Projekt sein.

Viele Leute rufen nach einer Handbremse. Ich finde: Wo ist das Gaspedal?

WIRED: Bei der Beschleunigungsrate, die wir im Tech-Bereich sehen, ist es aber schwierig vorherzusagen, welche Auswirkungen Entwicklungen in Zukunft haben werden und das Schadpotential zu begrenzen, oder?
Floridi: Natürlich ist die Entwicklung offen, man kann nicht alles genau vorhersehen, aber man kann Konzerne mit einem generellen Framework warnen, was passiert, wenn sie Patientendaten missbrauchen oder Patienten diskriminiert werden – wenn etwa datenbasiert nur bestimmte Dienstleistungen gewährt werden. Es geht nicht darum genau festzulegen, dass die Firmen nur A, B, oder C dürfen, sondern zu definieren, solange die Firma nicht X, Y und Z macht, ist das Feld offen. Niemand sollte dir vorschreiben, wie genau du fährst, aber es gibt Geschwindigkeitslimits. Wir brauchen Rahmenbedingungen, müssen die Leitplanken festlegen.

WIRED: Ist es naiv zu glauben, dass wir überhaupt noch Kontrolle über unsere Daten haben?
Floridi: Wir schwitzen die ganze Zeit Daten aus. Viele unserer Daten, die uns und unser Verhalten qualifizieren, haben wir nicht unter Kontrolle – genauso wenig wie wir Kontrolle über Zellen in unserem Körper haben. Wir hinterlassen Daten überall, wo wir uns bewegen, genauso wie Fingerabdrücke. Und Daten werden überall eingesaugt, die Begrenzung liegt höchstens darin, wie viel gespeichert werden kann. Wenn Daten erstmal draußen sind, werden sie recycelt. Wenn das Loch gebohrt ist, entweicht die Luft, wie bei einem platten Reifen – du kannst nichts mehr tun, nur hoffen, dass die Luft etwas langsamer entweichen wird. Für Privatsphäre ist es dann zu spät. Das bedeutet aber nicht, dass es keinerlei Besitzrechte gibt oder gar keine Kontrollmöglichkeit. Es ist utopisch, dass wir die volle Kontrolle über unsere Daten haben, aber wir können eine gewisse Kontrolle darüber erlangen, wie sie genutzt werden. Alice kann ihre eigenen Daten also nicht kontrollieren, aber es wäre fair, wenn Alice ein Mitspracherecht hätte, wenn Bob Daten über Alice sammelt und nutzt. Ich würde gerne mehr Governance und Aufsicht sehen.

WIRED: Nutzer haben jetzt mehr Auskunftsrechte, vor kurzem hat eine Journalistin ihre Tinder-Daten angefordert und 800 Seiten erhalten, aber die meisten Nutzer machen davon keinen Gebrauch. Ist es nicht ein Problem, dass es die meisten gar nicht interessiert, wer ihre Daten aufsaugt?
Floridi: Jeder von uns würde sein ganzes Leben verschwenden, jeden Tag zu prüfen, wo, wie und welche Daten über uns gesammelt werden, das ist Unsinn. Wenn man sich vorstellt, dass die Schule uns ständig Daten über unsere Kinder schicken würde, Banken und Krankenhäuser ebenso – das wären tonnenweise Daten, die uns ersticken würden. Es wäre so viel Lärm, dass er die Signale übertüncht. Wichtig wäre, dass es einen Weg für Menschen gibt, das Vorgehen bei Missbrauch überprüfen und anprangern zu können – und widersprechen zu können.

Wir denken immer noch in den Maßstäben des 20. Jahrhunderts über das 21. Jahrhundert nach

WIRED: Haben nicht auch Unternehmen längst die Kontrolle verloren – bei Amazons Alexa oder auch Facebook docken so viele Drittparteien Dienstleistungen an, die wiederum Zugriff auf die Daten haben?
Floridi: Es ist ein Kontext für „distributed responsability“, geteilte Verantwortlichkeit. Wenn ich nach einem neuen Kühlschrank suche, sehe ich plötzlich überall online Kühlschrank-Anzeigen, auf LinkedIn, Twitter, Facebook, Amazon, Google – das zeigt, wie mein Datenpaket, innerhalb kürzester Zeit geteilt wurde, zirkuliert. Wir werden verkauft. An sich ist das nichts Schlimmes, es ist Werbung, das ist die Welt, in der wir leben, auch wenn ich sie nicht besonders mag. Aber so bezahlen wir für die kostenlosen Dienstleistungen. Was ist etwa, wenn der Kühlschrank meine sexuelle Präferenz oder meine religiöse Einstellung enthüllen würde, und die Daten von anderen missbraucht werden würden? In einem ethischen Kontext ist jeder Akteur verantwortlich. Es gibt im holländischen Recht Beispiele für geteilte Verantwortung. Wenn zwei Fahrradfahrer zusammen auf der Straße fahren, ist das in Ordnung, wenn ein Dritter dazukommt, werden sie alle drei bestraft, nur weil sie anwesend waren. Dieses Verständnis vermisse ich im digitalen Bereich. Dann wäre jedes beteiligte Unternehmen verantwortlich. Wir leben in einem Zeitalter, wo mindestens drei Fahrradfahrer die ganze Zeit auf einer Straße fahren.

WIRED: Stichwort Verantwortlichkeit: Bei der Kontrolle von Inhalten werden Konzerne wie Facebook gerade zu inoffiziellen Helfern des Staates – aber kann das nicht auch zu Übervorsichtigkeit und Overblocking führen?
Floridi: Wir spielen die ganze Zeit Ping-Pong. Auf der einen Seite wollen wir, dass soziale Netzwerke das Richtige tun. Aber gleichzeitig wollen wir, dass sie weniger in unser Leben eindringen, in unsere Privatsphäre. Es ist ein Paradox. Wenn Facebook von Terrorattacken weiß, soll das Netzwerk uns warnen. Wenn Postings auf Selbstmordgefahr hinweisen, soll es eingreifen. Aber gleichzeitig wollen wir nicht, dass Facebook uns überwacht. Ich würde gerne eine Lösung dafür haben, aber ich habe keine. Was wollen wir eigentlich als Gesellschaft? Wir denken immer noch in den Maßstäben des 20. Jahrhunderts über das 21. Jahrhundert nach. Wir sehen Unternehmen als nur ein Akteur von vielen, als ob sie keine Politik machen würden. Aber wir fordern sie auf, Politik zu machen, sich um Sicherheit zu kümmern, oder dass Facebook bei einer Naturkatastrophe eingreifen soll. Google soll die Suchergebnisse analysieren, um eine Pandemie auszuwerten. Aber dann reagieren wir wieder in der 20. Jahrhundert-Manier.

WIRED: Was wäre die 21. Jahrhundert-Reaktion?
Floridi: Ich glaube, dass wir die Unternehmen mit an den Tisch nehmen sollten, wenn politische Entscheidungen getroffen werden. Das wäre ein großer Schritt. Bisher lief das Schema so, dass der Staat als politischer Entscheider betrachtet wurde und die Unternehmen als Befehlsempfänger. Sie teilten keine Macht mit der Regierung – zumindest offiziell. Amerika ist der schlimmste Fall: Seit mehr als einem Jahrhundert wird Politik vor allem von riesigen Unternehmen gemacht, ohne dass die Verantwortung übernehmen. Das ist wie den Fluss zu überqueren, aber nicht ganz bis zur anderen Seite durchzuwaten. Wir können zwar nicht zurückgehen, aber wir können vorwärts gehen. Wenn die Unternehmen A, B und C so viel Macht und soziale Kontrolle haben, dann sollten sie mit an den Verhandlungstisch kommen und offen zeigen, wie sie abstimmen – so dass man sehen kann, für was sie eintreten. Andererseits würde man damit zugeben, dass die Politik selbst ziemlich erledigt ist.

WIRED: Würden die Unternehmen dann nicht einfach politische Entscheidungen noch stärker beeinflussen, als sie es ohnehin tun?
Floridi: Was wir sehen oder nicht, wie die Zukunft von Gesundheit, Polizeiarbeit, Unterhaltung und so weiter aussieht – all das wird massiv von diesen Konzernen beeinflusst und es ist wichtig zu sehen, wer hier beteiligt ist, was passiert, wer das wahre Gericht ist. Das wiederum ist ein Argument, das für die EU spricht. Man braucht einen gigantischen Player, der die Opposition zu diesen großen Konzernen darstellen kann. Man muss sie an den Verhandlungstisch bringen, aber demonstrieren: Ihr seid zwar groß, aber ich bin immens. Zeigt mir, dass ihr euch wie ein guter Bürger verhaltet – wenn nicht, wird die Bestrafung schmerzhaft sein. Kein Land allein kann die multinationalen Konzerne in die Schranken weisen. Ein Ort wie Katalonien würde bei lebendigem Leib von den Tech-Konzernen verspeist werden. Je kleiner du bist, desto mehr bist du nur ein Häppchen. Wir müssen zugeben, dass die Konzerne Macht haben und von draußen nach drinnen holen. Und wir bräuchten das Vertrauen, dass unsere Macht groß genug ist, um ein Gegengewicht darzustellen. Wie es nicht weitergehen kann: wie im Wilden Westen, mit dem Glauben, dass der Markt es allein regeln wird.

WIRED: Als ethischer Berater wurden sie in Googles Kommission zum Recht auf das Vergessen berufen, es ist bis heute in vielen Fällen umstritten, ob die Löschung von Inhalten Zensur oder Gerechtigkeit schafft – was haben sie bei ihrer Arbeit gelernt?
Floridi: Es ist möglich, mit diesen großen Konzernen zu kooperieren. Firmen wie Facebook und Google sind nicht besonders scharf darauf, die politische Führungsrolle zu übernehmen. Wenn sie es tun, dann, weil die Politik ein Vakuum lässt. Das bedeutet viel Verantwortung für die Gesellschaft. Es ist wieder das Paradox, das wir von den Firmen fordern: Übernehmt Verantwortung – aber nicht zu viel. Übt eure Macht aus – tut es nicht. Übernehmt die Führungsrolle – tut es nicht. Eine wichtige Lektion war auch: Es gibt kein Google oder Facebook, es sind unglaublich viele, unterschiedliche Menschen, Teams und Gruppen. Man muss sich daran erinnern, dass überall nur Menschen sitzen, wenn man die andere Seite dämonisiert. Es ist kein „wir“ gegen „die“.

Ein Ort wie Katalonien würde bei lebendigem Leib von den Tech-Konzernen verspeist werden

WIRED: Glauben Sie, dass das Recht auf Vergessenwerden inhaltlich sinnvoll ist?
Floridi: Ich denke, insgesamt ist es gut. Es ging in die richtige Richtung, wenn auch mit falschen Schritten. Die Löschung passiert nicht oft und nur in extremen Fällen. Es gibt einfach Fälle, bei denen die Veröffentlichung von Inhalten zwar legal ist, aber schmerzhaft für Betroffene – es sollte nicht immer wieder ausgespielt werden, nur weil mir vor 20 Jahren etwas passiert ist. Das tut niemandem etwas Gutes, wenn das wieder und wieder hervorgeholt wird. Es ist schmerzhaft und sinnlos.

WIRED: Ist Ethik oder Beratung durch Experten wie Sie für Tech-Konzerne mehr als ein kleines, nettes Add-on?
Floridi: Für junge Firmen, Startups, ist Ethik kein Thema, sie versuchen einfach nur zu überleben. Wenn Firmen ein paar Jahre alt sind, wichtig werden, beschäftigen sie sich mit PR und legalen Fragen, es geht um Compliance, Governance – also um die Fassade, darum, gut auszusehen. Kolosse wie Microsoft, Google oder Facebook sind reif geworden, die verstehen, dass sie sich über ethische Fragen nicht mehr lustig machen können und nehmen es in ihrem eigenen Interesse ernst. Es geht um die öffentliche Wahrnehmung. Wenn deine Firma als Bad Guy wahrgenommen wird, dann ist es egal, wie viel Geld du machst, wie viele gute Gadgets du produzierst – du wirst die Regierung, die Medien, die Öffentlichkeit gegen dich haben. Ethik ist also ein langfristiges Spiel, ein langfristiges Investment, bei dem es darum geht, nachzudenken, wie man in den nächsten fünf bis zehn Jahren strategisch vorgehen wird, wie in der Debatte um Künstliche Intelligenz. Ethik muss die Grundlage dafür sein, worin man richtig viel Geld steckt. Sonst riskiert man einen Backlash.

WIRED: Wenn es um selbstfahrende Autos, Ethik und automatisierte Entscheidung geht, wird ja immer das klassische Paradox mit dem Auto hervorgeholt, das sich nur zwischen zwei tödlichen Unfällen entscheiden kann. Was sagen Sie als Philosoph dazu?
Floridi: Es ist idiotisch. Ich weiß nicht, was da mit den Massenmedien los ist. Es ist sehr simpel, jeder versteht das Paradox. Du hast ein Auto und musst dich entscheiden, ob man die zwei Kids auf der einen Seite, oder die alte Lady mit dem Hund tötet. Ich würde jedem empfehlen, den Eintrag zum Trolley-Problem zu lesen. Die Idee ist so alt wie Thomas Aquinus, das Paradox kommt aus dem Mittelalter. Und es ging gar nicht darum, wie man es lösen könnte – es ist ein Argument, das zeigen soll, dass der Konflikt unlösbar ist. Wenn das Spiel nicht fair ist, verliert man also auf jeden Fall. Manche Entscheidungen haben sekundäre Konsequenzen. Entscheide ich mich, nach links auszuweichen und die beiden Kinder zu retten, dann töte ich die alte Frau. Es ist ein altes Dilemma, das jeder Arzt hat: Rette ich Mutter oder Kind? Dort haben wir entschieden: Der Doktor ist da, um der Frau zu helfen, wenn das Kind stirbt, kann das passieren.

WIRED: Was kann man daraus lernen?
Floridi: Willkommen in der Welt: Es ist immer eine Tragödie, egal was man macht – eine echte Lösung gibt es nicht. Die Frage ist: Was macht man, um Tragödien zu vermeiden, nach dem Motto „The best reaction to a temptation is not a position to be tempted“. Also sollten wir das selbstfahrende Auto nicht in Situationen bringen, in denen dieses Paradox entstehen kann. Was mich ärgert ist, dass, wenn man mit jemand darüber redet und sagt: Dann nutze ich eben die Handbremse. Dann sagt er: Nein, lass uns annehmen, es gibt keine. Vielleicht ein Knopf, mit dem sich das Auto ausschalten lässt? Nein, keine Bremse und kein Notfallknopf. Du kannst es so nicht lösen. Wenn man etwas so baut, dass man das Auto nicht mit Handbremse kontrollieren kann, dann gibt es keine Lösung. Das Paradox entsteht dort, wo Menschen dumm sind.

WIRED: Braucht man den Menschen bei der zunehmenden Automatisierung als letzte Kontrollinstanz?
Floridi: Ich will den Menschen „on the loop“, nicht „in the loop“. Ich will nicht unbedingt, dass der Mensch die Entscheidungen trifft. Ein Computer kann ein Flugzeug inzwischen besser landen als ein Pilot – wenn man die Landung spürt, ist das der Mensch. Das ist auch wichtig, damit die Piloten ab und zu noch üben zu landen. Aber ich möchte, dass der Computer landet, dass der Pilot aber zusieht und notfalls eingreifen kann. In der Entscheidungskette sollte ein Mensch beteiligt sein, falls etwas schief geht, es ist eine weitere Sicherheitsschicht. Im Militärbereich, aber auch im Finanzsektor, wo alles wahnsinnig schnell gehen muss, kann man keinen Menschen mehr „in the loop“ haben, es sind zu viele Daten, die Geschwindigkeit ist zu hoch – aber man braucht einen, der es strategisch überwacht.