„Hat Ethik überhaupt einen Platz in der Digitalisierung?“ Bei dieser Frage waren sich alle Diskutanten auf dem von Ranga Yogeshwar moderierten Panel einig: ja. Dass die Vorstellungen darüber, wie die beiden Themen zusammengehen, oder besser: konkret vereint werden können, gingen die Meinungen jedoch auseinander.

Viele Fragen, viele Meinungen

Das Panel deckte erwartungsgemäß ein weites Feld ab. Es ging um den Schutz von Daten – und die Notwendigkeit von Daten, um gute Produkte zu entwickeln. Es ging um Selbstbestimmung und Bevormundung, Überwachung und Fortschritt im Zeichen der Digitalisierung. Und um die Frage, wer eigentlich den Rahmen definieren kann, in Zeiten multinationaler Konzerne und von expansiven, teilweise staatlich vorangetriebenen Entwicklungen, wie etwa in China.

„Haben die ethischen Aspekte einen Platz in der Digitalisierung“,  fragte Ranga Yogeshwar und ergänzte: „Wir brauchen Regeln in der KI, sagt auch die Europäische Union. Wie denkt die Wirtschaft darüber?“

Achim Berg, Chef des Branchenverbandes Bitkom, sagte:  „Wir müssen definieren, was ist Ethik, was nicht. Diese Chance haben wir jetzt und wir sollten sie nutzen.“ Insgesamt sieht er die Diskussion zu dem Thema jedoch differenziert. „In Deutschland schwingen wir uns gerne zum obersten Schiedsrichter auf. Ich bin jedoch der Meinung, wir müssen mit gewissen Dingen einfach mal beginnen.“

Kulturelle Unterschied spielen große Rolle

Nur mit welchen? An Rainer Fageth, CTO bei Europas größtem Foto-Dienstleister CEWE, ging die Frage, inwieweit Gesichtserkennung und die Auswertung und Vermarktung der Bilddaten der Kunden von CEWE ein Modell der Zukunft sein könnte. Fageth erteilte dem eine klare Absage: „Das wäre das Ende unseres Business-Modells“, sagte Fageth und fügt an: „Man muss Technologien nutzen. Der Unterschied zwischen beispielsweise USA und China ist, dass der Kunde die Kontrolle über seine Daten behalten sollte.“ Daher hätten auch alle Sharing-Plattformen CEWEs stets die Einschränkung, eine proaktive Zustimmung der Kunden für Extra-Dienste zu erfordern.

Designforscherin Gesche Joost berichtete von kulturellen Unterschieden, die sich auch in Werten und Normen zeigen würden. Das in Europa stark kritisierte Scoring-System, wo Menschen etwa durch das Überqueren einer roten Ampel Abzüge und mittelfristig soziale Nachteile bekommen können, werde in China selbst positiv wahrgenommen. „Selbst Sozialwissenschaftler in China schätzen das Scoring-System als gerecht ein – weil es nachvollziehbar ist. Es ist ein Kontrollsystem, das definierte Parameter hat.“ Es sei ein nachvollziehbares System, wodurch man sich ja auch verbessern könne, so die Wahrnehmung in China. Der mündige Bürger, der die Kontrolle über alle Cookies im Browser haben wolle, sei ein Produkt unserer Kultur, im Endeffekt aus der Aufklärung heraus.

„Die eine Ethik gibt es nicht“

„Die eine Ethik gibt es nicht“, sagte Yogeshwar und fragte Informatikprofessor Dirk Helbing, inwieweit es überhaupt einen weltweiten, gemeinsamen Nenner geben könne, im Angesicht der unterschiedlichen Kulturen. Der Informatiker sagte: „Intelligente Systeme – die Systeme, die ja gerade geschaffen werden sollen – sollten in der Lage sein, sich dem Individuum anzupassen.“ Es sei nicht angebracht, überall die gleichen Standards anwenden zu wollen.

Was können dann aber Grenzen sein? Dürfen Menschenrechte gebrochen oder abgeschafft werden, dem Gedanken „move fast & break things“ folgend? „Ich denke nicht“, so Helbing. „Menschenrechte und Menschenwürde – das lehrt uns die Geschichte etwa von Krieg und Holocaust – müssen wir schützen.“ Und diese seien laut Helbing in Gefahr. „Wenn man die Welt mit KI verbessern möchte, gibt es leider keinen Indikator, was das Ziel des Ganzen sein soll. Jeder selbst muss im Pluralismus für sich selbst schauen, was der richtige Weg ist.“ Warum sollte man vor einer roten Ampel stehen bleiben, wenn keiner kommt und keine Kinder sich dieses Verhalten abschauen können? „Ich denke nicht, dass man da bestraft werden sollte. Das nutzt niemandem.“

„Personalisierte KI“ als Lösung?

Wer aber kann Regeln definieren? Die Konzerne nicht – sie sind marktgetrieben. Helbing sprach etwa den Zielkonflikt zwischen Demokratie und Kapitalismus an. „Daten sollten nicht frei käuflich und verkäuflich sein“, so Helbing. Helbing favorisiert das Konzept der „personalisierte KI“: Jeder sollte selbst über einen Tresor verfügen, in dem seine Daten gespeichert werden und man kann entscheiden, für wen diese zu welchem Zeitpunkt verfügbar sein sollten. „Wir müssen einen Einfluss auf die Verwendung der Daten haben und die Politik muss diesen verteidigen.“ Damit wären auch alle Business-Modelle weiterhin denkbar und der Konsument käme auf Augenhöhe mit den Anbietern der Dienste.

Achim Berg sah das etwas anders: „Es gibt eine Ethik nicht nur in der KI. Wir sollten nicht abwarten und alles definieren und reglementieren wollen. Eine KI ohne Daten ist wie ein Schwimmbad ohne Wasser.“ Helbing entgegnete: „Die kulturelle Anpassung von KI-Systemen sehe ich durchaus als möglich und wünschenswert an.“ Gesche Joost sagte: „Die Wahlfreiheit zu informationeller Selbstbestimmung ist de facto heute nicht präsent.“ Als Schülerin müsse man auf Whatsapp sein, sonst wäre man in den meisten Fällen ausgeschlossen. „Digitale Souveränität ist aktuell ausgehebelt und uns aus der Hand geglitten. Die Frage ist, wie wir dort wieder die Kurve bekommen oder sagen: Das chinesische Modell ist auch ganz okay.“

Wer die Welt verändern will, darf nicht nur digital denken

Einig waren sich bei den folgenden Statements eigentlich alle: Wichtig ist die Transparenz der Entwicklungen. Mit vielen Daten ist viel möglich. Nur sollte derjenige, der diese Daten „erzeugt“ hat, auch sehen, wofür sie genutzt werden.

Das Panel machte deutlich: Die Vorstellungen über Ethik sind kulturell, ja auch individuell unterschiedlich. Achim Berg hält es nur schwer vorstellbar, dabei einen gemeinsamen Nenner zu finden. „Ethik zu definieren wird uns nicht gelingen. Wir sollten jetzt anfangen und dann entlang des Weges Leitplanken definieren.“ Dirk Helbing wünscht sich mehr Reflexion: „Im Grunde können wir mit der Digitalisierung fast alles neu erfinden. Aber in welcher Gesellschaft möchten wir leben und wie kommen wir dahin. Da müssen Politik und Gesellschaft eingebunden werden und es darf nicht heißen: Code is Law.“ Denkbar wäre, so Yogeshwar, ein hippokratischer Eid für Programmierer und die Entwicklung dieser Systeme. Helbing teilte diesen Ansatz: „Diese Leute wollen die Welt verändern. Und da muss man andere Dinge einbeziehen: Ethik, Geschichte, Gesellschaft, Philosophie und vieles mehr. Und das ist leider bisher im Silicon Valley und anderen Orten, wo die Digitalisierung vorangetrieben wird, unterrepräsentiert.“

(Danke an Ines Schaffranek für das tolle Graphic recording!)