,

KI: Fortschreibung der Geschichte mit Big data?

Letzten Freitag durfte ich anlässlich der Jahrestagung des Verband Schweizerischer Schreinermeister und Möbelfabrikanten VSSM vor den Ausbildungsverantwortlichen eine Rede zum Thema KI und Ethik halten.

Das Publikum zum Lachen brachte die folgende Anekdote: Noch vor wenigen Jahren antwortete ChatGPT auf die Frage, wie man einen zu grossen Tisch durch eine Tür bringt, wie folgt: «Sägen Sie die Tür in zwei Hälften». Auch wenn es heute die Frage richtig beantwortet, muss uns bewusst sein: gesunder Menschenverstand fehlt dieser Technologie nach wie vor.

Richtig gut ist KI hingegen bei reinen Wahrnehmungsaufgaben. Identifikation von Gesichtern, von Fälschungen, umgekehrte Bildersuche – all das klappt immer besser. Und ist ethisch nicht zwingend problematisch.

Kritischer ist KI beim Automatisieren von Urteilen: Ist es Hass, wenn ich jemanden als «blöde Kuh» bezeichne? Trifft der Schüler, der sich in einem Aufsatz über «Die grössten Herausforderungen der Welt» darüber beklagt, dass er zu wenig Taschengeld bekommt, das Thema oder nicht? Tricky. Auch vernünftige Menschen würden in diesen Fällen unterschiedlich entscheiden.

Und so richtig problematisch wird es, wenn KI genutzt wird, um soziale Voraussagen zu machen: Welcher Straftäter wird rückfällig? Welche Kinder sind gefährdet im familiären Umfeld?

Die Brisanz solcher Anwendungen unterstrich ich mit dem Ereignis, das eine Art «Geburtsstunde» für KI-Ethik markierte, nämlich dem misslungenen Versuch von Amazon vor Jahren mittels einer KI Anwendung geschlechterblind die besten CVs für Tech-Jobs zu identifizieren, wo die ach so progressive und mit guten Absichten eingesetzte Technologie letztlich erzkonservativ war, und nur Männer vorschlug.

Zum anderen nutzte ich die Gelegenheit, öffentlich das F-Wort benutzen zu dürfen und verwies auf den Schlamassel in Grossbritannien im Jahr 2020, wo während der Pandemie mangels real stattfindender Prüfungen ein Algorithmus verwendet wurde, um Maturitätsnoten zu verteilen. Mit desaströsen Konsequenzen und den historisch erstmaligen Protesten, die sich explizit gegen Algorithmen richteten: „F*** the algorithm“.

Abschliessend betonte ich, dass KI immer nur so gut ist wie die Daten, mit denen sie trainiert wurde und die Absichten der Menschen, die sie nutzen.

Lasst uns KI nutzen. Lasst zu, dass sie unser Leben erleichtert. Aber die Weichen für die aktive Gestaltung unserer Zukunft, die nicht ein blosse Fortschreibung der Vergangenheit mit Big Data darstellt, stellen immer noch wir Menschen. Und das ist gut so.