Die Blick-Digitalexperten Thomas «Bö» Benkö und Tobias Bolzern haben mich zu «Prompt Zero» eingeladen, dem «ersten AI Podcast der Schweiz». Hier dreht sich alles rund um das Thema künstliche Intelligenz. Diese Einladung konnte ich natürlich nicht ausschlagen. Der Einsatz von KI in den Medien ist ein kontroverses Thema – Transparenz, Ethik und Urheberrechte prallen hier aufeinander.
Wir starteten mit der Frage: Ist es ok, dass der Blick seit einiger Zeit seine Artikel mit einer KI-generierten Zusammenfassung versieht?
Die Frage war eine Steilvorlage: Schön, dass Blick den Einsatz von KI explizit macht. Aber man kann sich fragen, ob es ein Widerspruch ist, dass ein Medienunternehmen, das ohne Zustimmung seine ganzen Daten für das Training des Sprachmodells, das hinter den Zusammenfassungen steht, hergeben musste, oder dem seine Daten quasi «gestohlen» wurden, nun eine Technologie verwendet, die im Ursprung das Eigeninteresse verletzt hat.
So sehe ich aus – denkt ChatGPT
Als Nächstes ging es um meine Erfahrungen mit ChatGPT. Ich halte mich eigentlich für ziemlich abgeklärt, was Diskriminierungsfragen angeht – ich will mich nicht zehnmal am Tag aufregen. Kürzlich habe ich mich aber wirklich geärgert. Ein Tech-Experte postete auf LinkedIn das Resultat eines Prompts, in dem er ChatGPT bat, ein Bild von ihm zu generieren, das seine positivsten Eigenschaften zeigt. Er war zufrieden mit dem Resultat: ChatGPT stellte ihn als erfolgreichen, dynamischen Typen dar – genau so wie er sich selbst auch sieht.
Aus Neugier habe ich denselben Prompt ausprobiert. Das Resultat seht ihr hier. Die KI stellt auch mich als Mann im Anzug dar, vor Charts stehend und Statistiken studierend. Ich konnte es nicht fassen und musste bestimmt zehnmal nachhaken, bis ChatGPT auf die Idee kam, dass ich eine Frau sein könnte. Auf meine Frage, warum das ist, kam die typisch devote und wortreiche Entschuldigung. Im Kern lautete die Antwort: ChatGPT dachte, ich sei eher ein Mann wegen meiner «strukturierten, direkten und professionellen Ausdrucksweise». Da wurde ich dann wirklich sauer.
Und nein, der Fehler liegt nicht bei mir, weil ich ChatGPT nicht explizit gesagt habe, dass ich eine Frau bin. Der Fehler liegt darin, dass KI standardmässig Consultants, die sich strukturiert und professionell ausdrücken, als männlich einstuft. Das ist eine bodenlose Frechheit – auch wenn die KI nichts dafür kann.
Um das zu ändern, braucht es einen bewussten menschlichen Korrektureffort. Denn es ist logisch, dass ein Sprachmodell, das mit Daten trainiert wird, die eine Welt abbilden, in der Consultants, die sich «strukturiert, direkt und professionell» ausdrücken, männlich sind, das auch so abbildet. Diesen Bias kann man nur mit einer gezielten Vision davon, was für einen Output man haben möchte, korrigieren. Ehrlich gesagt überrascht mich eine derart «primitive» Diskriminierung zwei Jahre nach Lancierung des Tools. Ich hätte gedacht, dass das Reinforcement Learning from Human Feedback im Hintergrund hier längst für einen Ausgleich gesorgt hätte.
Ein toter CEO – und Algorithmen mit 90% Fehlerquote
Weiter ging es zum Mord am CEO der US-Krankenversicherung United Health. Der Mord brachte nicht nur den CEO ins Zentrum, sondern auch die fragwürdigen Praktiken seiner Firma – insbesondere den Einsatz fehlerhafter Algorithmen.
Meine Recherche nach dem Vorfall zeigte, wie der Versicherungsriese Algorithmen nutzt, um knallhart Kosten zu senken. Ein Beispiel ist ein KI-Modell namens nh Predict, das den Pflegebedarf von Patienten nach einer Operation berechnet. Das Problem: In 90% der Fälle lagen die Berechnungen falsch und veranschlagten viel zu kurze Pflegezeiten – aus Kostengründen. Wenn Beschwerden gegen diese Entscheidungen Erfolg hatten, wurde intern festgelegt, dass Mitarbeitende nur noch maximal 3% von der algorithmischen Vorgabe abweichen dürfen.
Das Ergebnis: Ein entmenschlichtes System, das auf Zahlen basiert und keinen Raum für individuelle Abwägungen lässt. Die Mitarbeitenden stehen unter Druck, die Vorgaben umzusetzen, während gleichzeitig Milliardenprofite gemacht werden. Das sorgt für Ohnmacht und Wut – vor allem bei Betroffenen, die in lebensbedrohlichen Situationen schlicht keine Kraft mehr haben, sich gegen «den Algorithmus» zu wehren.
Und was macht KI bei uns?
Und in der Schweiz? Auch wenn die Auswirkungen hierzulande (noch) nicht so drastisch sind wie in den USA, zeigt sich auch bei uns: Algorithmen beeinflussen zunehmend wichtige Entscheidungen. Die Tendenz, immer mehr Lebensbereiche algorithmisch zu strukturieren, wird auch bei uns spürbar: Bewerbungsprozesse, Hypothekar-Anträge, Zugang zu Versicherungen.
Viele dieser Prozesse laufen noch unterhalb der Bewusstseinsschwelle. Einige Tools sind ausserdem reine Fantasterei. Doch irgendwann wird auffallen, dass manche Menschen systematisch benachteiligt werden, während andere stets bevorzugt sind. Das liegt daran, dass Algorithmen Präferenzen haben, die sich oft zu Ungunsten der gleichen Gruppen auswirken. Nämlich derjenigen, die nicht der Norm entsprechen und deren Benachteiligung schon in den Daten widerspiegelt ist, mit denen die Algorithmen trainiert werden.
Die EU hat mit ihrer KI Verordnung, vor allem mit der «Hochrisiko»-Klassifizierung für Bereiche wie Bildung, Migration oder Kreditvergabe, einen wichtigen Schritt gemacht. Dort gelten strenge Auflagen, bevor KI eingesetzt werden darf, von Cybersicherheit bis zu Fairness-Audits. Transparenz alleine reicht jedoch nicht aus, da Machine-Learning-Modelle oft eine Blackbox sind. Wenn man nicht erklären kann, wie eine Entscheidung zustande kam und sich nicht sicher sein kann, dass sie stimmt, muss man sich fragen, ob KI in bestimmten sensiblen Bereichen überhaupt eingesetzt werden sollte.
Denn eines ist klar: Der Laie kann die Entscheidungswege einer KI kaum nachvollziehen. Die Verantwortung darf deshalb nicht auf Nutzer und schon gar nicht auf diejenigen Menschen, über die mithilfe von KI entschieden wird, abgewälzt werden.
Bremst Ethik Innovation?
Diese Frage kommt immer wieder. Ich halte nichts von der Idee, dass Ethik oder Regulierung Innovation bremst. Rechtssicherheit ist ein Wert an sich – es gibt keine wirtschaftlich erfolgreichen Anarchien oder progressive «failed states». Ethik kann sogar Innovation fördern, etwa wenn Unternehmen bewusst eine werteorientierte Nische besetzen, wie Mozilla oder Hugging Face es tun.
Was Innovation tatsächlich bremst, ist sinnlose Regulierung, die nur Compliance-Aufwand erzeugt: endlose Checklisten und Dokumentationen, die Ressourcen binden und kaum Mehrwert schaffen. Regulierung sollte vielmehr einen klaren Zweck verfolgen und helfen, eine Vision zu erreichen, statt nur auf Transparenz zu pochen. Denn wenn Regulierung keinen echten Sinn hat und nur eine Alibi-Übung für alle Beteiligten ist, lässt man es besser ganz.
Den ganzen Podcast hört ihr hier »