,

KI in der Versicherung: Risiko oder Fortschritt?

Am ersten Arbeitstag dieses Jahres hatte ich die Ehre vor knapp 100 Mitarbeitenden der IGS GmbH, dem führenden IT-Zentrum für kantonale Ausgleichs­kassen und Sozial­ver­sicherungen, ein Referat zu halten zum Thema «Trustworthy AI: KI und Ethik mit Blick auf den (Sozial-)Versicherungskontext».

Als erstes wischte ich ein paar KI-Dystopien und -Utopien vom Tisch. Nein, weder wird KI uns alle umbringen, noch wird sie uns vor allem retten. Mein Wunsch lautet «Make AI boring (again)», damit wir uns auf das Wesentliche konzentrieren können.

Danach präsentierte ich 3 Anwendungsbeispiele, die für die IGS GmbH relevant sind. Alle zeichnen sich dadurch aus, dass zwar ein guter Wille dahinter steckt, aber überall ethische Probleme auftauchen.

  • In Florida schaltet die Firma id.me Arbeitslosen über Gesichtserkennung den Zugriff auf ihr Arbeitslosengeld frei. Guter Wille? Bekämpfung von Betrug beim Bezug von Geldern. Das Problem? Die Software funktioniert nicht zuverlässig. V.a. ältere Frauen und schwarze Menschen werden überdurchschnittlich häufig zu Unrecht von ihren Konten ausgesperrt. In einigen Fällen dauerte es bis zu 6 Wochen, bis der Zugriff wieder gewährt wurde. Eine lange Zeit, die die Menschen in grosse finanzielle Nöte stürzte.
  • In Österreich lancierte der Arbeitsmarktservice einen Algorithmus, der dafür sorgen sollte, dass Förderungsmassnahmen bei der Arbeitssuche denjenigen zugute kommen, die sie wirklich brauchen, respektive, die tatsächlich Chancen auf einen Job haben. Guter Wille? Möglichst effiziente Integration in den Arbeitsmarkt. Eines der Probleme? Der Algorithmus verstärkt Ungleichheiten: Angenommen eine Person hat gesundheitliche Probleme und ist deswegen benachteiligt. Anstatt ihr mehr Förderung zukommen zu lassen, um diese Nachteile auszugleichen, empfiehlt der Algorithmus gerade deswegen weniger Förderung, weil sie geringe Chancen hat. Damit werden Nachteile am Arbeitsmarkt quasi einzementiert. Inzwischen hat das Verfassungsgericht die Anwendung verboten (aus Datenschutzgründen).
  • Emotionserkennung zur Bekämpfung von Versicherungsbetrug, am Beispiel der Firma Lemonade. Kunden sollen Forderungen per Video einreichen. KI analysiert die Vertrauenswürdigkeit. Guter Wille? Bessere, schnellere Entscheidungen, «frictionless» Erfahrung etc. Das Problem? Emotionserkennung ist ein klassischer Fall von «snake oil». Es ist kein Zufall, dass die EU KI Verordnung diese Anwendung in gewissen Kontexten verbietet.

Interessiert an einem Referat zu einem ähnlichen Thema? Kontaktieren SIe mich»