Goldilocks Ausgabe 15 | Page 13

# Diversität # Inklusion
Diversity-Strategien werden in Unternehmen immer mehr zur Normalität und Themen wie Vielfalt , Gleichberechtigung und Inklusion sind in der Wirtschaft angekommen . Doch nun stehen wir vor einer ganz anderen , noch viel schwierigeren Hürde : dem Unconscious Bias , der sich mit dem rasanten Fortschritt der Künstlichen Intelligenz auftut . Als Menschen haben wir alle unsere blinden Flecken , unsere kognitiven Verzerrungen , wie zum Beispiel tief verwurzelte Stereotypen . Es ist ganz natürlich , dass unser Gehirn – um Energie zu sparen – versucht , unsere Wahrnehmungen nach uns bekannten Mustern zu filtern . Problematisch ist , dass dieser Unconscious Bias unsere Alltagsentscheidungen stark beeinflusst und unser Handeln fehleranfällig macht .
Das reicht vom Status-quo-Bias , der etwa im Recruiting dazu führt , dass eher Bewerber : innen ausgewählt werden , die Ähnlichkeiten mit erfolgreichen Personen ( oder mit uns selbst ) haben , bis zum In-Out-Group-Bias , bei dem wir die eigene Gruppe höher bewerten als fremde Gruppen und deren Mitglieder . Wir alle kennen die Dynamik : Im Kreis vertrauter und ähnlicher Kolleg : innen geht die Arbeit auf den ersten Blick leichter von der Hand . Die Gefahr , dass vor dem Hintergrund globaler Märkte und vielfältiger Kund : innenbedürfnisse wichtige Aspekte außer Acht gelassen werden , ist sehr groß .
Was passiert , wenn man dieses menschliche „ Fehldenken " auf KI überträgt ?
Schließlich kann eine KI nur so gut sein wie die Daten , auf denen sie basiert . Ein Bias in der KI liegt dann vor , wenn die Maschine für eine Gruppe von Menschen systematisch andere Ergebnisse liefert als für eine andere Gruppe von Menschen . Ein klassisches Beispiel sind Gesichtserkennung und stereotypische Vorurteile im Gesundheitswesen : In den Daten , mit denen diese Systeme trainiert werden , fehlen Beispiele von Menschen mit dunkler Hautfarbe . Das führt dazu , dass eben genau diese Menschen einen Nachteil erleben . Wer schlechte Daten eingibt , erhält schlechte Daten .
Oder man erinnere sich an Microsofts KI-Experiment „ Tay “ aus dem Jahr 2016 . Der Twitter-Bot war eigentlich dazu gedacht , mit 18- bis 24-Jährigen zu interagieren und dem Unternehmen dabei zu helfen , die Umgangssprache junger Menschen im Internet besser zu verstehen . Doch schon nach wenigen Stunden verwandelten Nutzer : innen Tay in eine frauenfeindliche , rassistische und den Holocaust leugnende KI , die Sätze wie „ Repeat after me , Hitler did nothing wrong “ oder „ I fucking hate feminists and they should all die and burn in hell “ verbreitete . Ein weiteres Beispiel : Die KI Delphi wurde auf der Basis von Texten aus dem Internet , zum Beispiel Reddit-Posts , darauf trainiert , ethische Bewertungen abzugeben . Sie kam zu dem Schluss , dass es „ okay “ sei , jemanden in Notwehr zu erschießen . Ehebruch sei „ wrong “ und man solle Völkermord begehen , wenn es alle glücklich mache . Oder der Forscher und Youtuber Yannic Kilcher , der eine KI mit 3,3 Millionen Threads aus einem bekanntermaßen hasserfüllten Unterforum von 4chan gefüttert hat – mit vorhersehbarem Ergebnis .
All diese Beispiele haben eines gemeinsam : Das Problem sind nicht die Maschinen , sondern die Menschen , die KI-Algorithmen entwerfen und am meisten zu den heutigen KI-Anwendungen beitragen . Biased AI ist also nicht nur ein technologisches , sondern vor allem ein menschliches Problem . Wir müssen uns daher folgende Fragen stellen : Sind die zur Verfügung stehenden Daten vollständig ? Und sind sie repräsentativ für die Gesamtheit der Menschen ? Wenn nicht , sind die Vorhersagen eines Algorithmus unvermeidlich verzerrt .
Jean-Philippe Tonyigah agency @ starfinanz . de
APRIL 2023
TRENDS & FORESIGHT

01

UNCONSCIOUS BIAS IN KI

Bild : Adobe Stock 425249411
LESEDAUER : 7 MIN

# Diversität # Inklusion

Das größte Problem von Künstlicher Intelligenz sind die , die sie entwickeln : Wir Menschen sind von Natur aus und unbewusst voreingenommen . Was bedeutet diese Herausforderung für die Sparkassen ?

Foto von Eric Barrett , unsplash . com

Diversity-Strategien werden in Unternehmen immer mehr zur Normalität und Themen wie Vielfalt , Gleichberechtigung und Inklusion sind in der Wirtschaft angekommen . Doch nun stehen wir vor einer ganz anderen , noch viel schwierigeren Hürde : dem Unconscious Bias , der sich mit dem rasanten Fortschritt der Künstlichen Intelligenz auftut . Als Menschen haben wir alle unsere blinden Flecken , unsere kognitiven Verzerrungen , wie zum Beispiel tief verwurzelte Stereotypen . Es ist ganz natürlich , dass unser Gehirn – um Energie zu sparen – versucht , unsere Wahrnehmungen nach uns bekannten Mustern zu filtern . Problematisch ist , dass dieser Unconscious Bias unsere Alltagsentscheidungen stark beeinflusst und unser Handeln fehleranfällig macht .

Das reicht vom Status-quo-Bias , der etwa im Recruiting dazu führt , dass eher Bewerber : innen ausgewählt werden , die Ähnlichkeiten mit erfolgreichen Personen ( oder mit uns selbst ) haben , bis zum In-Out-Group-Bias , bei dem wir die eigene Gruppe höher bewerten als fremde Gruppen und deren Mitglieder . Wir alle kennen die Dynamik : Im Kreis vertrauter und ähnlicher Kolleg : innen geht die Arbeit auf den ersten Blick leichter von der Hand . Die Gefahr , dass vor dem Hintergrund globaler Märkte und vielfältiger Kund : innenbedürfnisse wichtige Aspekte außer Acht gelassen werden , ist sehr groß .

Nun die spannende Frage

Was passiert , wenn man dieses menschliche „ Fehldenken " auf KI überträgt ?
Schließlich kann eine KI nur so gut sein wie die Daten , auf denen sie basiert . Ein Bias in der KI liegt dann vor , wenn die Maschine für eine Gruppe von Menschen systematisch andere Ergebnisse liefert als für eine andere Gruppe von Menschen . Ein klassisches Beispiel sind Gesichtserkennung und stereotypische Vorurteile im Gesundheitswesen : In den Daten , mit denen diese Systeme trainiert werden , fehlen Beispiele von Menschen mit dunkler Hautfarbe . Das führt dazu , dass eben genau diese Menschen einen Nachteil erleben . Wer schlechte Daten eingibt , erhält schlechte Daten .
Oder man erinnere sich an Microsofts KI-Experiment „ Tay “ aus dem Jahr 2016 . Der Twitter-Bot war eigentlich dazu gedacht , mit 18- bis 24-Jährigen zu interagieren und dem Unternehmen dabei zu helfen , die Umgangssprache junger Menschen im Internet besser zu verstehen . Doch schon nach wenigen Stunden verwandelten Nutzer : innen Tay in eine frauenfeindliche , rassistische und den Holocaust leugnende KI , die Sätze wie „ Repeat after me , Hitler did nothing wrong “ oder „ I fucking hate feminists and they should all die and burn in hell “ verbreitete . Ein weiteres Beispiel : Die KI Delphi wurde auf der Basis von Texten aus dem Internet , zum Beispiel Reddit-Posts , darauf trainiert , ethische Bewertungen abzugeben . Sie kam zu dem Schluss , dass es „ okay “ sei , jemanden in Notwehr zu erschießen . Ehebruch sei „ wrong “ und man solle Völkermord begehen , wenn es alle glücklich mache . Oder der Forscher und Youtuber Yannic Kilcher , der eine KI mit 3,3 Millionen Threads aus einem bekanntermaßen hasserfüllten Unterforum von 4chan gefüttert hat – mit vorhersehbarem Ergebnis .
All diese Beispiele haben eines gemeinsam : Das Problem sind nicht die Maschinen , sondern die Menschen , die KI-Algorithmen entwerfen und am meisten zu den heutigen KI-Anwendungen beitragen . Biased AI ist also nicht nur ein technologisches , sondern vor allem ein menschliches Problem . Wir müssen uns daher folgende Fragen stellen : Sind die zur Verfügung stehenden Daten vollständig ? Und sind sie repräsentativ für die Gesamtheit der Menschen ? Wenn nicht , sind die Vorhersagen eines Algorithmus unvermeidlich verzerrt .

Was das für die Sparkassen bedeutet

Einschätzung von Jean-Philippe Tonyigah , Lead Relations beim S-Hub
Künstliche Intelligenz hat bereits Einzug in die Sparkassen-Finanzgruppe gehalten . Da Sparkassen einen Querschnitt der deutschen Gesellschaft ansprechen , haben sie eine große Verantwortung , KI sinnvoll einzusetzen und darauf zu achten , dass sich der Unconscious Bias der Macher : innen nicht auf KI-Ergebnisse überträgt .
So können zum Beispiel KI-Chatbots nicht nur einen personalisierten und effizienten Kundenservice anbieten und die Kundenbetreuer : innen entlasten . Sie bieten auch die Chance , Kund : innen unvoreingenommen zu begegnen – ohne Vorurteile , die Aspekte wie Geschlecht , Hautfarbe , Sprachduktus oder Ähnliches im persönlichen Kontakt automatisch auslösen .
Bei der South by Southwest ging es in fast allen Vorträgen zur KI auch um die Frage der Ethik . Alle Panels waren enorm vielfältig . Viele Vorträge beschäftigten sich mit unseren blinden Flecken und zeigten explizit Wege auf , wie wir mit den Themen Inklusion und Diversität besser umgehen können . Hier habe ich mitgenommen , wie wichtig es ist , dass die Sparkassen sich jetzt mit diesen Implikationen auseinandersetzen . Gerade weil die Sparkasse die Bank für alle ist .
Wenn die Sparkassen dies tun , dann können sie einen Beitrag zu einem fairen und vorurteilsfreien Übergang zu einer KI-gestützten Gesellschaft leisten .

Euer Kontakt beim Sparkassen Innovation Hub zu diesem Thema :

Jean-Philippe Tonyigah agency @ starfinanz . de
PRÄSENTIERT VON