KI eröffnet viele neue Möglichkeiten – auch der Finanzberatung. Doch was, wenn es bei Daten, die die KI nutzt, ein Missverhältnis gibt? Welche Auswirkungen kann das haben und auf wen? Am Beispiel des Gender Data Gap erklärt Female Finance Forum, was passieren kann und was jeder einzelne tun kann.
Artikel von:
Claudia Müller
Gründerin und CEO von Female Finance Forum
Schöne neue Welt der künstlichen Intelligenz (KI): Der Einsatz von KI in der Finanzberatung verspricht eine effektivere Nutzung von Daten, eine personalisierte Kundenbetreuung und eine schnellere Reaktion auf sich verändernde Marktbedingungen. Doch Vorsicht! Die Daten, die KI und verwandte Technologien nutzen, um ihre Arbeit zu tun, sind nicht so lupenrein, wie sie sein sollten. Verantwortlich dafür ist u. a. der Gender Data Gap oder die Geschlechterdatenlücke.
Der Gender Data Gap und seine Folgen
Der Gender Data Gap bezeichnet das Missverhältnis in der Datenerfassung und -analyse in Bezug auf Geschlechter. „Big Data“ wird von KI mithilfe von Algorithmen ausgewertet und den Datenmassen wird ein „Sinn“ gegeben. Und genau an dieser Stelle wird es spannend: Die Daten, die herangezogen werden, sind überwiegend männlich geprägt, der Standard ist der Mann, die Frau die Normabweichung. Das sickert ein und vervielfältigt sich. So wurden bei Amazon in einem automatisierten Bewerbungsverfahren Frauen als ungeeignet aussortiert, weil die Maschine analysiert hatte, dass die ausgewählten Kandidaten der vergangenen zehn Jahre größtenteils männlich waren.
Problematisch, weil vorurteilsbehaftet, sind aber nicht nur die Daten selbst, sondern auch die zugrundeliegenden Algorithmen, die die Daten interpretieren und die u. a. auch in der Finanzberatung eingesetzt werden. Algorithmen sind nämlich nicht nur das Produkt der Datensätze, auf denen sie basieren, sondern auch der Menschen, die sie programmieren – und das sind immer noch hauptsächlich Männer. Selbst das Wort „Algorithmus“ geht auf einen Mann zurück, nämlich Muhammad ibn Musa al-Khwarizmi, ein persischer Mathematiker aus dem 9. Jahrhundert, dessen latinisierter Name letztendlich für die Bezeichnung eines festgelegten Rechenvorgangs verwendet wurde. Diese historische Verbindung verdeutlicht, wie tief verwurzelt männliche Perspektiven in der Entstehung und Entwicklung von Technologie schon immer waren.
Wenn Maschinen wie Männer denken
Aber zurück in die Gegenwart: Frauen greifen bislang weitaus seltener auf generative KI-Technologien wie z. B. ChatGPT zurück. 70% der Nutzer*innen von ChatGPT sind männlich. Auch in Bezug auf Finanzthemen nutzen Frauen wenig bis keine KI bei ihrer Recherche, was dazu führt, dass KI auch weiterhin männlich dominiert bleibt. Frauen nutzen KI also wenig(er) und bekommen u. a. dadurch schlechtere Ergebnisse, die ihre spezifischen Bedürfnisse nicht adäquat berücksichtigen.
KI in der Finanzberatung, etwa in Form von Chat Bots oder Robo-Advisors, wird größtenteils von Männern programmiert, was unweigerlich dazu führt, dass KI in Interface und Ausrichtung in erster Linie Männer anspricht. Wir kennen das Phänomen bereits aus der analogen Welt und finden die Fortführung nun in der digitalen. Das wiederum führt – wenig erstaunlich – dazu, dass KI-Technologien eher und lieber von Männern benutzt werden. Frauen nutzen KI (noch) weniger und bekommen u. a auch dadurch schlechtere Ergebnisse, die ihre spezifischen Bedürfnisse nicht adäquat berücksichtigen. Es ist ein Teufelskreis.
Diese Verzerrungen können sich auch auf die Anlageberatung auswirken. Wenn Algorithmen auf historischen Daten basieren, die auf Anlagepräferenzen und -strategien von Männern basieren, dann neigen sie dazu, Anlageempfehlungen vorzuschlagen, die besser für männliche Investoren geeignet sind. Außerdem haben Frauen in der analogen Vergangenheit schlechtere und teurere Finanzprodukte bekommen – diese Vergangenheit dient als Vorlage für die digitale Zukunft. Beides kann dazu führen, dass Frauen in der Finanzberatung weniger maßgeschneiderte und noch dazu schlechtere Ratschläge erhalten und somit benachteiligt werden.
Was können wir tun?
Diversity is key! KI ist kein Technologie- sondern ein Leadership-Thema. Sorgen Sie dafür, dass Teams, Chefetagen und alle entscheidungsbefugten Gruppen divers(er) werden und es auch bleiben. Je mehr Perspektiven an Entwicklungen und Entscheidungen beteiligt werden, umso inklusiver wird das Ergebnis ausfallen. Also stellen Sie als Mann nicht primär andere Männer ein, die die gleiche gesellschaftliche Erfahrung mit Ihnen teilen, sondern entscheiden Sie sich bewusst für gelebte Diversität in der Personalpolitik.
Werden Sie aktiv und nutzen Sie KI, vor allem als Frau! Je mehr weibliche Personen KI nutzen und Feedback geben, desto geschlechtersensibler wird die KI und somit inklusiver.
Nutzen Sie das Wissen um den Gender Data Gap! Wir können die Verzerrung in den Datensätzen nicht von heute auf morgen ausmerzen. Stellen Sie Fragen und bleiben Sie skeptisch. Schärfen Sie Ihren Blick für mögliche Vorurteile. Wir benötigen zuverlässige „Schleusen“, die die KI-generierten Ergebnisse passieren müssen, um etwaige Diskriminierungen aufzuspüren. Natürlich ist dies mit zusätzlicher Arbeit verbunden und auch ein komplexes Unterfangen, allerdings sollten wir den Mehraufwand an diesem Punkt, an dem wir aktuell mit KI stehen, nicht scheuen.
KI und verwandte Technologien sind gekommen, um zu bleiben und werden das Denken und Handeln der nächsten Jahrzehnte mitbestimmen. Unser Umgang mit KI steckt aktuell noch in den Kinderschuhen und es ist ganz ähnlich wie mit Kindern: Wenn wir ihnen jung unsere wichtigsten Werte beibringen, stehen die Chancen gut, dass sie diese verinnerlichen werden. Genauso sollten wir es mit KI handhaben.
zurück zur Übersicht
Beitrag speichern
sharing is caring
Das könnte Sie auch interessieren