KI: Risikoscheu durch Geschlechterrolle?

Eine neue Studie zeigt, dass KI-Modelle, die angewiesen werden, sich wie Frauen zu verhalten, häufig risikoscheuer agieren. Dies wirft Fragen nach der Reproduktion gesellschaftlicher Stereotype durch KI auf. Die Ergebnisse betonen die Notwendigkeit einer ethischen Reflexion im Umgang mit künstlicher Intelligenz.

Die Untersuchung zeigt, dass KI unbewusst Geschlechterstereotype übernehmen kann. Dies betrifft insbesondere die Risikobereitschaft, bei der „weibliche“ KI-Modelle eine deutlichere Aversion zeigen.

Ein weiteres Problem ist die Verstärkung von Stereotypen durch KI-basierte Bildgeneratoren. So erzeugt die Aufforderung „eine glückliche Familie“ häufig Bilder heterosexueller Paare, was bestehende Vorurteile verstärken kann.

KI birgt die Gefahr, Geschlechterungleichheiten zu zementieren. Dies kann sich in unterschiedlichen Bereichen zeigen, von der Gesichtserkennung bis hin zu Bewerbungsprozessen.

Frauen sind in der KI-Forschung und –Entwicklung unterrepräsentiert. Weltweit liegt der Anteil der Frauen in der KI-Forschung bei etwa einem Viertel. In Deutschland ist der Frauenanteil auf 26 % gestiegen.

Männer bewerten KI-Anwendungen oft positiver und schätzen ihre eigenen KI-Kompetenzen höher ein als Frauen. Eine OECD-Befragung ergab, dass 41 % der männlichen Beschäftigten KI nutzen, gegenüber 29 % der weiblichen.

Die Ergebnisse der Studie fordern eine Reflexion über die Reproduktion gesellschaftlicher Ungleichheiten. Ein inklusives Bildungsumfeld und Maßnahmen gegen Diskriminierung und Stereotype sind notwendig.

Verzerrte Datensätze und unausgewogene Entwicklungsteams können zu Gender Bias in KI führen. Die Förderung von KI-Kompetenz muss generationenübergreifend und geschlechtergerecht erfolgen.