top of page

Ist Künstliche Intelligenz rassistisch?: Kick off Veranstaltung für das "Yes She Can" Mentoring Programm

Nicht die KI-Modelle selbst rassistisch sind, sondern die Daten, mit denen sie trainiert werden


Am 7. Februar 2025 fand im Blackflowers Wien die Veranstaltung "Is AI Racist?" des "Yes She Can" Mentoring-Programms statt. Speaker*innen Oyidiya Oji, Policy und Advocacy Advisor beim Europäischen Netwerk gegen Rassismus und Dr. Ronke Babajide, die dieses Jahr Mentorin bei "Yes She Can" ist, beleuchteten die Frage, wie Künstliche Intelligenz (KI) gesellschaftliche Ungleichheiten und rassistische Vorurteile verstärken kann. Expertinnen diskutierten über die Auswirkungen von KI auf marginalisierte Gruppen und darüber, wie Technologie gerechter und inklusiver gestaltet werden kann.


Die Rolle von Daten und Vorurteilen in KI

Eine zentrale Erkenntnis der Veranstaltung war, dass nicht die KI-Modelle selbst rassistisch sind, sondern die Daten, mit denen sie trainiert werden. Ronke erklärte, dass die von uns bereitgestellten Daten die Gesellschaft widerspiegeln, in der wir leben. Ein Beispiel dafür ist ein AMS-Chatbot, der bei der Jobvermittlung stereotype Vorschläge machte, indem er Frauen und Männern unterschiedliche Berufsoptionen vorschlug. Solche Verzerrungen entstehen durch voreingenommene Datenquellen und mangelnde Überprüfung der Datengrundlage.

Oyidia verdeutlichte zudem, dass sich KI oft auf vergangene Daten stützt und bestehende gesellschaftliche Ungleichheiten zementiert. Ein Beispiel dafür ist die Polizeiarbeit, bei der verstärkt in marginalisierten Vierteln operiert wird, was die Verzerrung in Kriminalstatistiken verstärkt. Ebenso zeigt der niederländische Kinderbetreuungsskandal, dass fehlerhafte Algorithmen zu massiven sozialen Ungerechtigkeiten führen können, bei denen Tausende von Kindern ihren Eltern weggenommen wurden.



Der AI Act der EU und regulatorische Herausforderungen

Ein weiteres zentrales Thema war der AI Act der Europäischen Union. Dieser soll Hochrisiko-KI-Systeme regulieren und sicherstellen, dass sie ethischen Standards entsprechen. Oyidia betonte, dass es wichtig sei, sich aktiv in solche Prozesse einzubringen, da oft nur wenige Abgeordnete über die Thematik informiert sind und Konzerne Einfluss auf die Gesetzgebung nehmen.

Zudem wurde diskutiert, dass Frauen stärker von Deepfakes betroffen sind als Politiker, während die Regulierung sich vorrangig auf Letztere konzentriert. Ronke hob hervor, dass es essenziell ist, sich kritisch mit Technologie auseinanderzusetzen und hinter die Entscheidungen großer Unternehmen zu blicken, wie beispielsweise Googles Entwicklung von KI für das Militär.


Warum schwarze Frauen in der Tech-Branche gebraucht werden

Ein wichtiger Punkt war die Notwendigkeit, mehr schwarze Frauen in die Technologiebranche zu bringen. Viele Entscheidungen über die Zukunft von KI werden in Silicon Valley getroffen, oft ohne Berücksichtigung der Perspektiven marginalisierter Gruppen.

Ronke betonte, dass es nicht zwingend ein Studium benötigt, um in der Tech-Branche Fuß zu fassen. Vielmehr sei es entscheidend, Neugier und kritisches Denken mitzubringen. Die Tech-Welt bietet zahlreiche Karrieremöglichkeiten, und Generalisten können in vielfältigen Bereichen wertvolle Beiträge leisten.

Abschließend wurde deutlich, dass Technologie uns nicht nur beeinflusst, sondern auch aktiv von uns mitgestaltet werden kann. Daher ist es wichtig, eigene Plattformen und Technologien zu schaffen, die diverser und gerechter sind.



Would you be interested in more AI & Racial Bias Events

  • No

  • Yes




 

A Recap of the Yes She Can Information Event


On February 7, 2025, the "Yes She Can" mentoring program hosted the event "Is AI Racist?" at Blackflowers Vienna. Speakers Oyidiya Oji, Policy and Advocacy Advisor at the European Network Against Racism and Dr Ronke Babajide, who is a mentor at ‘Yes She Can’ this year explored how artificial intelligence (AI) can reinforce societal inequalities and racial biases. Experts discussed the impact of AI on marginalized groups and how technology can be developed in a fairer and more inclusive way.


The Role of Data and Bias in AI

One key takeaway from the event was that AI models themselves are not inherently racist, but the data they are trained on can be. Ronke explained that AI reflects the biases present in society, as seen in Austria’s AMS job recommendation chatbot, which reinforced gender stereotypes by suggesting different career paths for men and women.

Oyidia further elaborated that AI often relies on historical data, perpetuating existing societal inequalities. For example, policing data is often concentrated in marginalized communities, leading to biased crime statistics. The Dutch child welfare fraud case was another stark example, where biased algorithms led to over 15,000 children being wrongfully taken from their families.




The EU AI Act and Regulatory Challenges

Another central topic was the EU AI Act, which aims to regulate high-risk AI systems and ensure they comply with ethical standards. Oyidia emphasized the importance of active participation in policymaking, as only a small number of politicians are truly informed about AI, and corporate lobbying plays a significant role in shaping regulations.

Additionally, it was noted that while women are disproportionately affected by deepfakes, regulations have primarily focused on protecting politicians. Ronke highlighted the need for critical engagement with technology and awareness of corporate influence, citing Google’s recent development of AI for military purposes.


Why Black Women Are Needed in Tech

A major takeaway was the urgent need for more Black women in the tech industry. Many AI-related decisions are made in Silicon Valley, often without considering marginalized perspectives.

Ronke stressed that entering the tech world does not necessarily require a university degree—curiosity and critical thinking are just as important. The tech industry offers a wide range of career opportunities, and generalists can make significant contributions in various fields.

The event concluded with the key message that technology not only shapes our lives but can also be actively shaped by us. To create a more equitable digital future, it is crucial to develop AI tools that challenge existing biases and ensure greater diversity in technological decision-making.



 
 
 

Comments


bottom of page