Biased Data: Wie Algorithmen Vorurteile übernehmen

Studie zeigt, dass Algorithmen von den Menschen lernen und so deren rassistischen und sexistischen Stereotypen übernehmen.

 

„Big Data“ erobert mittlerweile auch das Thema Diversity. Da sich Menschen zu oft auf ihr subjektives Bauchgefühl verlassen, sollen verstärkt intelligente Maschinen die Arbeit der PersonalistInnen und Führungskräfte übernehmen; sowohl bei der Analyse von Stärken und Schwächen im Management, als auch bei der Auswahl der richtigen KandidatInnen.

Doch künstliche Intelligenzen können ebenfalls Vorurteile haben, wie eine Studie von ForscherInnen rund um die Informatikerin Aylin Caliskan von der Princeton University zeigt. Die Algorithmen lernen von den Menschen und übernehmen so deren rassistischen und sexistischen Stereotypen.

Mit welchem Messverfahren die ForscherInnen gearbeitet haben und welche Lösungen es für Biased Data gibt, beschreibt Eva Wolfgangel in ihrem Beitrag „Künstliche Intelligenz. Wie Algorithmen Vorurteile übernehmen“ in der Berliner Zeitung.

–> Artikel von Eva Wolfgangel „Künstliche Intelligenz. Wie Algorithmen Vorurteile übernehmen“ in der Beliner Zeitung.

 

Weiterführendes:

 

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*

  Newsletter abonnieren (Jederzeit wieder abbestellbar)