Biases in Künstlicher Intelligenz (KI) können Diskriminierungen von bestimmten Personengruppen oder Minderheiten verstärken.

Biases in Künstlicher Intelligenz (KI) können Diskriminierungen von bestimmten Personengruppen oder Minderheiten verstärken.
Oft gehen wir davon aus, dass zwei Köpfe einfach klüger sind als einer, doch Gruppendenken lässt uns oft falsche Entscheidungen treffen.
Aussagen von Expert*innen und Vorgesetzen werden oft ungefiltert übernommen und nicht hinterfragt.
Ein Blick auf die empirische Forschung und das Pronomen Hen in Schweden.
Völlig irrelevante und willkürliche Informationen können unsere Entscheidungen und Urteile manipulieren, ohne dass uns das bewusst ist.
Eine Methode aus der Motivationsforschung hilft stereotype Verhaltensweisen durch Selbststeuerung zu verändern
Die Perspektivenübernahme ist eine effektive Möglichkeit automatische Stereotype hintenanzustellen und eine bewussten Auseinandersetzung einzuleiten
Studien zeigen, „kontrastereotype Gedanken“ können automatische Stereotype reduzieren.
In der Rechtssprechung werden vermehrt Algorithmen eingesetzt – doch erste Studien zeigen, dass diese insbesondere in Bezug auf Ethnien Fehler machen.