Biases in Künstlicher Intelligenz (KI) entstehen durch fehlerhafte Daten und/oder deren Verarbeitung. Diese können Diskriminierungen von bestimmten Personengruppen oder Minderheiten verstärken.
Künstliche Intelligenzen wurden über die letzten Jahre in zahlreichen Bereichen implementiert, von Sprach- und Gesichtserkennung, bis in die Rechtsprechung und Medizin. Eingesetzt immer auch mit der Hoffnung, auf diese Weise dem Menschen innewohnenden Vorurteile und kognitiven Verzerrungen ein Gegengewicht zu bieten. Schließlich sieht eine Maschine keinen Unterschied zwischen Schwarz und Weiß, Mann und Frau, oder Jung und Alt, zumindest sieht eine Maschine diese Unterschiede solange nicht, bis wir ihr „beibringen“ ihn zu sehen.
Fehlerhafte KI in der Gesundheitsversorgung
Um die Gesundheitsversorgung möglichst effektiv zu gestalten, kommt in den USA eine KI zum Einsatz, welche Patient*innen mit besonderem Pflegebedarf identifiziert. Eine im Oktober 2019 veröffentlichte Studie zeigt allerdings auf, dass Afroamerikaner*innen bei gleicher Krankheitsschwere, seltener für extra Pflege vorgeschlagen wurden als Weiße. Tatsächlich hätte eine KI ohne Bias, die doppelte Anzahl von Afroamerikaner*innen mit besonderem Pflegebedarf ausweisen müssen. Wie kam eine eigentlich „farbenblinde“ KI zu solchen Ergebnissen?
Der Algorithmus dieser KI definierte das Risiko der Patient*innen, als die zu erwartenden Kosten der weiteren Behandlung. Da aufgrund diverser Faktoren der US-amerikanische Staat weniger Geld für die Behandlung von Afroamerikaner*innen ausgibt, wurden die Kosten und somit auch das Risiko für Angehörige dieser Ethnizität als geringer eingeschätzt (Obermeyer et al., 2019).
„Garbage In – Garbage Out“ – Wie der Bias in den Algorithmus kommt
An dem oben angeführten Beispiel in der Gesundheitsversorgung wird deutlich, wie zentral die Daten sind, anhand derer KIs trainiert werden. Es ist schwierig Daten aus der Vergangenheit zu gewinnen, welche nicht durch menschliche Biases verzerrt sind. Solch verzerrte Trainingsdaten, werden unter Bezug auf ihre Zusammensetzung, auch als WEIRD Samples (western, educated, industrialized, rich and democratic societies) bezeichnet.
Durch WEIRD Samples kam es z.B. im Falle Amazon dazu, dass eine zur Bewertung von Bewerber*innen eingesetzte KI hauptsächlich weiße Männer zur Einstellung vorschlug, da diese in der Vergangenheit am häufigsten erfolgreich in der Firma arbeiteten (Ming, 2019).
Komplexe Konstrukte, wie jenes des Krankheitsrisikos, sind nur schwer anhand von einzelnen quantifizierbaren Variablen zu definieren. Programmiersprachen eignen sich nur bedingt dazu, komplexe soziale Fragestellungen adäquat zu formulieren und zu bearbeiten.
Ein weiteres Problem ist die fehlende Diversität auf Seite der Entwickler*innen. Nur 10% der Angestellten im KI-Bereich von Google sind Frauen und gar nur 2,5% bzw. 3,6% sind Afroamerikaner*innen bzw. hispanischer Herkunft (West et al., 2019).
Der KI die Augenbinde anlegen
Eine der größten Herausforderungen diesen Verzerrungen bei KIs zu begegnen, ist die Schwierigkeit, den zugrundeliegenden Algorithmus einsehen zu können. Da es sich bei diesen Algorithmen um patentrechtlich geschützte Inhalte handelt, widerspricht deren Offenlegung dem Geschäftsmodell der meisten Hersteller. In diesem Zusammenhang wird von der KI als Blackbox gesprochen. Besonders problematisch ist diese fehlende Transparenz, wenn es um KIs geht, welche staatlich eingesetzt und bei schwerwiegenden Entscheidungen im Leben von Menschen herangezogen werden.
Um dieser „Blackboxproblematik“ entgegenzutreten, haben Wissenschaftler von IBM ein System entwickelt, mit dessen Hilfe KIs auf mögliche Verzerrungen getestet und bewertet werden können, ohne auf den dahinterliegenden Algorithmus zugreifen zu müssen (Srivastava & Rossi, 2018).
Des Weiteren gilt es mehr Frauen und Minoritäten in die Herstellung von KIs einzubinden. Zu diesem Zweck wurden bereits Organisationen, wie „Women in AI“und „Equal AI“ gegründet.
Während kognitiven Verzerrungen und Biases beim Menschen evolutionär bedingt und teilweise schwer zu unterbinden sind, scheint es bei KIs um einiges leichter diese Verzerrungen zu korrigieren. So wurde bereits innerhalb der Studie, zur oben genannten KI im Gesundheitssystem, ein Prototyp ohne diese Verzerrung fertiggestellt. In diesem Sinne scheint es also durchaus möglich, dass in Zukunft KIs tatsächlich zu einer fairen Welt für uns alle beitragen können.
Weiterführendes
- Hao, K. (2019). This is how AI bias really happens—and why it’s so hard to fix. Abrufbar unter: https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/
- IBM (2018): Bias in AI: How we Build Fair AI Systems and Less-Biased Humans. Abrufbar unter: https://www.ibm.com/blogs/policy/bias-in-ai/
- Initiative Women in AI – https://www.womeninai.co
- Initiative EqualAI – https://www.equalai.org/
- Ming, V. (2019). Human insight remains essential to beat the bias of algorithms. Financial Times. Abrufbar unter: https://www.ft.com/content/59520726-d0c5-11e9-b018-ca4456540ea6
- Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453.
- Mullainathan, S. (2019). Biased Algorithms Are Easier to Fix Than Biased People. The New York Times: Abrufbar unter: https://www.nytimes.com/2019/12/06/business/algorithm-bias-fix.html
- Srivastava, B., & Rossi, F. (2018). Towards Composable Bias Rating of AI Services. Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society – AIES ’18, 284–289.
- West, S.M., Whittaker, M. and Crawford, K. (2019). Discriminating Systems: Gender, Race and Power in AI. AI Now Institute. Abrufbar unter: https://ainowinstitute.org/ discriminatingsystems.html.