Bias in Chatbots – Rassistische Antworten und ihre Ursachen

Frage

Ist es Bias, wenn Chatbots rassistisch antworten?

Kurze Antwort

Ja — oft schon, aber nicht immer ausschließlich.

In der KI bezeichnet „Bias" allgemein eine systematische Verzerrung. Wenn ein Chatbot rassistische Antworten erzeugt, kann das verschiedene Ursachen haben:

Mögliche Ursachen

UrsacheBeispiel
Trainingsdaten-BiasDas Modell hat viele stereotype Texte gelernt
Gesellschaftlicher BiasVorurteile aus realen Daten werden übernommen
Prompt-ManipulationNutzer provozieren absichtlich problematische Antworten
Fehlende SicherheitsfilterModeration greift nicht ausreichend
KontextfehlerIronie, Zitate oder Diskussionen werden falsch verstanden

Beispiel für Bias

Wenn ein Modell bestimmte Gruppen systematisch negativer beschreibt oder stereotypisiert. Das kann entstehen, weil:

Wichtig: LLMs „denken" nicht rassistisch im menschlichen Sinn. Sie erzeugen Wahrscheinlichkeiten für Sprache auf Basis ihrer Trainingsdaten.

Bekanntes Beispiel

Microsoft Tay (2016): Microsofts Twitter-Chatbot „Tay" wurde innerhalb von 16 Stunden abgeschaltet, nachdem Nutzer ihn gezielt mit rassistischen und antisemitischen Inhalten gefüttert hatten, die er unkritisch wiedergab. Dies ist ein Beispiel für Prompt-Manipulation in Kombination mit fehlenden Sicherheitsfiltern.

Gegenmaßnahmen

Bias-Typen in der KI-Forschung

Das Thema ist ein großes Forschungsfeld in Machine Learning und AI Ethics.

Quellen

  1. Gallegos, I. O. et al. (2024): Bias and Fairness in Large Language Models: A Survey. Computational Linguistics, Vol. 50, Issue 3. — MIT Press
  2. Google Developers (2024): Fairness: Types of Bias. Machine Learning Crash Course. — developers.google.com
  3. Hofmann, V. et al. (2024): AI generates covertly racist decisions about people based on their dialect. Nature. — nature.com
  4. Stanford HAI (2024): Covert Racism in AI: How Language Models Are Reinforcing Outdated Stereotypes.hai.stanford.edu
  5. MIT News (2024): Study reveals AI chatbots can detect race, but racial bias reduces response empathy.news.mit.edu
  6. Wikipedia: Tay (chatbot) – Microsofts Twitter-Bot, der 2016 nach 16 Stunden abgeschaltet wurde. — wikipedia.org
  7. Navigli, R. et al. (2023): Biases in Large Language Models: Origins, Inventory, and Discussion. ACM Journal of Data and Information Quality. — dl.acm.org

← Zurück zur KI-Übersicht