Als Algorithmic Bias (algorithmische Vorurteile) bezeichnet man den Umstand, dass KI in bestimmten Fällen systematisch Personen oder Personengruppen aufgrund ihrer ethnischen Zugehörigkeit, ihres Geschlechts oder anderer Merkmale diskriminiert.

Dass KI-Systeme durch Trainingsdaten lernen, welche die Basis für spätere Entscheidungen und Aktionen darstellen, weißt du bereits. Verzerren diese Daten die Realität oder beinhalten Vorurteile, kann das zu diskriminierenden Ergebnissen führen.

Beispielsweise können Bewerbungsauswahl-Tools, die auf historischen Einstellungsdaten trainiert wurden, die bestehenden Geschlechts- oder ethnischen Bias verstärken. Oder die KI-gestützte Gesichtserkennungssoftware erkennt dein Gesicht nicht, weil du afrikanische Wurzeln hast und das KI-Modell mit Bildern von weißen Menschen trainiert wurde - so geschehen bei Joy Buolamwini, die ihre Geschichte im folgenden Ted-Talk erzählt.

Quelle: https://www.youtube-nocookie.com/embed/UG_X_7g63rY?si=D8FV5ZqasIMkBsl

Es ist daher entscheidend, dass Trainingsdatensätze umfassend hinsichtlich ihrer Repräsentativität und Objektivität geprüft werden. Doch nicht nur die Trainingsdaten, sondern auch die Algorithmen an sich können zu diskriminierenden Ergebnissen der KI führen.

Die Gewährleistung ethischer Grundsätze in KI-Systemen, wie Fairness, Gerechtigkeit und Nicht-Diskriminierung, ist von zentraler Bedeutung, um zu verhindern, dass KI ein Treiber der gesellschaftlichen Spaltung wird (oder bleibt?). Hierbei spielen ethische Richtlinien für die Entwicklung und den Einsatz von KI eine Rolle, ebenso wie die Ausbildung von KI-Entwickler*innen in Ethik.

Das folgende Beispiel eines Münchner Studenten zeigt exemplarisch wie Algorithmen zu verzerrten und falschen Ergebnissen führen können.

 

Quelle: https://youtu.be/Wytg70jOh2A?si=FP0E8uYhWiQJgCpf

Weltweit arbeiten zahlreiche Forschergruppen an der Erarbeitung von gemeinsamen Regeln zur ethischen Entwicklung und Nutzung von KI.

Im Wesentlichen lassen sich diese zu folgenden fünf Punkten zusammenfassen:

  • -      Schadensvermeidung – KI soll der Menschheit dienen.
  • -      Transparenz und Erklärbarkeit – Es soll für Anwender*innen nachvollziehbar sein wie KI „denkt“ und zu seinen Ergebnissen kommt.
  • -      Verantwortung und Rechenschaft – KI kann nicht vor dem Gesetz zur Rechenschaft gezogen werden. Daher muss jeweils klar sein welche Person oder Organisation stattdessen die Verantwortung übernimmt.
  • -      Fairness, Gleichheit und Pluralität – Vermeidung von Bias und Diskriminierung
  • -      Respekt vor den Menschenrechten (insbesondere Datenschutz, IT-Sicherheit

Smart-Action: Ethik in der KI-Entwicklung 🤖

Stelle dir vor, du entwickelst eine KI-Anwendung. Welche Maßnahmen würdest du ergreifen, um sicherzustellen, dass sie ethisch korrekt ist? Welche Herausforderungen könnten dabei auftreten?

Quellen und Ressourcen


Zuletzt geändert: Freitag, 11. Oktober 2024, 13:59