Inklusive KI-Systeme aufbauen: So stellen Sie voreingenommene Benutzererfahrungen sicher

Apr 19 2023
Künstliche Intelligenz (KI) hat die Art und Weise verändert, wie wir mit Technologie interagieren. Von Sprachassistenten bis hin zu Chatbots werden KI-gestützte Systeme in unserem täglichen Leben allgegenwärtig.
Foto von Freepik

Künstliche Intelligenz (KI) hat die Art und Weise verändert, wie wir mit Technologie interagieren. Von Sprachassistenten bis hin zu Chatbots werden KI-gestützte Systeme in unserem täglichen Leben allgegenwärtig. Diese Systeme sind jedoch nicht immer unvoreingenommen und können schädliche Stereotypen und Diskriminierung verstärken. In diesem Beitrag untersuchen wir das Problem der Voreingenommenheit in KI-Algorithmen und wie man integrative KI-Systeme erstellt, die voreingenommene Benutzererfahrungen bieten.

Eines der bemerkenswertesten Beispiele für Verzerrungen bei KI-Algorithmen ist das KI-Rekrutierungstool von Amazon. Im Jahr 2018 wurde bekannt, dass das Tool, das den Personalvermittlern von Amazon helfen sollte, Top-Talente zu identifizieren, Frauen diskriminiert. Das System wurde mit Lebensläufen trainiert, die über einen Zeitraum von 10 Jahren bei Amazon eingereicht wurden und hauptsächlich von Männern stammten. Infolgedessen lernte das Tool, männliche Kandidaten zu bevorzugen und Lebensläufe herabzustufen, die Wörter enthalten, die häufig mit Frauen in Verbindung gebracht werden. Beispielsweise wurden Lebensläufe herabgestuft, die das Wort „Frauen“ enthielten (z. B. „Damenschachklubkapitän“), und Lebensläufe mit Wörtern wie „hingerichtet“ und „gefangen“ höher bewertet, die typischerweise mit männlich dominierten Feldern in Verbindung gebracht werden.

Dieses Beispiel verdeutlicht die Gefahren voreingenommener KI-Algorithmen und die Bedeutung des Aufbaus integrativer KI-Systeme. Hier sind einige Strategien zur Minderung von Verzerrungen in KI-Algorithmen:

  1. Diversifizieren Sie die Trainingsdaten: KI-Algorithmen lernen aus den Daten, mit denen sie trainiert werden. Wenn die Daten voreingenommen sind, wird der Algorithmus voreingenommen sein. Um unvoreingenommene Algorithmen zu erstellen, ist es wichtig, die Trainingsdaten zu diversifizieren, um sicherzustellen, dass sie ein breites Spektrum an Perspektiven enthalten.
  2. Führen Sie regelmäßige Audits durch: Regelmäßige Audits von KI-Systemen können dazu beitragen, Vorurteile zu erkennen und Diskriminierung zu verhindern. Audits sollten das Testen des Systems anhand verschiedener Datensätze und die Überwachung des Systems auf Anzeichen von Voreingenommenheit umfassen.
  3. Verschiedene Teams in die KI-Entwicklung einbeziehen: KI-Entwicklungsteams sollten vielfältig sein, um sicherzustellen, dass eine Reihe von Perspektiven in den Designprozess einbezogen werden. Dies kann dazu beitragen, Vorurteile zu vermeiden und sicherzustellen, dass das System inklusiv ist.
  4. Transparenz schaffen: Nutzer sollen darüber informiert werden, wie KI-Systeme funktionieren und wie Entscheidungen getroffen werden. Dies kann dazu beitragen, Verwirrung zu vermeiden und sicherzustellen, dass das System transparent ist.