Wie Sie die kognitive Voreingenommenheit in Ihrem KI-System unter Kontrolle bringen können

Wie Sie die kognitive Voreingenommenheit in Ihrem KI-System unter Kontrolle bringen können



Im Laufe der Jahre hat künstliche Intelligenz eine Vielzahl an Lösungen für unseren alltäglichen Herausforderungen geliefert. So sind Sprachassistenten wie etwa Alexa und Siri zum Beispiel inzwischen recht gut darin, die natürliche, menschliche Sprache richtig zu interpretieren und präzise sowie zielgerichtete Informationen bereitzustellen.

Der Einsatz von KI-Systemen hat sich jedoch nicht nur im privaten Bereich, sondern auch im Unternehmensumfeld zu einem echten Game Changer entwickelt. KI-basierte Tools sind heute in der Lage, sowohl eigenständig Entscheidungen zu treffen als auch Menschen dabei zu unterstützen, fundierte Entscheidungen zu treffen, und damit gesamte Arbeitsabläufe zu verändern.

Dabei gilt jedoch Folgendes zu bedenken: Maschinen sind nur so intelligent, wie es ihre Algorithmen und Datensätze zulassen. Trainingsdaten und die daraus resultierenden Aktionen beruhen nämlich auf Erfahrungen der Menschen die sie erstellt haben. Ihre Ansichten über den Gegenstand einer Handlung spiegeln sich in den Trainingsdaten und damit auch in den Entscheidungen der Systeme und Maschinen wider. Die "Voreingenommenheit" der KI wird also durch das Training erworben. Wenn die Voreingenommenheit in der Entwicklungsphase nicht entsprechend berücksichtigt wird, wird die Maschine sie übernehmen.

Mit anderen Worten: Wenn wir KI-Systeme wirklich intelligent machen wollen, müssen wir ihr Lernverhalten so transparent wie möglich gestalten und jede mögliche Verzerrung oder Voreingenommenheit minimieren. Je mehr Maßnahmen und Techniken wir entwickeln, um die Übertragung unserer Vorurteile zu minimieren, desto zuverlässiger kann die KI agieren. Um einem KI-basierten System eine möglichst neutrale Ausgangsbasis zu geben, sollten CEOs und Unternehmensleiter die folgenden vier Fragen berücksichtigen:

  1. Welches Problem soll das KI-basierte System lösen?

  2. Ist die Qualität der Trainingsdaten gut/hoch/relevant?

  3. Gibt es eine Vielfalt unter den Projektmitarbeitern und ihren Aufgaben?

  4. Haben wir Vorkehrungen für eine kontinuierliche Messbarkeit und Optimierung getroffen?

 

Mehr dazu im Forbes-Beitrag „How To Help Tame Cognitive Bias In Your AI System” von Daniel Fallmann.