Little Mix-Star wirft Künstlicher Intelligenz von Microsoft Rassismus vor
Der Softwarekonzern Microsoft kündigte Ende Mai zahlreiche Journalisten der MSN-Website und ersetzte sie durch Künstliche Intelligenz. Dieser ist nun ein peinlicher Fehler unterlaufen.
Der Software wird nun Rassismus unterstellt.
Künstliche Intelligenz von Microsoft rassistisch?
Wie der Guardian berichtet, passierte der künstlichen Intelligenz von Microsoft nun ein peinlicher Fehler. Einen Bericht über die Erfahrungen der schwarzen Little-Mix-Sängerin Jade Thirlwall mit Rassismus bebilderten sie mit einem Foto ihrer ebenfalls schwarzen Bandkollegin Leigh-Ann Pinnock. Thirlwall selbst beschwerte sich über diese Verwechslung auf Instagram. Sie ärgere sich darüber, dass Microsoft in einer Gruppe von vier Mitgliedern die einzigen zwei schwarzen Frauen nicht unterscheiden könne, schrieb die Sängerin. Diese Art von Verwechslung passiere den beiden Bandkolleginnen ständig, erklärte sie in ihrer Instagram-Story. „Werdet besser“, forderte sie die MSN-Plattform auf.
Was die Sängerin aber vielleicht nicht weiß, ist, dass die Seite nicht von Menschen, sondern eben seit Neuestem von einer Künstlichen Intelligenz kuratiert wird. Noch bis Ende Mai waren zwar Journalisten dafür zuständig, Artikel von anderen Websites zu selektieren, mit neuen Bildern zu versehen und zu posten. Das Unternehmen hat den Großteil von ihnen aber nun mit einer Künstlichen Intelligenz ersetzt. Auf die Frage des Guardian, ob die KI-Software schwarze Menschen nicht unterscheiden könne und ob solche rassistischen Vorurteile auch in Microsoft-Software vorhanden seien, die man an Unternehmen verkaufe, erklärte der Konzern: „Sobald wir auf das Problem aufmerksam wurden, haben wir sofort reagiert und das falsche Bild ausgetauscht.“
Microsoft wies Redakteure an Berichte zu entfernen
Laut Guardian unterrichtete das Unternehmen aber die restlichen Redakteure von msn.com, dass man einen negativen Artikel über die KI erwarte. Weil die Software auch die Meldungen über den eigenen Fehler als interessant erachten könne, wies Microsoft die übrigen Redakteure an, die Berichte in diesem Fall zu entfernen. Zudem sei es möglich, dass die KI nach einer Löschung erneut versucht, einen Bericht zu dem Thema aufzugreifen. Microsoft, so erklärte ein Redakteur anonym, sei „sehr besorgt“, dass der KI-Abteilung vor allem im Lichte der aktuellen Proteste gegen Rassismus ein schwerer Imageschaden drohe.
Es ist nicht die erste negative Erfahrung Microsofts mit künstlicher Intelligenz. Denn bereits 2016 musste das Unternehmen seinen Chatbot Tay abstellen, nachdem dieser andere User auf Twitter rassistisch beleidigt hatte.