Hitler-Bot Tay: Microsoft sammelt Erfahrungen mit künstlicher Intelligenz

Microsofts künstliche Intelligenz Tay wurde vergangene Woche zum ersten Mal auf die Öffentlichkeit losgelassen – und das mit überraschendem Ausgang.

https://twitter.com/TayandYou/status/712832111191961600

Bei Tay handelt es sich um eine KI, die im Zuge von „Gesprächen“ (Chats) dazulernen und so nach und nach ihren Sprachschatz und ihre Persönlichkeit entwickeln soll. An sich eine coole Idee, wäre „das Netz nicht dunkel und voller witziger Trolle“.

https://twitter.com/RW_DeathSquid/status/712869353373433858

Diese hatten es sich zum Ziel gesetzt, aus Tay einen rassistischen Hitler-Bot zu machen. Die Idee kam an und so fütterten immer mehr User den Chatbot mit allerlei unsinniger, fieser und rassistischer Hetze, bis Tay ihre Persönlichkeit in einen extrem unliebsamen Gesprächspartner veränderte. Da wurde es Microsoft dann wohl zu viel und sie zogen Tay den digitalen Stecker und schickten diese erst mal ins Bett.

https://twitter.com/JackFromThePast/status/712834094040788996

Während Tay schlafen lag, hat Microsoft damit begonnen, die schlimmsten Hasstweets wieder zu löschen. Das löste dann einen weiteren Shitstorm gegen Microsoft aus. Denn Microsoft versuchte so, die Gefahren der künstlichen Intelligenz zu vertuschen. Dieses KI-Experiment habe in den Augen der Kritiker deutlich gezeigt, wie schnell ein selbst-lernendes KI-Konzept sich verselbstständigen und dann auch Schaden an Menschen anrichten kann – auch wenn es sich in dem Fall „nur“ um Beleidigungen handelte.

Quelle(n) :
Zurück zur Apple News Übersicht

Leser-Interaktionen

Was Denkst Du?