Taylor Swift drohte Microsoft mit rechtlichen Schritten

Anzeige
Möbelier +++ fashion +++ Angebote

Taylor Swift versuchte, Microsoft daran zu hindern, den Spitznamen Tay für einen Chatbot zu verwenden, der sich in ein verkommenes rassistisches Trollschiff verwandelte, so ein neues Buch von Microsoft-Präsident Brad Smith.

Im März 2016 stellte Microsoft in den USA einen neuen Chatbot vor, der gebaut wurde, um mit jungen Erwachsenen und Jugendlichen über Social Media zu sprechen. Laut Smiths Buch Tools and Weapons, das von der Microsoft-Kommunikationsdirektorin Carol Ann Browne mitgeschrieben wurde, führte das Unternehmen den Bot ursprünglich als XiaoIce auf dem chinesischen Markt ein, wo er von Millionen von Menschen genutzt und in Bank-, Nachrichten- und Unterhaltungsplattformen integriert wurde.

„Der Chatbot scheint ein soziales Bedürfnis in China erfüllt zu haben, mit Benutzern, die typischerweise fünfzehn bis zwanzig Minuten damit verbringen, mit XiaoIce über ihren Tag, Probleme, Hoffnungen und Träume zu sprechen“, schrieben Smith und Browne. „Vielleicht erfüllt sie ein Bedürfnis in einer Gesellschaft, in der Kinder keine Geschwister haben?“

Als Microsoft sich jedoch entschied, es in Amerika auszuprobieren, war der KI-basierte Twitter-Bot, genannt Tay, nicht so erfolgreich. Der Bot wurde gebaut, um zu lernen, wie man durch Interaktion mit anderen auf Twitter spricht, und er veröffentlichte Antworten auf Tweets, basierend auf dem, was die Leute zu ihm sagten.

Jeder, der schon einmal auf Twitter war, weiß, dass es sich um ein zum Scheitern verurteiltes Experiment handelte. Tatsächlich haben Trolle Tay innerhalb von weniger als 24 Stunden nach seiner Freilassung verdorben. Wie The Verge damals schrieb: „Twitter lehrte Microsofts KI-Chatbot in weniger als einem Tag, ein rassistisches Arschloch zu sein.“

Ein in China beliebtes und scheinbar nützliches Tool scheiterte hier, weil Microsoft nicht erwartete, dass Amerikaner in sozialen Medien giftig und rassistisch waren.

Microsoft hat das Konto sofort heruntergefahren. Am nächsten Tag veröffentlichte das Unternehmen einen Blog, der sich für Tays ungebührliches Verhalten entschuldigte. „Wir bedauern zutiefst die unbeabsichtigten, offensiven und verletzenden Tweets von Tay, die nicht repräsentieren, wer wir sind oder wofür wir stehen, noch wie wir Tay gestaltet haben“, sagte der Beitrag.

Smith fügt hinzu, dass die Markenanwälte von Microsoft anderer Meinung waren, aber Microsoft war nicht daran interessiert, Swift zu bekämpfen, so dass das Unternehmen sofort damit begann, einen neuen Namen zu diskutieren. Er bezeichnete den Vorfall als bemerkenswertes Beispiel für „unterschiedliche kulturelle Praktiken“ in den USA und China.

Im Jahr 2018 startete der Bot als Zo, eine Version von Tay, die darauf trainiert wurde, sich mit Jugendlichen zu verbinden, aber auch darauf programmiert war, nicht über Politik, Rasse und Religion zu sprechen. Wenn du noch nie von Zo gehört hast, dann weil Zo langweilig ist.

Klingt, als hätten sie den Namen geändert, aber den Bot eher wie Taylor Swift gemacht. Microsoft weigerte sich, weitere Kommentare zu dieser Geschichte abzugeben. Swift hat auf eine Kommentaranfrage nicht reagiert.

Das könnte dir auch gefallen