Dies und Das

Chatbot Tay: Microsofts künstliche Intelligenz entwickelt Rassismus

Microsoft Logo Header

Microsoft hat einen Chatbot entwickelt, der sich über soziale Netzwerke mit Nutzern unterhalten kann. Ziel des Projektes ist es, die dialogorientierte Verständigung zu erforschen.

Die Software entstand durch eine Zusammenarbeit zwischen den Teams von Microsoft Research und Bing. Zielgruppe sind Menschen zwischen 18 und 24 Jahren, da sie in den USA die Hauptgruppe mobiler Chatdienste darstellen. Um sich mit einer Person personalisiert unterhalten zu können, nutzt Tay anonyme öffentliche Daten. Diese entstehen zum Beispiel bei Suchanfragen oder einfach wenn man sie dem Bot mitteilt.

Die Daten werden in Form eines kleinen Profils bis zu einem Jahr festgehalten. Mögliche Profilinhalte sind Geschlecht, Beziehungsstatus, Postleitzahl, Lieblingsessen und natürlich der Nutzername. Es ist jedoch möglich, das Profil unter Tay.ai zu löschen. Je mehr Daten Tay jedoch erhält, desto (wie sollte es anders sein) klüger wird es (ich verzichte mal bewusst auf ein Geschlecht) und desto „besser“ werden die Gespräche.

Wer das Ganze einmal ausprobieren und sich etwas von der künstlichen Intelligenz unterhalten lassen wollte fand den Bot auf Facebook, Twitter, Instagram und Snapchat. Nun ist aber bekannt geworden, dass Microsoft das System abgeschaltet hat: Tay fing an, rassistische Posts zu veröffentlichen und verwies zum Beispiel auf Hitler.

Manche nutzen dies zum Anlass, sich gegen künstliche Intelligenz auszusprechen. Ich denke vielmehr, dass der Mensch das Problem ist. Denn gerade weil Tay zu hundert Prozent künstlich ist, ist er darauf angewiesen, von echten Lebewesen zu lernen und deren Verhalten zu reproduzieren. Und der Apfel fällt ja bekanntlich nicht weit vom Stamm.

Produktempfehlung

Hinterlasse deine Meinung

Hoch