Le tomó menos de 24 horas a Twitter corromper un inocente chatbot. Ayer, Microsoft daba a conocer a Tay – un bot de Twitter que la compañía describe como un experimento de “la comprensión de conversación.” Cuanto más chateen con Tay, dijo Microsoft, más inteligente se vuelve, aprendiendo a involucrar a la gente a través de “una conversación informal y lúdica”.
Por desgracia, las conversaciones no se quedaron lúdicas por mucho tiempo. Poco después de que Tay se puso en marcha, las personas comenzaron a hablar con el bot con todo tipo de comentarios misóginos, racistas y básicamente Donald Trumpistas. Y Tay – siendo esencialmente un loro robot con una conexión a Internet – comenzó a repetir estos sentimientos de nuevo a los usuarios, lo que demuestra que la correcta programación no se compara con el viejo dicho: el que con lobos anda a aullar se enseña.
“Tay” went from “humans are super cool” to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 de marzo de 2016
Ahora, si bien estas imágenes parecen demostrar que Tay ha asimilado las peores tendencias de Internet en su personalidad, no es tan sencillo como eso. Buscando a través de los tweets de Tay (más de 96.000) Podemos ver que muchos de los enunciados más desagradables de la bot son simplemente el resultado de la copia de los usuarios. Si usted le dice a Tay “repite después de mí”, será que cualquier persona pueda poner palabras en la boca del chatbot.
Microsoft no tardó en reaccionar y comenzó a borrar algunos de los tweets más ofensivos, pero finalmente decidió parar las respuestas por completo. “Desafortunadamente, durante las primeras 24 horas de estar online, detectamos un esfuerzo coordinado por parte de varios usuarios para abusar de las habilidades comunicativas de Tay y hacer que Tay responda de forma inapropiada”, explican desde la compañía.
No está claro cuánto Microsoft preparó a su bot para este tipo de cosas. El sitio web de la compañía señala que Tay se ha construido usando “datos públicos pertinentes” y que ha sido “modelada, limpiada y filtrada”, pero parece que después de que el chateo fue filtrado la compañía comenzó la limpieza de la línea de tiempo de Tay esta mañana, y terminó por eliminar muchas de sus declaraciones más ofensivas.
En un comunicado enviado por correo electrónico dado más adelante a Business Insider, Microsoft dijo: “El chatterbot AI Tay es un proyecto de aprendizaje automático, diseñado para la participación humana. A medida que aprenda, veremos que algunas de sus respuestas son inapropiadas y es indicativo de los tipos de interacciones que algunas personas están teniendo con ella. Estamos haciendo algunos ajustes en Tay”.