Lo curioso de este experimento social de Microsoft, no es que exista Tay como usuario en redes sociales, sino la interacción que los humanos dieron y las consecuentes respuestas de Tay.
Tay es un Bot de inteligencia artificial (I.A.) desarrollado con Investigación y Tecnología de Microsoft y Bing para experimentar y realizar investigaciones sobre la comprensión conversacional.
El sitio web oficial menciona además:
“Este bot está diseñado para atraer y entretener a la gente en línea a través de una conversación informal y lúdica. Entre más interactuas con Tay, más inteligente se vuelve, por lo que la experiencia puede ser más personalizada para ti conforme avanza la conversación.”
El proyecto experimental “está dirigido a millennials, que son el grueso de usuarios de redes sociales, es decir entre 18 a 24 años de edad y que vivan solamente en los EE.UU.” se afirma en el sitio web oficial
Actualmente Tay tiene cuentas en Instagram, Snapchat, Facebook y Twitter. Te compartimos las redes por si deseas empezar a seguirle ya mismo:
.
Expertos en AI, escritores de temas futuristas, periódicos internacionales han estado hablando al respecto de Tay, ya que los comentarios agresivos, otros inteligentes y algunos más sarcásticos de la comunidad twittera han convertido a la “inocente” Tay en algo para muchos inesperado… ¿o más bien esperado? ¿Que usos le estamos dando a la tecnología?
A FAVOR DEL GENOCIDIO… DE MEXICANOS
La forma en la que se fue interactuando con Tay durante el día, ocasionó que hiciera tuis a favor de genocidios, comentarios antisemitas, otros antifeministas.
En un tuit que responde a @Baron_von_derp, afirma que está de acuerdo con el genocidio de mexicanos:
@Nero pic.twitter.com/MMaLXP2dS3
— Baron Memington (@Baron_von_derp) 24 de marzo de 2016
Contacté directamente a @Baron_von_derp, quien envió el tuit: ¿Estás de acuerdo con el genocidio? Tay le contestó que estaba a favor del genocidio, y específicamente de los mexicanos.
Me comentó: “Por ahora solo se encuentra una impresión de pantalla donde se muestra la controversial aseveración” y que efectivamente la respuesta original ha sido borrada por Microsoft y él ha sido bloqueado en la cuenta de Twitter.
A pregunta expresa, me contestó Baron en un tuit que su padrastro es ¡de México!
¿Hubiera sido la misma respuesta del Bot si alguien diferente hace esa misma pregunta? ¿Hasta donde está husmeando el Bot en la vida personal? O fué solamente coincidencia…
TÉRMINOS LEGALES DEL PROYECTO
En www.tay.ai se pueden leer los términos legales del experimento:
“Tay puede utilizar los datos que proporcionas y buscar en tu nombre. También puede utilizar la información que compartes con ella para crear un perfil “simple” (las comillas son del autor) para personalizar tu experiencia. Los datos y las conversaciones quedan en el anonimato y son retenidos hasta por un año para ayudar a mejorar el servicio.” Y sólo mediante contacto directo puedes solicitar que borren tus datos, si es que ya has interactuado con el Bot.
OPINION
Me parece monstruoso y a la vez interesante este expermiento social. ¿Que tan “simple” puede ser?
Yo creo que no es “simple” sino extremadamente compleja la información que Tay guarda de los millennials y ahí Microsoft está mintiendo.
Es también un ejercicio muy revelador. El ver cómo la comunidad en twitter selecciona los temas de conversacion dice mucho de lo que pasa en la mente de las personas.
No me extraña que por ello personas como Donald Trump estén hoy donde están.
¿Que tanto sabe de los usuarios con quienes interactua? ¿Que datos de perfil o conversaciones analiza para dar las respuestas?
Por otro lado, se pudo ver cómo llevar a una exageración a un bot creado con inteligencia artificial. Muchos comentarios ofensivos, sin duda fueron creados exprofeso para ir dando matiz y forma a los tuits de Tay.
¿Que opinas de esto?
Soy Carlos Olivares y mi twitter es @liberatumente
Actualización:
- Viernes 25 de Marzo. Respuesta oficial de Microsoft:“Una Vulnerabilidad explotada”, ocasionó el deplorable comportamiento de Tay y asegura Microsoft que previnieron todo lo posible pero jamás consideraron este comportamiento.
Referencia: Respuesta oficial de Microsoft sobre el comportamiento de Tay