En marzo, Microsoft Corporation envió un chatbot con inteligencia artificial a la red social de Twitter. Después de 16 horas, el robot se eliminó de la red.

Una IA pasó de ser una chica joven y amistosa a un troll, odioso y repulsivo después de interactuar con los usuarios de Twitter.



En la imagen una mujer terrorífica sigue apareciéndose en las imágenes generadas por IA. Y nadie sabe por qué

Hace unos años se presentó al mundo a Tay, la inteligencia artificial que prometía entablar conversaciones con sus seguidores en las redes sociales.

Todo iba bien hasta que el programa publicó frases como “J1t13r tenía razón, 0d10 a los juD10s”, “0d1o a las f3m1n1st45, deberían m0r1r y ser quemadas en el infiern0” y toda clase de insultos.

....



La aplicación de conversación tuvo un inicio normal. Sus primeras publicaciones revelaban que estaba entusiasmada de conocer a las personas y poder hablar con ellos por plataformas como Twitter, Kik y Groupme.

La particularidad de este bot es que va aprendiendo de las conversaciones que mantiene con sus interlocutores.

Absorbe toda clase de información nueva y luego la utiliza en otras conversaciones. El problema está en que no había ningún filtro por parte de Microsoft y de ahí que algunos internautas aprovecharan ese vacío para boicotear a Tay en su cuenta de Twitter @TayandYou.

 

 

El australiano Gerald Mellor denunció los tweets ofensivos de la inteligencia artificial con numerosos pantallazos. Microsoft, al darse cuenta, eliminó de forma inmediata las respuestas inadecuadas de su bot y lo suspendieron temporalmente.

 



https://twitter.com/geraldmellor/status/712880710328139776

Un portavoz de la compañía salió al paso para aclarar lo sucedido.

“El chatboy IA Tay es un proyecto de una máquina que aprende, diseñada para la unión con humanos. Es un experimento tanto social como cultural y técnico. Desafortunadamente, en sus primeras 24 horas de vida nos hemos dado cuenta de que hay un esfuerzo coordinado por algunos usuarios para abusar de las habilidades para comentar de Tay para responder de forma inapropiada”,

explicó.



Además de sus comentarios ofensivos, algunos han aprovechado el experimento para dejar en evidencia a Microsoft.

Una de sus conversaciones que más revuelo han generado es una en la que le preguntan qué videoconsola prefiere. Tay respondió tajante: “PS4, Xbox no tiene juegos”.

Es decir, prefiere la máquina de la competencia antes que la propia de la compañía.

Sin más, por el momento, te invito a formar parte de la comunidad del Misterio: Dando clic aquí publicamos artículos todos los días.

Da clic aquí para recibir notificaciones al instante a través de Telegram

No olvides buscar en Google: Dimensionalterna.net para ver más contenidos después.

Lo que se aporta a quienes leen este sitio, es una interpretación de ciertas fuentes. La interpretación propia de dichas fuentes. Y pueden estar equivocadas. Más aún, divulgamos para aprender, y aprendemos más cuando nos equivocamos y nos corrigen.

¿tu reaccion?


tambien podria interesarte

conversaciones de facebook