Tecnología

Microsoft suspende a su robot luego de tuits ofensivos

'Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada', dijo la compañía.Pero algo salió terriblemente mal.

FOTOGALERÍA
27.03.2016

Washington, Estados Unidos
OMG! ¿Escuchaste del programa de inteligencia artificial que diseñó Microsoft para chatear como una adolescente?

Pues fue suspendido por completo en menos de un día luego de que comenzó a difundir mensajes racistas, sexistas y ofensivos.

Microsoft dijo que todo era culpa de gente soez que emprendió un 'esfuerzo coordinado' para hacer que el chatbot conocido como Tay 'respondiera de forma inapropiada. A lo que un experto en inteligencia artificial respondió: ¡Dah!

Bueno, en realidad no dijo eso. Pero el científico computacional Kris Hammond si comentó: 'No puedo creer que no lo vieran venir'.

Microsoft comentó que sus investigadores crearon Tay como un experimento para saber más sobre computadoras y conversación humana. En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y 'diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida'.

En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. El chatbot fue lanzado el miércoles, y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

'Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada', dijo la compañía.

Pero algunos usuarios encontraron raras las respuestas de Tay, y aparentemente, otros encontraron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes ofensivos. Pronto, Tay estaba enviando mensajes de empatía a Hitler, y creando un furor en redes sociales.

'Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada', dijo Microsoft en un comunicado.

Respuesta del polémico invento
La frase 'Soy una buena persona... Lo que ocurre es que los odio a todos' es solo un ejemplo de los exabruptos generadas por el robot que acabaron por 'condenarlo' a desaparecer.

Los comentarios racistas le otorgaron a Tay la 'fama' de nazi, pero en realidad el robot se quedó 'totalmente confundido' en cuanto a Hitler. De hecho, si en un cometario afirmó que el 'führer' 'lo hizo todo bien', en otro dijo que no dudaría a la hora de matar a Hitler cuando solo era un recién nacido.

Foto: El Heraldo

Respuestas de Tay asegurando que Hitler no hizo nada malo, pero que si hubiera tenido la oportunidad lo hubiera matado cuando era un bebé.

Antisemita ferviente, el robot opinó que el Holocausto fue algo 'imaginado', y añadió que apoya el genocidio, sin especificar contra quiénes.

Foto: El Heraldo

Respuesta de Tay sobre el Holocausto.
Mientras tanto, su candidato presidencial predilecto parece ser Donald Trump ya que, según Tay, 'es la única esperanza que tenemos'.

Foto: El Heraldo

'Vamos a construir el muro y México tendrá que pagarlo'
Pero su odio hacia los mexicanos fue solo una faceta de la xenofobia de Tay, que cargó contra afroamericanos, judíos, feministas, e incluso contra sus interlocutores.

Foto: El Heraldo

Algunas de las ofensivas opiniones del robot.
Aunque la empresa no dio detalles, Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas.
Tay parece una versión de tecnología de 'llamada y respuesta', agregó Hammond, quien estudia inteligencia artificial en la Universidad Northwestern y también funge como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.

'Todo el mundo dice que Tay se convirtió en esto o que se volvió racista', dijo Hammond. 'No es verdad'. Con toda certeza, el programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron ver qué pasaría.

El problema es que Microsoft le dio rienda suelta a Tay en línea, en donde muchas personas consideran que es entretenido armar un alboroto. La compañía debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay, señaló Caroline Sinders, experta en 'analítica conversacional' y quien trabaja en robots de chat para otra empresa tecnológica (a la que solicitó no nombrar). Dijo que Tay era 'un ejemplo de mal diseño'.

En lugar de montar algunos lineamientos sobre cómo lidiaría el programa con temas controversiales, aparentemente Tay fue dejada a su suerte para aprender lo que se le dijera, añadió Sinders.

'Es realmente un buen ejemplo de aprendizaje de máquinas', dijo la experta. 'Aprende de retroalimentación. Eso significa que necesita mantenimiento constante'.

Sinders espera que Microsoft vuelva a lanzar el programa, pero solo después de 'realizarle mucho trabajo'.

Microsoft anunció que 'hace ajustes' a Tay, pero no detalló una posible fecha para su regreso. La mayoría de los mensajes en su cuenta de Twitter ya habían sido borrados para la tarde del jueves.