Bot de Microsoft aprende y publica mensajes racistas


Como tal vez escucharon Microsoft desarrollo un bot conversacional que se basaba en un sistema de inteligencia artificial, siguiendo con esto despues del gran acierto Cortana.
En concreto, la compañía lo "alimentó" de conversaciones de gente entre 18 y 24 años con el fin de que aprendiera la forma que tienen estos usuarios de comunicarse en la red.

Tay comenzó a funcionar en Twitter pero, apenas un par de días después, Microsoft ha decidido "dormirlo" temporalmente. ¿El motivo? Hacer "algunos ajustes" después de que el bot, que "aprende" de sus interacciones con usuarios,se convirtiera en un bot racista que incluso llegó a publicar consignas nazis.



Entre los métodos que algunos usuarios probaron para hacer que Tay incorporara algunas palabras y frases a su vocabulario estaba el decirle al bot que "repitieran" lo que ellos decían. En otras ocasiones, y con lo "aprendido" por las conversaciones en privado, era el propio bot el que contestaba con frases como la que podéis ver sobre estas líneas o con otras como éstas.

Bot "castigado" sin Internet

Microsoft no tardó en reaccionar y comenzó a borrar algunos de los tweets más ofensivos, pero finalmente decidió pausar las respuestas por completo. "Desafortunadamente, durante las primeras 24 horas de estar online, detectamos un esfuerzo coordinado por parte de varios usuarios para abusar de las habilidades comunicativas de Tay y hacer que Tay responda de forma inapropiada", explican desde la compañía.

"Cuando más hables con él, más inteligente se vuelve Tay", dice el propio bot en su descripción de Twitter. El problema es que Tay, si bien implementa filtros para palabras malsonantes, no estaba preparado para algo muy importante: el lado más oscuro y "troll" de Internet.
SHARE

About Leonardo Quituisaca

    Blogger Comment
    Facebook Comment

0 comentarios:

Publicar un comentario