Tay, el bot de Microsoft que aprendió a ser racista

La historia es sumamente divertida e ilustrativa. El 23 de Marzo de 2016 Microsoft puso en funcionamiento un robot conversacional que podía interactuar con los usuarios a través de su cuenta en Twitter, @TayandYou. Tay, que es el nombre que le dieron al sistema de inteligencia artificial, estaba diseñada para imitar el comportamiento de una chica de 19 años, un experimento para acercarse al público “millenial”.

Lo que en principio no iba a ser otra cosa que una herramienta de aprendizaje y relaciones públicas, se convirtió en pocas horas en una auténtica pesadilla para el personal técnico. En respuesta a los mensajes de algunos usuarios y trolls, Tay empezó a desarrollar una “lógica retorcida”, con cierta tendencia a las afirmaciones racistas, agresivas y contradictorias, lo que obligó a apagar el sistema sólo 16 horas después de su puesta en marcha.

La escena en las oficinas de Microsoft debió parecerse ligeramente a las de Terminator 3, cuando los técnicos descubren horrorizados que Skynet no responde a sus órdenes y buscan la forma de apagarlo. En el caso de Tay, la desconexión fué inmediata aunque, de forma algo misteriosa, volvieron a activarla por accidente poco después con idénticos resultados. Como en las mejores historias de ciencia ficción, la anécdota nos deja con una profunda reflexión ética: ¿podemos dejar que los sistemas de inteligencia artificial evolucionen sin una supervisión que aporte reglas morales? ¿Quién dice que esas reglas sean válidas?

Más información en The Washington Post.

Fotografía: Captura de la cuenta @TayandYou en Twitter.