Facebook recurre a la IA para prevenir suicidios

Katelyn Nicole Davis era una adolescente de 12 años que, a finales de 2016, puso fin a su vida frente al móvil, compartiendo el vídeo en live.me. Días después la grabación se difundía de forma viral en varias redes sociales, como Facebook, sin que sus administradores lo impidieran o retiraran los vídeos con celeridad.

Un par de meses después y tras varios incidentes similares, Facebook ha anunciado el lanzamiento de un sistema de detección de suicidios basado en algoritmos de inteligencia artificial, que detectan patrones en el comportamiento de los usuarios asociados a una conducta suicida. Cuando el sistema detecta una alarma, se notifica a un equipo de personas que estudian la cuenta de usuario para determinar su gravedad y actuar en consecuencia.

La red social no ha aclarado exactamente de qué forma actúa el sistema, más allá que la detección de expresiones o palabras clave en el texto y ninguna pista en los vídeos. Esta opacidad refuerza la sensación por parte de muchos analistas de que el movimiento no es más que una acción de marketing destinada a limpiar su imagen, muy dañada por la paradoja de sus directrices “morales”.

Por un lado, Facebook no duda en actuar de forma fulminante con cualquier usuaria que se atreva a mostrarse dando el pecho o tomando el sol en topless, pero se resiste a actuar cuando se trata de vídeos cómo este de un suicidio. En cualquier caso, la noticia saca de nuevo a escena el dilema de si las redes sociales deben “supervisar” el comportamiento de los usuarios.

Más información en Forbes.