Hoy

Facebook: La IA no es tan inteligente con las menciones de odio

No hay comentarios | Publicado el lunes 18 de octubre

Facebook sigue en el centro de la polémica por sus políticas de uso de datos de usuarios y por el control de lo que se dice en su plataforma. Un nuevo artículo publicado por The Wall Street Journal lo puso en evidencia.

La nota señala que la Inteligencia Artificial (IA) de la red de Marck Zuckerberg  apenas es capaz de eliminar una parte mínima del contenido que incita al odio en su plataforma. Según el artículo, sus algoritmos no pueden detectar o diferenciar una gran variedad de contenidos, como discursos racistas, accidentes de tránsito y videos grabados en primera persona.

En la publicación del diario estadounidense, algunos empleados de la empresa comentan que la utilización de tecnologías apenas elimina entre 3 y 5 por ciento del contenido violento o que incita al odio.

Una inteligencia no tan inteligente

Según los documentos a los que tuvo acceso WSJ, Facebook prescindió de parte del equipo humano que se encargaba de detectar las noticias falsas o los discursos de odio. Al mismo tiempo, llevaron a cabo varias medidas que le permitieron disminuir este tipo de contenidos, tarea que le atribuyeron al uso de inteligencia artificial. De acuerdo con lo confirmado por la empresa, el contenido que no cumple con las normas de la red social, pero que tampoco es detectado por la IA, se muestra con menos frecuencia, y no se elimina.

Ese, justamente, es el argumento de Facebook. La plataforma  explicó que logró reducir con éxito el discurso de odio en la red social casi en 50 por ciento en los últimos tres años. De acuerdo con Guy Rosen, vicepresidente de integridad de Facebook, esto se debe en gran parte a los sistemas de IA “mejorados y ampliados”.

Para responder al artículo de WSJ, Rosen asegura que “centrarse solo en la eliminación de contenido es la forma incorrecta de ver cómo Facebook lucha contra el discurso de odio”.

Deja un comentario