Instagram quiere eliminar el odio de Internet

By / 17 agosto, 2017 / Tendencias

¿Cansados de los mensajes tóxicos en redes sociales? La inteligencia artificial (IA) es el tema que tiene en mente Kevin Systrom, el CEO de Instagram, para solucionar este tema.

El 27 de junio de este año, Instagram anunció que estaba usando inteligencia artificial para filtrar los comentarios ofensivos y los que se consideran spam.

El hecho se dio en el marco en el que Facebook y otras empresas de Internet trabajan para prevenir el impacto de mensajes desagradables, propaganda que incita al odio y la divulgación de ideologías violentas dentro de su plataforma.

[Foto: Flickr TechCrunch (CC BY 2.0)]

[Foto: Flickr TechCrunch (CC BY 2.0)]

“Muchos de vosotros nos habéis dicho que los comentarios tóxicos os desalientan a la hora de disfrutar Instagram y de expresaros libremente”, anunció el cofundador y jefe ejecutivo, Kevin Systrom, en un post de su blog.

Kevin Systrom, concedió esta semana una entrevista a la revista Wired en los Estados Unidos sobre el funcionamiento detrás de la IA que buscar eliminar el odio de los comentarios en Instagram.

Según Kevin Systrom, Instagram se concibió como una aplicación con la que la gente se sintiera bien y que a su vez fuera amable. Precisamente una de las campañas que ejecutó la compañía este año fue #kindcomments. El objetivo, impulsar una pauta en la que es más propicio para la comunidad el uso de comentarios amables.

El aprendizaje automático

Instagram posee un equipo enfocado en la comunidad. Su trabajo es interactuar con los usuarios, obtener retroalimentación y destacar a los miembros que estén haciendo cosas increíbles. Este grupo fue el encargado de recolectar las impresiones de los integrantes de la comunidad sobre los inconvenientes en los comentarios que les llegaban.

El equipo de Instagram se dio cuenta entonces, de la enorme ola de aprendizaje y de IA que tenía por delante. Decidieron aprovechar el desarrollo de Facebook conocido como ‘Deep Text’ o texto profundo.

El siguiente paso fue formar un grupo de personas (un grupo de entrenamiento) que calificará los comentarios entre buenos y malos para alimentar el sistema de aprendizaje automático. La inteligencia artificial tomando apuntes de la inteligencia humana.

“Ahora estamos en un punto donde básicamente el aprendizaje automático puede detectar un mal comentario con una precisión asombrosa. Básicamente una tasa de 1% en el margen de error” Kevin Systrom en su entrevista con la revista Wired.

Entender el matiz de las conversaciones es importante para el sistema de IA de Instagram. Diferenciar una broma entre dos amigos de un ataque o burla de un tercero. El programa toma en cuenta, mediante un algoritmo, el nivel de interacción entre dos usuarios y determina el nivel de relación entre ambas cuentas.

“Básicamente mira las palabras, la relación, y mira un montón de otras señales, incluyendo la edad de la cuenta, la historia de la cuenta, y ese tipo de cosas. Y combina todas esas señales y luego escupe una puntuación de 0 a 1 sobre lo malo que es este comentario. Y luego, básicamente, se establece un umbral que optimiza el margen de error” explica Kevin Systrom.

Tratar de eliminar el sesgo ideológico en el aprendizaje automático es otro de los retos. Todos los integrantes del grupo de entrenamiento que alimenta el aprendizaje automático dominan dos idiomas y los comentarios son aprobados o desaprobados hasta que dos evaluadores concuerden en su apreciación.

Para Instagram está claro que existen zonas grises al momento de juzgar un comentario. Para Kevin Systrom, se trata de evaluar el rendimiento del algoritmo en el tiempo y ver si mejora las cosas. Si causa problemas y no funciona, lo inician todo de nuevo.

En su entrevista, Kevin reveló que muchas de las funcionalidades son probadas con los empleados de la misma compañía.

El mimetismo, hacemos lo que vemos

Un fenómeno que quiere replicar Instagram en su plataforma es el mimetismo. Cuando la gente ingresa a un sitio y empieza a ver comentarios amables tiende a actuar de la misma forma.

La intención de la plataforma es modelar la conversación para que la gente vea la red social para generar comentarios positivos y no para cosas malas.

“Tiene este efecto psicológico interesante que la gente quiere encajar y quiere hacer lo que está viendo, y eso significa que las personas son más positivas con el tiempo” señala Systrom.


Entra en la discusión si este proyecto de Instagram afecta la libertad de expresión de las personas o si puede hacer de esta red social un Disneylandia donde no sucede nada malo. Por cierto, ¿ustedes consideran a esta plataforma como adictiva?

El acoso en internet es muy grave y debemos tener en cuenta siempre las acciones que nos llevarán a prevenir las conductas hostiles repetidas que hieran a otros. Tomemos el #PoderDigital y ayudemos a prevenir estas acciones.#EnTICconfío

About Author

Andrés Cristancho

Back to Top