Categorías
Noticias

Los insultos jugando online son un problema que Intel quiere resolver con un software de IA

¿Quién alguna vez no escuchó insultos jugando online? En el futuro, parece que esto no será posible. La compañía Intel lanzará próximamente la fase beta de Bleep, un programa que utiliza la inteligencia artificial para detectar insultos de distintos tipos en los chats de voz y eliminarlos o sustituirlos, así lo informó PC Mag.

Cabe decir que Intel ya había anunciado hace dos años el concepto en el que se basa Bleep, en el que han trabajado en colaboración con Spirit AI, una empresa dedicada al desarrollo de herramientas de software para identificar y eliminar lenguaje abusivo en los chats de texto de los videojuegos. Bleep llevará más allá ese filtro aplicándolo a los chats de voz, lo que significa un paso adelante en estos filtros.

Una vista previa de este programa desarrollado por Intel se vio en la GDC 2021 Showcase, durante una conferencia titulada Billions of Gamers Thousands of Needs Millions of Opportunities y organizada por Intel Software. En las capturas de pantalla mostradas en el evento que se pueden ver arriba que el programa reconoce y elimina inmediatamente las palabras ofensivas. No aclaran si funcionará en conversaciones en español y otros idiomas o solo en inglés.

La aplicación es personalizable, permitiendo ajustar si se oye o no la N-word y sus variantes y la intensidad del filtrado en otros insultos: «abuso verbal», «racismo y xenofobia», «lenguaje explícito sexualmente», «groserías», «discriminación a las personas con discapacidad y avergonzar a alguien por su cuerpo», «agresiones» y «odio hacia la comunidad LGBTQ+» y «nacionalismo blanco». Cada una de estas categorías tiene cuatro parámetros de filtrado: «ninguno», «algunos», «la mayoría» y «todos». El sistema contiene un abanico realmente amplio de insultos.

Bleep estará disponible en los ordenadores Intel «de última generación»

«Aunque reconocemos que soluciones como Bleep no eliminan el problema, creemos que es un paso en la dirección correcta, dando a los jugadores una herramienta para controlar su experiencia», describió en un comunicado Roger Chandler, vicepresidente de Intel, quien segura que la beta estará disponible en «los portátiles y ordenadores de sobremesa Intel de última generación». La marca presentó recientemente sus procesadores para jugar Intel Core Serie S de 11ª generación.

La cantidad de insultos es preocupante

Algo que confirma la tendencia que tienen algunos jugadores a insultar es un estudio publicado en 2019, que reveló que el 74% de los gamers adultos han recibido insultos en juegos online. Algunos de los títulos que destaca en el informe presentado son Dota 2OverwatchLeague of Legends y CS:GO.

La ONG estadounidense recabó la información de este informe después de consultar a más de 1.000 jugadores de EEUU, y tres cuartos de los encuestados reconocen el haber sufrido alguna vez algún tipo de agresión verbal. En este caso, el número de mujeres que ha sufrido acoso es mucho mayor que el de los hombres. 

El 40% de las mujeres se han visto acosadas mientras intentaban disfrutar de la experiencia online. Esto viene de la mano de juegos que centran su experiencia en la comunicación a través de un chat de voz, algo que facilita averiguar el género de la persona con la que se está jugando.

La compañía fabricante de procesadores Intel admitió que el desarrollo de este sistema de Inteligencia Artificial no es la solución ideal, pero afirmó que es un gran paso y una buena dirección en busca del respeto mutuo en stream. Sin embargo, el software no será perfecto ni tendrá en cuenta algunas subjetividades.

Dificultades para filtrar lenguaje abusivo

Moderar los espacios en línea utilizando inteligencia artificial no es tarea fácil, como lo demostraron plataformas como Facebook y YouTube. Aunque los sistemas automatizados pueden identificar palabras claramente ofensivas, con frecuencia sucede que no tienen en cuenta el contexto y los matices de ciertos insultos y amenazas. La toxicidad en línea se presenta en muchas formas y sigue en constante evolución, lo que puede resultar que sean difíciles de detectar incluso para los sistemas de moderación de IA más avanzados.