
POR: HUGH BELMONT (goukiyaga+sintesis@gmail.com)
Modulate, creadores de tecnología de voz que eleva la salud y la seguridad de las comunidades en línea, anunció hoy que se asoció con ADL (la Anti-Defamation League) para apoyar a su Centro para la Tecnología y la Sociedad (CTS) en la ampliación de su trabajo para combatir el odio en espacios de juego en línea.
ADL tiene un historial orgulloso de monitorear el antisemitismo y el extremismo en línea para garantizar la seguridad de las comunidades judías y otros grupos marginados de costa a costa. Desde principios de 2017, el Centro de Tecnología y Sociedad de ADL ha liderado la lucha contra el odio cibernético.
CTS convoca a partes interesadas clave, como empresas de tecnología, ONG y académicos, para medir y detener la propagación del odio cibernético. A medida que ADL y CTS continúan ampliando su investigación en la industria de los juegos, Modulate podrá aplicar estos aprendizajes en el desarrollo continuo de ToxMod y otros productos diseñados para ayudar a los estudios y equipos de desarrollo a combatir el odio en línea.
Daniel Kelley, Director de Estrategia y Operaciones de CTS, comentó:
“ADL está encantada de asociarse con Modulate para avanzar en nuestros objetivos compartidos de un mundo digital libre de odio”, “Los espacios digitales, especialmente las comunidades de juegos en línea, ofrecen oportunidades maravillosas para el entretenimiento y experiencias interpersonales positivas, pero tienen el potencial de convertirse en refugios de odio en línea, con más del 80 % de los jugadores adultos que sufren acoso”.
Así lo dijo Hank Howie, evangelista de la industria de juegos en Modulate:
“La investigación de ADL ha sido una fuerza impulsora en el desarrollo de ToxMod de Modulate para combatir el comportamiento tóxico en los juegos en línea”, “Convertirnos en un socio corporativo de ADL contra el odio es una validación real de nuestros esfuerzos para abordar el creciente problema del comportamiento tóxico”.
ToxMod es la única solución de moderación proactiva nativa de voz para juegos. Basado en tecnología avanzada de aprendizaje automático y diseñado teniendo en cuenta la seguridad y la privacidad del jugador, ToxMod clasifica el chat de voz para señalar el mal comportamiento, analiza los matices de cada conversación para determinar la toxicidad y permite a los moderadores responder rápidamente a cada incidente proporcionando un contexto relevante y preciso.
A diferencia de los sistemas de informes reactivos, que dependen de que los jugadores se esfuercen por denunciar el mal comportamiento, ToxMod es la única solución de moderación de voz en los juegos de hoy que permite a los estudios responder de manera proactiva al comportamiento tóxico y evitar que el daño se intensifique.
Acerca de modular
Modulate crea tecnología de voz inteligente que combate la toxicidad en línea y eleva la salud y la seguridad de las comunidades en línea. ToxMod, la plataforma de moderación de voz proactiva de Modulate, permite a los equipos de la comunidad tomar decisiones informadas y proteger a los jugadores del acoso, el comportamiento tóxico o daños más insidiosos, sin tener que depender de informes de jugadores ineficaces.
ToxMod es la única solución de moderación nativa de voz disponible en la actualidad y ha procesado millones de horas de audio para estudios de juegos AAA, desarrolladores independientes y plataformas de consola por igual. Los marcos avanzados de aprendizaje automático de Modulate han ayudado a los clientes a proteger a decenas de millones de jugadores contra la toxicidad en línea para garantizar espacios seguros e inclusivos para todos.