Edgar Cervantes / Android AuthorityTL;DR Un desmontaje de Android Authority ha revelado que Reddit utilizará un modelo de inteligencia artificial para detectar acoso. El modelo se entrena en contenido que previamente fue marcado por violar los términos de Reddit. Hemos visto grandes modelos de lenguaje (LLM) utilizados para una variedad de funciones en el último año, desde generación de texto/imágenes hasta asistentes virtuales y más. Ahora parece que podemos agregar un caso de uso más a la lista gracias a Reddit. Un desmontaje de APK ayuda a predecir las funciones que pueden llegar a un servicio en el futuro en función del código de trabajo en progreso. Sin embargo, es posible que dichas características previstas no lleguen a un lanzamiento público. Un desmontaje de la versión 2024.10.0 de la aplicación Reddit para Android reveló que Reddit ahora está usando un LLM para detectar acoso en la plataforma. Puede ver las cadenas relevantes a continuación. CódigoCopiar textoEl modelo de acoso es un modelo de lenguaje amplio (LLM) que se capacita en contenido que nuestros equipos de aplicación de la ley han determinado que está infringiendo. Las acciones del moderador también son un aporte a la forma en que se entrena el modelo.
¿Cómo se entrena el modelo de acoso?
Reddit también actualizó su página de soporte hace una semana para mencionar el uso de un modelo de IA como parte de su filtro de acoso. “El filtro funciona con un modelo de lenguaje grande (LLM) que está entrenado en las acciones del moderador y el contenido eliminado por las herramientas internas de Reddit y equipos de aplicación de la ley”, se lee en un extracto de la página. De cualquier manera, parece que los moderadores tienen otra herramienta en su arsenal para combatir el contenido objetable en Reddit. ¿Pero esto realmente hará un gran trabajo al marcar contenido? Tendremos que esperar y ver. Comentarios

Source link