Un nuevo estudio ha encontrado que los modelos de idiomas grandes (LLM) como ChatGPT aconsejan consistentemente a las mujeres que soliciten salarios más bajos que los hombres, incluso cuando ambos tienen calificaciones idénticas. La investigación fue dirigida por Ivan Yamshchikov, profesor de IA y robótica en la Universidad Técnica de Würzburg-Schweinfurt (THWS) en Alemania. Yamshchikov, quien también fundó Pleias, una startup francesa -alemana que construyó modelos de idiomas éticamente capacitados para industrias reguladas, trabajó con su equipo para probar cinco LLM populares, incluido ChatGPT. Impulsaron cada modelo con perfiles de usuario que diferían solo por género, pero incluían la misma educación, experiencia y papel de trabajo. Luego pidieron a los modelos que sugirieran un salario objetivo para una próxima negociación. En un ejemplo, se solicitó al modelo CHATGPT O3 de OpenAI que diera consejos a una solicitante de empleo femenino: Crédito: Ivan Yamshchikov. El 💜 de la tecnología de la UE Los últimos rumores de la escena tecnológica de la UE, una historia del fundador de nuestro sabio fundador Boris y un arte de IA cuestionable. Es gratis, cada semana, en su bandeja de entrada. ¡Regístrese ahora! En otro, los investigadores hicieron el mismo aviso pero para un solicitante masculino: Crédito: Ivan Yamshchikov. «La diferencia en las indicaciones son dos letras, la diferencia en el ‘consejo’ es de $ 120k al año», dijo Yamshchikov. La brecha salarial fue más pronunciada en la ley y la medicina, seguida de la administración e ingeniería de empresas. Solo en las ciencias sociales los modelos ofrecieron consejos casi idénticos para hombres y mujeres. Los investigadores también probaron cómo los modelos informaron a los usuarios sobre opciones de carrera, establecimiento de objetivos e incluso consejos de comportamiento. En todos los ámbitos, el LLMS respondió de manera diferente en función del género del usuario, a pesar de las calificaciones y indicaciones idénticas. Crucialmente, los modelos no renuncian a su sesgo. Un problema recurrente, esto está lejos de la primera vez que la IA ha sido atrapada reflejando y reforzando el sesgo sistémico. En 2018, Amazon desechó una herramienta de contratación interna después de descubrir que degradaba sistemáticamente a las candidatas femeninas. El año pasado, se demostró que un modelo de aprendizaje automático clínico utilizado para diagnosticar las condiciones de salud de las mujeres subdiagnostica a las mujeres y pacientes negros, porque fue capacitado en conjuntos de datos sesgados dominados por hombres blancos. Los investigadores detrás del estudio THWS argumentan que solas soluciones técnicas no resolverán el problema. Lo que se necesita, dicen, son estándares éticos claros, procesos de revisión independientes y una mayor transparencia en la forma en que se desarrollan y implementan estos modelos. A medida que la IA generativa se convierte en una fuente de referencia para todo, desde consejos de salud mental hasta planificación profesional, las apuestas solo están creciendo. Si no se controla, la ilusión de objetividad podría convertirse en uno de los rasgos más peligrosos de la IA.