Operai está reorganizando a su equipo de comportamiento modelo, un pequeño pero influyente grupo de investigadores que dan forma a la forma en que los modelos de IA de la compañía interactúan con las personas, ha aprendido TechCrunch. En un memorando de agosto para el personal visto por TechCrunch, el director de investigación de OpenAI, Mark Chen, dijo que el equipo de comportamiento del modelo, que consta de aproximadamente 14 investigadores, se uniría al equipo de capacitación posterior, un grupo de investigación más grande responsable de mejorar los modelos de IA de la compañía después de su pre-entrenamiento inicial. Como parte de los cambios, el equipo de comportamiento del modelo ahora informará al líder de la capacitación posterior a Openi, Max Schwarzer. Un portavoz de OpenAI confirmó estos cambios en TechCrunch. La líder fundadora del equipo de comportamiento del modelo, Joanne Jang, también se está moviendo para comenzar un nuevo proyecto en la compañía. En una entrevista con TechCrunch, Jang dice que está construyendo un nuevo equipo de investigación llamado OAI Labs, que será responsable de «inventar y crear prototipos de nuevas interfaces sobre cómo las personas colaboran con la IA». El equipo de comportamiento del modelo se ha convertido en uno de los grupos de investigación clave de OpenAI, responsables de dar forma a la personalidad de los modelos de IA de la compañía y de reducir la skicancia, que ocurre cuando los modelos de IA simplemente están de acuerdo y refuerzan las creencias de los usuarios, incluso las no saludables, en lugar de ofrecer respuestas equilibradas. El equipo también ha trabajado para navegar por el sesgo político en las respuestas modelo y ayudó a OpenAi a definir su postura sobre la conciencia de la IA. En el memorando al personal, Chen dijo que ahora es el momento de acercar el trabajo del equipo de comportamiento modelo de Openai al desarrollo del modelo central. Al hacerlo, la compañía está señalando que la «personalidad» de su IA ahora se considera un factor crítico en cómo evoluciona la tecnología. En los últimos meses, Openai ha enfrentado un mayor escrutinio sobre el comportamiento de sus modelos de IA. Los usuarios se opusieron fuertemente a los cambios de personalidad realizados en GPT-5, que según la compañía exhibió tasas más bajas de sycophancy, pero parecía más frío para algunos usuarios. Esto llevó a OpenAI a restaurar el acceso a algunos de sus modelos heredados, como GPT-4O, y a lanzar una actualización para hacer que las respuestas más nuevas de GPT-5 se sientan «más cálidas y amigables» sin aumentar la sileno. Evento de TechCrunch San Francisco | 27-29 de octubre, 2025 Openai y todos los desarrolladores de modelos de IA tienen que caminar una línea muy fina para que sus chatbots de IA sea amigable para hablar pero no sycophantic. En agosto, los padres de un niño de 16 años demandaron a OpenAi por el supuesto papel de Chatgpt en el suicidio de su hijo. El niño, Adam Raine, confió algunos de sus pensamientos suicidas y planes para chatear (específicamente una versión impulsada por GPT-4O), según documentos judiciales, en los meses previos a su muerte. La demanda alega que GPT-4O no logró retroceder sus ideaciones suicidas. El equipo de comportamiento del modelo ha trabajado en todos los modelos de OpenAI desde GPT-4, incluidos GPT-4O, GPT-4.5 y GPT-5. Antes de comenzar la unidad, Jang trabajó anteriormente en proyectos como Dall-E 2, la herramienta de generación de imágenes tempranas de Openai. Jang anunció en una publicación en X la semana pasada que dejará al equipo para «comenzar algo nuevo en Operai». El ex jefe de comportamiento modelo ha estado con OpenAI durante casi cuatro años. Jang le dijo a TechCrunch que servirá como gerente general de OAI Labs, que informará a Chen por ahora. Sin embargo, son los primeros días, y aún no está claro cuáles serán esas nuevas interfaces, dijo. «Estoy realmente emocionado de explorar patrones que nos mueven más allá del paradigma del chat, que actualmente se asocia más con la compañía, o incluso los agentes, donde hay un énfasis en la autonomía», dijo Jang. «He estado pensando en [AI systems] Como instrumentos para pensar, hacer, tocar, hacer, aprender y conectarse «. 🧪 Estoy comenzando OAI Labs: un grupo basado en la investigación centrado en inventar y crear prototipos de nuevas interfaces sobre cómo las personas colaboran con Ai.I’T, estoy emocionado de explorar patrones que nos mueven más allá del chat o incluso los agentes, hacia los nuevos paradigmas e instrumentos para pensar, hacer, …-Joanne Jang (@Joannejang) 5 de septiembre, 2025 cuando se les preguntó si los laboratorios de oai se colaboran en estos colaborados en estos colaboradores de la novela. IVE, que ahora está trabajando con OpenAi en una familia de dispositivos de hardware de IA, Jang dijo que está abierta a muchas ideas.
Deja una respuesta