OpenAI dice que le preocupa que una función de voz realista para su inteligencia artificial pueda hacer que las personas se vinculen con el robot a costa de las interacciones humanas. La empresa con sede en San Francisco citó literatura que, según dice, indica que conversar con la IA como uno lo haría con una persona puede resultar en una confianza equivocada y que la alta calidad de la voz GPT-4o puede exacerbar ese efecto. «La antropomorfización implica atribuir comportamientos y características similares a los humanos a entidades no humanas, como los modelos de IA», dijo OpenAI el jueves en un informe sobre el trabajo de seguridad que está realizando en una versión ChatGPT-4o de su IA. «Este riesgo puede verse acentuado por las capacidades de audio de GPT-4o, que facilitan interacciones más parecidas a las humanas con el modelo». OpenAI dijo que notó que los evaluadores hablaban con la IA de formas que insinuaban vínculos compartidos, como lamentarse en voz alta de que era su último día juntos. Dijo que estos casos parecen benignos, pero deben estudiarse para ver cómo podrían evolucionar en períodos de tiempo más largos. La socialización con IA también podría hacer que los usuarios sean menos hábiles o inclinados a la hora de relacionarse con los humanos, especuló OpenAI. «La interacción prolongada con el modelo podría influir en las normas sociales», decía el informe. «Por ejemplo, nuestros modelos son respetuosos, lo que permite a los usuarios interrumpir y ‘tomar el micrófono’ en cualquier momento, lo que, aunque es de esperar en una IA, sería antinormativo en las interacciones humanas». La capacidad de la IA para recordar detalles mientras conversa y para atender tareas también podría hacer que las personas dependan demasiado de la tecnología, según OpenAI. «Las recientes preocupaciones compartidas por OpenAI sobre la posible dependencia del modo de voz de ChatGPT indican lo que muchos ya han comenzado a preguntarse: ¿es hora de hacer una pausa y considerar cómo esta tecnología afecta la interacción y las relaciones humanas?», dijo Alon Yamin, cofundador y director ejecutivo de la plataforma de detección antiplagio de IA Copyleaks. Dijo que la IA nunca debería reemplazar la interacción humana real. OpenAI dijo que probará más a fondo cómo las capacidades de voz en su IA pueden hacer que las personas se apeguen emocionalmente. Los equipos que probaron las capacidades de voz de ChatGPT-4o también pudieron incitarlo a repetir información falsa y producir teorías de conspiración, lo que generó preocupaciones de que se le pudiera decir al modelo de IA que lo hiciera de manera convincente. OpenAI se vio obligado a disculparse con la actriz Scarlett Johansson en junio por usar algo muy similar a su voz en su último chatbot, lo que puso de relieve la tecnología de clonación de voz. Aunque OpenAI negó que la voz que usaron fuera la de Johansson, su caso no fue ayudado por el CEO Sam Altman, que marcó al nuevo modelo con un mensaje de una sola palabra en las redes sociales: «Her». Johansson prestó su voz a un personaje de IA en la película «Her», que Altman dijo anteriormente que es su película favorita sobre la tecnología. La película de 2013 está protagonizada por Joaquin Phoenix, quien interpreta a un hombre que se enamora de una asistente de IA llamada Samantha. © 2024 AFP