“Las sugerencias de CriticGPT no siempre son correctas, pero descubrimos que pueden ayudar a los capacitadores a detectar muchos más problemas con las respuestas escritas por modelos de los que detectarían sin la ayuda de la IA”, escribió la empresa. “Además, cuando las personas usan CriticGPT, la IA aumenta sus habilidades, lo que da como resultado críticas más completas que cuando las personas trabajan solas y menos errores alucinógenos que cuando el modelo trabaja solo”. Y ahí radica el problema de lógica. Una de las críticas a la IA generativa es que es excelente para imitar a los humanos, pero no logra comprenderlos realmente. Recuerdo una columna que escribí hace más de una década, sobre ingenieros que crean un producto que prueba el amor verdadero. (Era un producto real: un sujetador Bluetooth que se desabrochaba solo cuando detectaba amor verdadero. De verdad. Para ser claros, no estoy sugiriendo oficialmente que los ingenieros sean tan malos para entender las emociones humanas como genAI. No lo estoy discutiendo, pero tampoco lo estoy diciendo oficialmente). Volviendo a la lógica de genAI, la suposición errónea que hace OpenAI es que los humanos seguirán revisando sus sistemas en busca de mentiras. Los humanos son vagos y los empleados humanos de TI están sobrecargados de trabajo y tienen pocos recursos. El resultado mucho más probable es que los humanos confíen cada vez más en la IA que observa a la IA. Ahí es donde existe el verdadero peligro.