Los ingenieros de software, desarrolladores e investigadores académicos tienen serias preocupaciones sobre las transcripciones de Whisper de OpenAI, según un informe de Associated Press. Si bien no ha habido escasez de discusión sobre la tendencia de la IA generativa a alucinar (básicamente, a inventar cosas), es un poco sorprendente que este sea un problema en la transcripción, donde se esperaría que la transcripción siguiera de cerca el audio que se transcribe. En cambio, los investigadores dijeron a la AP que Whisper ha introducido de todo, desde comentarios raciales hasta tratamientos médicos imaginados en las transcripciones. Y eso podría ser particularmente desastroso a medida que Whisper se adopte en hospitales y otros contextos médicos. Un investigador de la Universidad de Michigan que estudió reuniones públicas encontró alucinaciones en ocho de cada 10 transcripciones de audio. Un ingeniero de aprendizaje automático estudió más de 100 horas de transcripciones de Whisper y encontró alucinaciones en más de la mitad de ellas. Y un desarrollador informó haber encontrado alucinaciones en casi todas las 26.000 transcripciones que creó con Whisper. Un portavoz de OpenAI dijo que la compañía está “trabajando continuamente para mejorar la precisión de nuestros modelos, incluida la reducción de las alucinaciones” y señaló que sus políticas de uso prohíben el uso de Whisper “en ciertos contextos de toma de decisiones de alto riesgo”. “Agradecemos a los investigadores por compartir sus hallazgos”, dijeron.
Leave a Reply