ChatGPT inventó una función de producto de la nada, por lo que esta compañía la creó

El lunes, Sheet Music Platform SoundsLice dice que desarrolló una nueva característica después de descubrir que ChatGPT estaba diciendo incorrectamente a los usuarios que el servicio podría importar tablatura ASCII: un formato de notación de guitarra basado en texto que la compañía nunca había admitido. Según los informes, el incidente marca cuál podría ser el primer caso de una funcionalidad de construcción de negocios en respuesta directa a la confabulación de un modelo de IA. Por lo general, SoundsLice digitaliza las partituras de fotos o PDF y sincroniza la notación con grabaciones de audio o video, lo que permite a los músicos ver la música desplazándose mientras la escuchan. La plataforma también incluye herramientas para ralentizar la reproducción y practicar pasajes difíciles. Adrian Holovaty, cofundador de SoundsLice, escribió en una publicación de blog que el reciente proceso de desarrollo de características comenzó como un completo misterio. Hace unos meses, Holovaty comenzó a notar una actividad inusual en los registros de errores de la compañía. En lugar de cargas de partituras típicas, los usuarios enviaban capturas de pantalla de las conversaciones de ChatGPT que contenían tablatura ASCII: representaciones de texto simples de música de guitarra que parecen cadenas con números que indican posiciones de FRET. «Nuestro sistema de escaneo no tenía la intención de apoyar este estilo de notación», escribió Holovaty en la publicación del blog. «¿Por qué, entonces, estábamos siendo bombardeados con tantas capturas de pantalla de ASCII TAB CHATGPT? Estuve desconcertado durante semanas, hasta que me metí en Chatgpt». Cuando Holovaty probó el chatGPT, descubrió la fuente de la confusión: el modelo AI estaba instruyendo a los usuarios que creen cuentas de SoundsLice y usen la plataforma para importar pestañas ASCII para reproducción de audio, una característica que no existía. «Nunca hemos apoyado la pestaña ASCII; ChatGPT fue absolutamente mentir a la gente», escribió Holovaty, «y haciéndonos lucir mal en el proceso, estableciendo falsas expectativas sobre nuestro servicio». Una captura de pantalla de la nueva documentación del importador ASCII de SoundsLice, alucinada por ChatGPT y hizo realidad más tarde. Crédito: https://www.soundslice.com/help/en/creating/importing/331/ascii-tab/ Cuando los modelos de IA como ChatGPT generan información falsa con confianza aparente, los investigadores de IA lo llaman «alucinación» o «confabulación». El problema de los modelos de IA que confabulan información falsa ha afectado a los modelos de IA desde el lanzamiento público de Chatgpt en noviembre de 2022, cuando las personas comenzaron a usar erróneamente el chatbot como reemplazo para un motor de búsqueda.