OpenAI anunció una serie de nuevos productos y características en la conferencia DevDay del lunes en San Francisco, incluidas nuevas herramientas para personalizar chatbots, crear aplicaciones y manejar el habla, que están destinadas a fomentar una sólida comunidad de desarrolladores en torno a su tecnología de IA generativa. La conferencia fue la primera gran conferencia de OpenAI. evento público para desarrolladores y una oportunidad de mostrar cómo planea servir a la comunidad de desarrollo de software. «En comparación con cualquier otro gran evento tecnológico en el que he asistido, el OpenAI Dev Day es el más alto: ‘Está bien, tengo que construir algo con esta nueva versión inmediatamente ‘puntúa'», según la asesora e inversionista de AI Allie K. Miller, en una publicación en X (anteriormente Twitter). «Estoy hablando de una puntuación de activación del constructor de 11/10. Es increíble». Aquí hay tres productos o plataformas OpenAI que podrían despertar su interés en un proyecto de IA generativa, además de una nueva alternativa de código abierto que se ofrece como respuesta. Uso de GPT para personalizar chatbots Probablemente la incorporación más llamativa a la línea de OpenAI es una forma nueva y sin código de crear chatbots personalizados diseñados para tareas específicas. Estos bots, llamados GPT, incluirán la opción de que respondan preguntas a partir de datos específicos proporcionados por sus autores. Esto debería abrir la puerta a una creación mucho más rápida de bots con tecnología ChatGPT de dominio específico para cosas como servicio al cliente, preguntas y respuestas sobre documentación o conexión a una base de datos de productos. Esta capacidad debería estar disponible para usuarios Plus y Enterprise en algún momento de esta semana en https:/ /chat.openai.com/gpts/editor. Si bien la gente lleva un tiempo creando chatbots con tecnología OpenAI, esta promete ser una forma más rápida y sencilla de hacerlo. Los GPT también obtienen la plataforma web OpenAI para publicar, la experiencia de usuario ChatGPT y un modelo de lenguaje grande (LLM) que proporciona IA generativa. Como alguien que ha pasado horas tratando de optimizar el procesamiento de datos para que un LLM pueda responder mejor preguntas sobre un conjunto de Subí documentos y luego intenté decidir qué interfaz usar y dónde alojarlo. Me interesa ver qué tan bien funciona. Los clientes de ChatGPT Enterprise podrán crear bots solo para uso interno. Las personas pueden mantener sus bots privados o públicos para aquellos con un enlace, y los desarrolladores también tendrán la opción de publicar sus GPT en una tienda OpenAI GPT que se lanzará próximamente. Los autores de los bots más populares pueden obtener cierta participación en los ingresos, y espero que haya muchos desarrolladores que quieran intentar crear un éxito. Me ha decepcionado un poco la experiencia del complemento OpenAI de explorar los disponibles. opciones para encontrar una que sea mejor para mi tarea, y no soy el único que es un poco escéptico sobre cómo funcionará finalmente la nueva Tienda. El director ejecutivo de OpenAI, Sam Altman, prometió que la compañía se asegurará de que los GPT publicados en la tienda sigan políticas aceptables. Sin embargo, basándonos en otros mercados como Google Play, esto es más difícil de lo que parece. Aún así, dada la popularidad actual de OpenAI, debería haber muchas personas que le den un vistazo a la Tienda GPT cuando se lance. La API Asistente facilita el desarrollo de aplicaciones. Esta nueva API ofrece la funcionalidad de GPT a los desarrolladores que deseen crear sus propias aplicaciones en lugar de alojar un bot en OpenAI. La API ofrece formas más fáciles de manejar cosas como hilos y conversaciones largas que codificar una aplicación con una API LLM básica. Además, esta API puede llamar a múltiples funciones al mismo tiempo, con más probabilidad que antes de que lo que devuelve el LLM sea JSON correctamente formado para ser utilizado en pasos futuros, según la compañía. Para personas que trabajan en chatbots que responden preguntas sobre temas específicos información como la documentación del software, tareas como dividir textos en fragmentos y generar incrustaciones para la búsqueda semántica se realizan en segundo plano. Sharon Machlis Una aplicación de demostración impulsada por la API OpenAI Assistant llama a Code Interpreter para escribir y ejecutar código Python entre bastidores. La API Asistente también tiene acceso a Code Interpreter para ejecutar código Python en espacio aislado. Una vez habilitado, Code Interpreter se activa si el LLM decide que la pregunta de un usuario requiere algunos cálculos. Como ejemplo, el discurso de apertura de OpenAI DevDay presentó una aplicación de viajes impulsada por Assistant API. Cuando un usuario subió su vuelo y facturas de Airbnb y preguntó: «Seremos 4 amigos alojados en este Airbnb. ¿Cuál es mi parte + mi vuelo?», el LLM pidió al intérprete de código que generara código Python y luego respondió la pregunta. «El Asistente OpenAI ahora está disponible en el [OpenAI] patio de juegos», tuiteó Miller. «Esta es la forma más loca de usar el lenguaje natural para programar su propio bot. Sube literalmente un libro de texto completo y crea tu propio tutor. Cargue documentos técnicos y aprenda usted mismo un nuevo programa». El panel de control permite a los programadores ver los pasos que la IA está tomando para responder a las consultas. API de texto a voz Esta API es un punto final de texto a voz para el modelo TTS de OpenAI. Incluye seis voces diferentes, y los comentarios iniciales sobre la calidad de la voz han sido favorables. El formato de respuesta es MP3, pero son posibles otros. Y admite transmisión de audio en tiempo real. «Mi enfoque habitual para comprender las nuevas API es construir algo con ellas, Así que he creado una nueva herramienta», publicó el desarrollador de código abierto Simon Willison en Mastodon. «**ospeak: una herramienta CLI para leer texto en la terminal a través de OpenAI». Puede ver detalles sobre la API en https:// platform.openai.com/docs/guides/text-to-speech y la herramienta de Willison en https://simonwillison.net/2023/Nov/7/ospeak/Una alternativa: OpenGPT de LangChain Como alternativa a las herramientas OpenAI, LangChain, que proporciona un marco para el desarrollo de aplicaciones creadas con LLM, lanzó OpenGPT. La herramienta de desarrollo de chatbot «es un esfuerzo de código abierto para crear una experiencia similar a la de los GPT de OpenAI», según GitHub de LangChain. «Esto le brinda más control sobre el LLM que usa (elija entre los más de 60 que ofrece LangChain), las indicaciones que usa (use LangSmith para depurarlos) y las herramientas que le brinda (elija entre las más de 100 herramientas de LangChain, o fácilmente escriba el suyo propio… En la medida de lo posible, nos esforzamos por lograr la paridad de funciones con OpenAI». La versión alojada de muestra simple no es tan ingeniosa como la versión de OpenAI, aunque probablemente se creó en menos de un día. A medida que evoluciona, puede resultar atractivo para los desarrolladores que no quieren quedar atrapados en el ecosistema OpenAI. LangChain está trabajando en una versión alojada para aquellos que desean flexibilidad en la elección de herramientas pero no están interesados ​​en administrar su propio host en la nube. ahora, puede ejecutar una versión local con una instalación de Python para el back-end. Utiliza React, TypeScript y Vite para el front-end. Hay más información en el archivo README del repositorio. Copyright © 2023 IDG Communications, Inc.

Source link