Todo lo que necesitas saber sobre tecnología

Etiqueta: GPT-4

OpenAI supuestamente disuelve su equipo de riesgo existencial de IA

Según Wired el viernes, el equipo Superalignment de OpenAI, encargado de controlar el peligro existencial de un sistema de IA sobrehumano, ha sido disuelto. La noticia llega pocos días después de que los fundadores del equipo, Ilya Sutskever y Jan Leike, renunciaran simultáneamente a la empresa. Zillow dice que comprarás tu próxima casa con… ¿IA? | AI UnlockedWired informa que el equipo Superalignment de OpenAI, lanzado por primera vez en julio de 2023 para evitar que los sistemas de IA sobrehumanos del futuro se vuelvan deshonestos, ya no existe. El informe afirma que el trabajo del grupo será absorbido por otros esfuerzos de investigación de OpenAI. Según Wired, la investigación sobre los riesgos asociados con modelos de IA más potentes ahora estará dirigida por el cofundador de OpenAI, John Schulman. Sutskever y Leike fueron algunos de los principales científicos de OpenAI centrados en los riesgos de la IA. Leike publicó un hilo largo el viernes X explicando vagamente por qué dejó OpenAI. Dice que ha estado peleando con el liderazgo de OpenAI sobre los valores fundamentales durante algún tiempo, pero llegó a un punto de ruptura esta semana. Leike señaló que el equipo de Superaligment ha estado «navegando contra el viento», luchando por obtener suficiente computación para una investigación crucial. Él piensa que OpenAI necesita centrarse más en la seguridad, la protección y la alineación. El equipo de comunicaciones de OpenAI nos dirigió al tweet de Sam Altman cuando se le preguntó si el equipo de Superalignment se había disuelto. Altman dice que tendrá una publicación más larga en los próximos días y que OpenAI tiene «mucho más por hacer». El tweet realmente no responde a nuestra pregunta. «Actualmente, no tenemos una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta», dijo el equipo de Superalignment en una publicación de blog de OpenAI cuando se lanzó en Julio. “Pero los humanos no podrán supervisar de manera confiable sistemas de IA mucho más inteligentes que nosotros, por lo que nuestras técnicas de alineación actuales no alcanzarán la superinteligencia. Necesitamos nuevos avances científicos y técnicos”. Ahora no está claro si se prestará la misma atención a esos avances técnicos. Sin duda, hay otros equipos en OpenAI centrados en la seguridad. El equipo de Schulman, que supuestamente está asumiendo las responsabilidades de Superalignment, es actualmente responsable de ajustar los modelos de IA después del entrenamiento. Sin embargo, Superalignment se centró específicamente en los resultados más graves de una IA deshonesta. Como señaló ayer Gizmodo, varios de los defensores más abiertos de la seguridad de la IA de OpenAI han dimitido o han sido despedidos en los últimos meses. A principios de este año, el grupo publicó un notable artículo de investigación sobre el control de grandes modelos de IA con modelos de IA más pequeños, considerado un primer paso hacia controlar sistemas de IA superinteligentes. No está claro quién dará los siguientes pasos en estos proyectos en OpenAI. La startup de IA de Sam Altman comenzó esta semana con la presentación de GPT-4 Omni, el último modelo de frontera de la compañía que presentaba respuestas de latencia ultrabaja que sonaban más humanas que nunca. Muchos empleados de OpenAI comentaron cómo su último modelo de IA estaba más cerca que nunca de algo de ciencia ficción, específicamente la película Her.

Ilya Sutskever abandona OpenAI

Ilya Sutskever, cofundador y científico jefe de OpenAI, anunció que dejaría la empresa el martes. OpenAI confirmó la salida en un comunicado de prensa. La salida oficial de Sutskever se produce casi seis meses después de que ayudó a liderar un esfuerzo con otros miembros de la junta directiva para despedir al director ejecutivo Sam Altman, la medida fracasó días después. Le di a Sam Altman una copia de My Eyeballs | Future Tech“Después de casi una década, tomé la decisión de dejar OpenAI”, dijo Sutskever a través de un tweet el martes por la tarde. «Estoy emocionado por lo que viene a continuación: un proyecto que es muy significativo personalmente para mí y sobre el cual compartiré detalles a su debido tiempo». «Ilya y OpenAI se separarán», dijo Altman en un tweet poco después. “Esto es muy triste para mí; Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía en nuestro campo y un querido amigo”. Altman continuó diciendo que Jakub Pachocki, un investigador senior del equipo de Sutskever, lo reemplazaría como científico jefe de OpenAI. Sutskever señala un proyecto no revelado que es muy «significativo» para él en el futuro. No está claro en este momento cuál es ese proyecto. Jan Leike, otro ejecutivo de OpenAI que trabajó con Sutskever para salvaguardar la futura IA, también renunció el martes, según The Information. Leike y Sutskever lideraron el equipo de superalineación de OpenAI, encargado de la grandiosa tarea de garantizar que la superpoderosa IA de la compañía no se vuelva contra los humanos. Durante los últimos seis meses, el estatus de Sutskever no ha estado claro en OpenAI. Cuando Altman regresó a la empresa a finales de noviembre de 2023, dijo lo siguiente en Sutskever: «esperamos continuar nuestra relación de trabajo y estamos discutiendo cómo puede continuar su trabajo en OpenAI». Sutskever fue el único miembro de OpenAI que quedó en el limbo en ese momento: ni despedido ni recontratado. Desde entonces, Altman se ha negado a responder preguntas sobre el estatus de Sutskever en la empresa en múltiples entrevistas. Apenas tuvimos noticias del propio Sutskever durante este período. Este es el primer tweet de Sutskever en más de cinco meses, y el científico jefe de OpenAI no apareció en anuncios importantes como Sora y el GPT-4 Omni de esta semana. A principios de este año, Andrej Karpathy, miembro fundador de OpenAI, dejó la empresa. También en ese caso, Karpathy no proporcionó una razón particular para su salida y luego describió que trabajaría en proyectos personales. Sutskever publicó una foto con los líderes de OpenAI Altman, Mira Murati, Greg Brockman y Jakub Pachocki poco después de anunciar su salida. Severa; que aparece en la foto publicó mensajes amables sobre el mandato de Sutskever en OpenAI, elogiando al científico de renombre por sus contribuciones al mundo de la inteligencia artificial.

El próximo modelo insignia es el GPT-4o

La actualización de primavera de OpenAI del 13 de mayo trajo tres anuncios importantes de la compañía de IA: Un nuevo modelo insignia de IA llamado GPT-4o. Una aplicación ChatGPT de escritorio para macOS. Los usuarios de ChatGPT que no pagan una suscripción ahora pueden acceder a más funciones de forma gratuita. Los próximos cambios en ChatGPT «brindan inteligencia de nivel GPT-4 a todos, incluidos nuestros usuarios gratuitos», dijo la directora de tecnología de OpenAI, Mira Murati, durante la transmisión en vivo. Mira Murati, CTO de OpenAI, habla en una transmisión en vivo el 13 de mayo. Imagen: Captura de pantalla de TechRepublic GPT-4o mejora las capacidades de voz y video de GPT-4 Turbo Murati dijo que el próximo modelo insignia de OpenAI, GPT-4o, es «más rápido» y «mejora sus capacidades en todo el mundo». texto, visión y audio” en comparación con GPT-4. La «o» significa «omni». En cambio, GPT-4o responde más rápido que su predecesor GPT-4 Turbo y ha aumentado su dominio de idiomas, video y audio distintos del inglés. GPT-4o será 2 veces más rápido, 50% más barato y tendrá límites de velocidad 5 veces más altos que GPT-4 Turbo, dijo Murati. El director ejecutivo de OpenAI, Sam Altman, dijo hoy en X que GPT-4o es «nativamente multimodal», lo que significa que puede cambiar más rápido entre análisis de voz, texto y video. Se podrá acceder a GPT-4o de forma gratuita dentro de ChatGPT y se implementará durante las próximas semanas para los usuarios de todo el mundo. Los usuarios de ChatGPT Plus y Team podrán usar GPT-4o primero, mientras que la disponibilidad para los usuarios empresariales «llegará pronto», dijo Open AI. Los usuarios pagos de ChatGPT tendrán hasta cinco veces los límites de capacidad. GPT-4o también estará disponible en la API ChatGPT. Más sobre innovación La demostración de las capacidades de voz de GPT-4o en la aplicación ChatGPT en la transmisión en vivo sonó bastante natural, incluyendo varios ejemplos de cómo el modelo responderá sin problemas cuando sea interrumpido. A ChatGPT a veces le costaba distinguir qué imágenes se suponía que debía estar mirando, pero su capacidad de respuesta era notable. La compañía señaló que no lanzaría GPT-5, el rumoreado modelo de próxima generación, durante la actualización de primavera. Murati dijo que puede haber más noticias sobre los próximos lanzamientos “pronto”. Las consideraciones de seguridad en torno a GPT-4o OpenAI aseguraron a las personas que GPT-4o tiene «nuevos sistemas de seguridad para proporcionar barreras de seguridad en las salidas de voz», además de una extensa capacitación posterior y filtrado de los datos de capacitación para evitar que ChatGPT diga algo inapropiado o inseguro. GPT-4o se construyó de acuerdo con el marco de preparación interno y los compromisos voluntarios de OpenAI. Más de 70 investigadores de seguridad externos formaron un equipo rojo con GPT-4o antes de su lanzamiento. VER: Organizaciones de todo el mundo adoptan estándares como Credenciales de contenido para intentar reducir la información errónea y los deepfakes creados con IA. (TechRepublic) La nueva aplicación de escritorio ChatGPT llega a macOS Los usuarios de MacOS pronto podrán descargar una aplicación de escritorio ChatGPT. Los usuarios de ChatGPT Plus pueden acceder a la aplicación de escritorio hoy, mientras que otros usuarios gratuitos y de pago pueden esperar obtener acceso a ella «en las próximas semanas», dijo OpenAI. Esta interfaz de usuario para la aplicación de escritorio ChatGPT para macOS muestra ChatGPT escuchando mientras un usuario trabaja en el código. Imagen: Interfaz de usuario actualizada de OpenAI Simultáneamente con la nueva aplicación de escritorio ChatGPT, las aplicaciones ChatGPT y la versión de escritorio recibirán una interfaz de usuario nueva y más limpia destinada a mejorar la facilidad de uso. La interfaz de usuario actualizada para ChatGPT en un navegador cambia la posición del menú de configuración del usuario y limpia parte de la iconografía. Tenga en cuenta la adición de un lugar para adjuntar archivos dentro de la barra de mensajes. Imagen: OpenAI GPT Store y otras capacidades ahora abiertas para los usuarios de ChatGPT de forma gratuita. A partir del 13 de mayo, los usuarios de ChatGPT verán la siguiente implementación para las personas que no se suscriben a planes pagos: Use GPT-4 en lugar de GPT-3.5. GPT-4o puede extraer datos tanto del modelo ChatGPT como de la web. ChatGPT puede analizar datos en gráficos y crear nuevos gráficos. ChatGPT puede chatear sobre fotos cargadas por el usuario. Los usuarios del nivel gratuito pueden cargar archivos de texto que ChatGPT luego puede resumir, analizar o crear contenido nuevo. Los usuarios de la capa gratuita pueden explorar y utilizar GPT en la Tienda GPT. Los usuarios del nivel gratuito pueden aprovechar la función Memoria de ChatGPT, que permite al modelo recordar conversaciones anteriores con el mismo usuario. TechRepublic cubrió la actualización de primavera de OpenAI de forma remota.

El fundador de Buymeacoffee ha creado una aplicación de notas de voz impulsada por IA

Las herramientas impulsadas por IA, como Whisper de OpenAI, han permitido que muchas aplicaciones hagan de la transcripción una parte integral de su conjunto de funciones para la toma de notas personales y, como resultado, el espacio ha florecido rápidamente. Aplicaciones como AudioPen, Cleft Notes y TalkNotes han proliferado en las tiendas de aplicaciones e Internet, pero la mayoría ofrece un conjunto de funciones bastante limitado: te permiten grabar notas y transcribirlas, y algunas ofrecen funciones de resumen, pero hay mucho camino por recorrer. en cuanto a las características ofrecidas. La última aplicación en el espacio es Voicenotes. Creado por el fundador de la plataforma de propinas para creadores Buymeacoffee, Jijo Sunny, y su esposa Aleesha, Voicenotes tiene como objetivo diferenciarse al incluir un asistente de inteligencia artificial que le permite hacer preguntas sobre sus notas anteriores, además de brindar varias funciones como resúmenes y diferentes opciones de formato. . Los desarrolladores dijeron en un video que después de sufrir un aborto espontáneo, para distraerse, comenzaron a crear una herramienta de notas de voz junto con el hermano de Jijo y cofundador de Buymeacoffee, Joseph Sunny. Cuando la pareja consultaba a profesionales médicos, tomaban muchas notas de voz para capturar todo lo que decían las enfermeras y los médicos para poder recordar la información más tarde. Eso también impulsó la idea de tener a mano una herramienta de transcripción para no tener que reproducir notas repetidamente para recordar los detalles. Jijo y Aleesha enviaron la primera versión de la aplicación en marzo a probadores seleccionados e hicieron pública la aplicación web en abril. La aplicación en sí La aplicación web de Voicenotes no requiere que inicies sesión; puedes presionar directamente grabar y comenzar a hablar y la aplicación transcribirá. Sólo puedes grabar notas de voz de hasta un minuto de duración a menos que pagues por la herramienta. Una vez que dejes de grabar, puedes etiquetar las notas, editarlas y regenerar títulos usando AI. También le permite usar IA para reformatear la nota (convertirla en una publicación de blog, un tweet, una lista de tareas pendientes o un correo electrónico) y la aplicación también generará un resumen de la nota y enumerará los puntos principales. También hay una función «Pregunta a mi IA», que te permite buscar verbalmente tus notas usando el asistente de IA, si quieres recordar qué marca de líquido para lavar platos agregaste a tu lista de compras hace dos meses, por ejemplo. Créditos de imagen: Voicenotes.com Créditos de imagen: Voicenotes.com La compañía ahora ha lanzado aplicaciones para iOS y Android. Esta es una gran ventaja, dado que Cleft Notes sólo funciona en Mac e iOS (aún en versión beta). Si bien se puede acceder a AudioPen como una aplicación web desde cualquier lugar, no puede realizar grabaciones en segundo plano en iOS: si la pantalla de su teléfono inteligente se bloquea o si cambia a otra aplicación, dejará de grabar. Voicenotes también utiliza IA para impulsarte con indicaciones que puedes responder y grabar algunas notas. Créditos de imagen: Voicenotes.com Créditos de imagen: Voicenotes.com Competencia y hoja de ruta Voicenotes ofrece algunas características útiles, pero como mencionamos anteriormente, está ingresando a un espacio que se está llenando rápidamente. También tiene que competir con competidores que ofrecen mejores características. Cleft Notes, por ejemplo, permite la transcripción en el dispositivo (un punto importante porque mantiene sus notas privadas en lugar de enviarlas a un servidor para su transcripción), tiene una mejor integración con Apple y le permite grabar notas de hasta 10 minutos de duración en el nivel gratuito. AudioPen te ofrece muchas más opciones para formatear tus notas, lo que algunos pueden encontrar útiles. Además de la competencia con otras aplicaciones de notas de voz impulsadas por IA, Voicenotes también tiene que competir con aplicaciones nativas como Google Recorder en Pixel y Transcribe Assist de Samsung; ambas aplicaciones están disponibles solo en modelos selectos, pero podrían llegar a otros modelos a medida. la tecnología avanza. Créditos de imagen: Voicenotes.com El mayor riesgo para todas estas aplicaciones sería que Apple agregue transcripción a sus aplicaciones de notas de voz, ya que eso básicamente haría que las aplicaciones de terceros sean redundantes en dispositivos iOS. Aún así, puede resultar valioso ofrecer compatibilidad multiplataforma, mejores opciones de formato y funciones adicionales. Puedes probar Voicenotes gratis o pagar $10 al mes para desbloquear el acceso a mejores modelos como GPT-4 Turbo y Claude Opus, así como eliminar las restricciones de longitud de las notas. Por un período de tiempo limitado, también puedes pagar $50 por un plan «creyente» y obtener acceso a la aplicación de por vida (léase: siempre y cuando el desarrollador siga apoyándola). La compañía dijo que ya ha obtenido 100.000 dólares en ingresos por suscripciones. Jijo le dijo a TechCrunch por correo electrónico que la diferenciación de la aplicación será su «diseño simple pero elegante», el uso de los mejores modelos de IA y la función «Pregunte a mi IA». Agregó que Voicenotes pronto también estará disponible en relojes inteligentes y quiere extender su funcionalidad a todas las plataformas como asistente en tiempo real. Además, también está trabajando para convertir las notas de voz en listas de tareas pendientes con recordatorios.

Una guía completa para 2024

OpenAI puede ser el nombre más conocido cuando se trata de IA generativa comercial, pero Meta ha conseguido hacerse un hueco a través de potentes modelos de lenguaje de gran tamaño de código abierto. Meta reveló su modelo de IA generativa más grande hasta el momento, Llama 3, el 18 de abril, que supera al GPT04 en algunas pruebas estándar de IA. ¿Qué es Llama 3? Llama 3 es un LLM creado por Meta. Se puede utilizar para crear IA generativa, incluidos chatbots que puedan responder en lenguaje natural a una amplia variedad de consultas. Los casos de uso en los que se ha evaluado Llama 3 incluyen lluvia de ideas, escritura creativa, codificación, resumen de documentos y respuesta a preguntas en la voz de una persona o personaje específico. El modelo Llama 3 completo viene en cuatro variantes: 8 mil millones de parámetros preentrenados. Instrucción de 8 mil millones de parámetros ajustada. 70 mil millones de parámetros previamente entrenados. Instrucción de 70 mil millones de parámetros ajustada. Las capacidades de IA generativa de Llama 3 se pueden utilizar en un navegador, a través de funciones de IA en Facebook, Instagram, WhatsApp y Messenger de Meta. El modelo en sí se puede descargar desde Meta o desde las principales plataformas empresariales en la nube. ¿Cuándo se lanzará Llama 3 y en qué plataformas? Llama 3 se lanzó el 18 de abril en Google Cloud Vertex AI, watsonx.ai de IBM y otras grandes plataformas de alojamiento LLM. AWS siguió y agregó Llama 3 a Amazon Bedrock el 23 de abril. A partir del 29 de abril, Llama 3 está disponible en las siguientes plataformas: Databricks. Abrazando la cara. Kaggle. Microsoft Azure. NIM de NVIDIA. Las plataformas de hardware de AMD, AWS, Dell, Intel, NVIDIA y Qualcomm son compatibles con Llama 3. ¿Llama 3 es de código abierto? Llama 3 es de código abierto, como lo han sido los otros LLM de Meta. La creación de modelos de código abierto ha sido un valioso diferenciador para Meta. VER: El informe del índice de IA de Stanford revela 8 tendencias de la IA en los negocios actuales. (TechRepublic) Existe cierto debate sobre qué parte del código o los pesos de un modelo de lenguaje grande deben estar disponibles públicamente para contar como código abierto. Pero en lo que respecta a los fines comerciales, Meta ofrece una mirada más abierta a Llama 3 que sus competidores para sus LLM. ¿Llama 3 es gratis? Llama 3 es gratuito siempre que se utilice según los términos de la licencia. El modelo se puede descargar directamente desde Meta o utilizar dentro de los diversos servicios de alojamiento en la nube enumerados anteriormente, aunque esos servicios pueden tener tarifas asociadas. La página de inicio de Meta AI en un navegador ofrece opciones sobre qué pedirle a Llama 3 que haga. Imagen: Meta / Captura de pantalla de Megan Crouse ¿Llama 3 es multimodal? Llama 3 no es multimodal, lo que significa que no es capaz de comprender datos de diferentes modalidades como vídeo, audio o texto. Meta planea hacer que Llama 3 sea multimodal en un futuro próximo. Mejoras de Llama 3 sobre Llama 2 Para hacer que Llama 3 sea más capaz que Llama 2, Meta agregó un nuevo tokenizador para codificar el lenguaje de manera mucho más eficiente. Meta mejoró Llama 3 con atención de consultas agrupadas, un método para mejorar la eficiencia de la inferencia del modelo. El conjunto de entrenamiento de Llama 3 es siete veces mayor que el conjunto de entrenamiento utilizado para Llama 2, dijo Meta, e incluye cuatro veces más código. Meta aplicó nuevas eficiencias al preentrenamiento y al ajuste de instrucciones de Llama 3. Dado que Llama 3 está diseñado como un modelo abierto, Meta agregó barreras de seguridad pensando en los desarrolladores. Una nueva barrera de seguridad es Code Shield, cuyo objetivo es detectar el código inseguro que el modelo pueda producir. ¿Qué sigue para Llama 3? Meta planea: Agregar varios idiomas a Llama 3. Expandir la ventana contextual. Generalmente aumenta las capacidades del modelo en el futuro. Meta está trabajando en un modelo de parámetros 400B, que puede ayudar a dar forma a la próxima generación de Llama 3. En las primeras pruebas, Llama 3 400B con ajuste de instrucciones obtuvo una puntuación de 86,1 en la evaluación de conocimientos MMLU (una prueba comparativa de IA), según Meta, lo que lo convierte en competitivo con GPT-4. Llama 400B sería el LLM más grande de Meta hasta el momento. El lugar de Llama 3 en el competitivo panorama de la IA generativa Llama 3 compite directamente con GPT-4 y GPT-3.5, Gemini y Gemma de Google, Mistral 7B de Mistral AI, Perplexity AI y otros LLM para uso individual o comercial para construir chatbots de IA generativa y otros. herramientas. Aproximadamente una semana después de que se revelara Llama 3, Snowflake presentó su propia IA empresarial abierta con capacidades comparables, llamada Snowflake Arctic. Los crecientes requisitos de rendimiento de LLM como Llama 3 están contribuyendo a una carrera armamentista de PC con IA que pueden ejecutar modelos al menos parcialmente en el dispositivo. Mientras tanto, las empresas de IA generativa pueden enfrentar un mayor escrutinio por sus grandes necesidades informáticas, lo que podría contribuir a empeorar el cambio climático. Llama 3 vs GPT-4 Llama 3 supera al GPT-4 de OpenAI en HumanEval, que es un punto de referencia estándar que compara la capacidad del modelo de IA para generar código con el código escrito por humanos. Llama 3 70B obtuvo una puntuación de 81,7, en comparación con la puntuación de 67 de GPT-4. Sin embargo, GPT-4 superó a Llama 3 en la evaluación de conocimientos MMLU con una puntuación de 86,4 frente a 79,5 de Llama 3 70B. El rendimiento de Llama 3 en más pruebas se puede encontrar en la publicación del blog de Meta.

Las 5 principales tendencias de IA a tener en cuenta en 2024

Puede parecer que la tendencia de la IA sigue una trayectoria de publicidad y adopción similar a la de tendencias tecnológicas empresariales anteriores, como la nube y el aprendizaje automático, aunque es diferente en aspectos importantes, entre ellos: La IA requiere enormes cantidades de computación para los procesos que le permiten digerir y recrear datos no estructurados. La IA está cambiando la forma en que algunas organizaciones ven la estructura organizacional y las carreras. El contenido de IA que puede confundirse con fotografías u obras de arte originales está sacudiendo el mundo artístico y algunos temen que pueda usarse para influir en las elecciones. Aquí están nuestras predicciones para cinco tendencias en IA, que a menudo se refieren a modelos generativos, a las que debemos estar atentos en 2024. La adopción de IA parece cada vez más una integración con aplicaciones existentes. Muchos casos de uso de IA generativa que llegan al mercado para empresas y negocios se integran con aplicaciones existentes. en lugar de crear casos de uso completamente nuevos. El ejemplo más destacado de esto es la proliferación de copilotos, es decir, asistentes de IA generativa. Microsoft ha instalado copilotos junto a las ofertas de la suite 365, y empresas como SoftServe y muchas otras proporcionan copilotos para trabajos y mantenimiento industriales. Google ofrece una variedad de copilotos para todo, desde la creación de videos hasta la seguridad. Pero todos estos copilotos están diseñados para examinar el contenido existente o crear contenido que se parezca más a lo que un humano escribiría para trabajar. VER: ¿Google Gemini o ChatGPT son mejores para el trabajo? (TechRepublic) Incluso IBM pidió una revisión de la realidad sobre la tecnología de moda y señaló que herramientas como Smart Compose 2018 de Google son técnicamente «generativas», pero no se consideraron un cambio en la forma en que trabajamos. Una diferencia importante entre Smart Compose y la IA generativa contemporánea es que algunos modelos de IA actuales son multimodales, lo que significa que pueden crear e interpretar imágenes, vídeos y gráficos. “Yo diría que veremos mucha innovación al respecto (multimodalidad) en 2024”, dijo Arun Chandrasekaran, distinguido vicepresidente y analista de Gartner, en una conversación con TechRepublic. En NVIDIA GTC 2024, muchas empresas emergentes en la feria ejecutaron chatbots en los grandes modelos de lenguaje de Mistral AI, ya que los modelos abiertos se pueden usar para crear IA entrenada personalizada con acceso a los datos de la empresa. El uso de datos de capacitación patentados permite a la IA responder preguntas sobre productos, procesos industriales o servicios al cliente específicos sin necesidad de introducir información patentada de la empresa en un modelo capacitado que podría publicar esos datos en la Internet pública. Hay muchos otros modelos abiertos para texto y video, incluido Meta’s Llama 2, el conjunto de modelos de Stability AI, que incluye Stable LM y Stable Diffusion, y la familia Falcon del Instituto de Innovación Tecnológica de Abu Dhabi. «Existe un gran interés en llevar datos empresariales a los LLM como una forma de fundamentar los modelos y agregar contexto», dijo Chandrasekaran. La personalización de modelos abiertos se puede realizar de varias maneras, incluida la ingeniería rápida, la generación con recuperación aumentada y el ajuste fino. Agentes de IA Otra forma en que la IA podría integrarse más con las aplicaciones existentes en 2024 es a través de agentes de IA, que Chandrasekaran llamó “una bifurcación” en el progreso de la IA. Los agentes de IA automatizan las tareas de otros robots de IA, lo que significa que el usuario no tiene que solicitar modelos individuales específicamente; en cambio, pueden proporcionar una instrucción en lenguaje natural al agente, lo que esencialmente pone a su equipo a trabajar reuniendo los diferentes comandos necesarios para llevar a cabo la instrucción. El vicepresidente senior de Intel y director general de Network and Edge Group, Sachin Katti, también se refirió a los agentes de IA y sugirió en una sesión informativa previa a la conferencia Intel Vision celebrada del 9 al 11 de abril que la IA que delegue el trabajo entre sí podría realizar las tareas de departamentos enteros. . La generación de recuperación aumentada domina la IA empresarial La generación de recuperación aumentada permite a un LLM comparar sus respuestas con una fuente externa antes de proporcionar una respuesta. Por ejemplo, la IA puede comparar su respuesta con un manual técnico y proporcionar a los usuarios notas a pie de página que tienen enlaces directos al manual. RAG está destinado a aumentar la precisión y disminuir las alucinaciones. RAG proporciona a las organizaciones una forma de mejorar la precisión de los modelos de IA sin que la factura se dispare. RAG produce resultados más precisos en comparación con otras formas comunes de agregar datos empresariales a los LLM, ingeniería rápida y ajustes. Es un tema candente en 2024 y es probable que continúe siéndolo más adelante este año. Más cobertura de IA de lectura obligada Las organizaciones expresan silenciosas preocupaciones sobre la sostenibilidad. La IA se utiliza para crear modelos climáticos y meteorológicos que predicen eventos desastrosos. Al mismo tiempo, la IA generativa consume mucha energía y recursos en comparación con la informática convencional. ¿Qué significa esto para las tendencias de la IA? De manera optimista, la conciencia de los procesos que consumen mucha energía alentará a las empresas a fabricar hardware más eficiente para ejecutarlos o adaptar su uso. De manera menos optimista, las cargas de trabajo de IA generativa pueden seguir consumiendo enormes cantidades de electricidad y agua. De cualquier manera, la IA generativa puede convertirse en un tema que contribuya a los debates nacionales sobre el uso de la energía y la resiliencia de la red. La regulación de la IA ahora se centra principalmente en casos de uso, pero en el futuro, su uso de energía también puede estar sujeto a regulaciones específicas. Los gigantes tecnológicos abordan la sostenibilidad a su manera, como la compra de energía solar y eólica por parte de Google en determinadas regiones. Por ejemplo, NVIDIA promocionó el ahorro de energía en los centros de datos sin dejar de ejecutar IA mediante el uso de menos bastidores de servidores con GPU más potentes. El uso de energía de los centros de datos y chips de IA Los 100.000 servidores de IA que se espera que NVIDIA envíe a los clientes este año podrían producir entre 5,7 y 8,9 TWh de electricidad al año, una fracción de la electricidad que se utiliza en los centros de datos hoy en día. Esto es según un artículo del candidato a doctorado Alex de Vries publicado en octubre de 2023. Pero si NVIDIA por sí sola agrega 1,5 millones de servidores de IA a la red para 2027, como especula el artículo, los servidores usarían entre 85,4 y 134,0 TWh por año, lo que es un impacto mucho más grave. Otro estudio encontró que la creación de 1000 imágenes con Stable Diffusion XL genera aproximadamente tanto dióxido de carbono como conducir 4,1 millas en un automóvil promedio de gasolina. «Descubrimos que las arquitecturas generativas multipropósito son órdenes de magnitud más caras que los sistemas de tareas específicas para una variedad de tareas, incluso cuando se controla el número de parámetros del modelo», escribieron los investigadores Alexandra Sasha Luccioni y Yacine Jernite de Hugging. Face y Emma Strubell de la Universidad Carnegie Mellon. En la revista Nature, la investigadora de inteligencia artificial de Microsoft, Kate Crawford, señaló que el entrenamiento del GPT-4 utilizó alrededor del 6% del agua del distrito local. Cambian los roles de los especialistas en inteligencia artificial La ingeniería rápida fue una de las habilidades más populares en tecnología en 2023, y la gente se apresuró a traer a casa salarios de seis cifras por instruir a ChatGPT y productos similares para producir respuestas útiles. El revuelo se ha desvanecido un poco y, como se mencionó anteriormente, muchas empresas que utilizan mucho la IA generativa personalizan sus propios modelos. La ingeniería rápida puede convertirse en parte de las tareas habituales de los ingenieros de software en el futuro, pero no como una especialización, sino simplemente como una parte de la forma en que los ingenieros de software realizan sus tareas habituales. Uso de IA para ingeniería de software «El uso de IA dentro del dominio de la ingeniería de software es uno de los casos de uso de más rápido crecimiento que vemos hoy», dijo Chandrasekaran. “Creo que la ingeniería rápida será una habilidad importante en toda la organización en el sentido de que cualquier persona que interactúe con sistemas de IA (que seremos muchos de nosotros en el futuro) debe saber cómo guiar y dirigir estos modelos. Pero, por supuesto, la gente en ingeniería de software necesita comprender realmente la ingeniería rápida a escala y algunas de las técnicas avanzadas de la ingeniería rápida”. En cuanto a cómo se asignan las funciones de la IA, dependerá en gran medida de las organizaciones individuales. Queda por ver si la mayoría de las personas que realizan ingeniería rápida tendrán o no ingeniería rápida como título de trabajo. Títulos ejecutivos relacionados con la IA Una encuesta de ejecutivos de datos y tecnología realizada por Sloan Management Review del MIT en enero de 2024 encontró que las organizaciones a veces estaban recortando los puestos de directores de IA. Ha habido cierta “confusión sobre las responsabilidades” de los líderes hiperespecializados como la IA o los responsables de datos, y es probable que 2024 se normalice en torno a los “líderes tecnológicos generales” que crean valor a partir de los datos e informan al director ejecutivo, independientemente de dónde provengan esos datos. de. VER: Qué hace un jefe de IA y por qué las organizaciones deberían tener uno en el futuro. (TechRepublic) Por otro lado, Chandrasekaran dijo que los directores de datos y análisis y los directores de inteligencia artificial «no son frecuentes», pero han aumentado en número. Es difícil predecir si ambos seguirán siendo roles separados de CIO o CTO, pero puede depender de qué competencias centrales estén buscando las organizaciones y de si los CIO se encuentran equilibrando demasiadas otras responsabilidades al mismo tiempo. «Definitivamente estamos viendo que estos roles (oficial de IA y oficial de datos y análisis) aparecen cada vez más en nuestras conversaciones con los clientes», dijo Chandrasekaran. El 28 de marzo de 2024, la Oficina de Administración y Presupuesto de EE. UU. publicó una guía para el uso de IA dentro de las agencias federales, que incluía un mandato para que todas esas agencias designaran un Director de IA. El arte con IA y el vidriado contra el arte con IA se vuelven más comunes A medida que el software artístico y las plataformas de fotografías de archivo abrazan la fiebre del oro de las imágenes sencillas, los artistas y reguladores buscan formas de identificar el contenido de IA para evitar la desinformación y el robo. El arte con IA se está volviendo más común. Adobe Stock ahora ofrece herramientas para crear arte con IA y marca el arte con IA como tal en su catálogo de imágenes de archivo. El 18 de marzo de 2024, Shutterstock y NVIDIA anunciaron una herramienta de generación de imágenes 3D en acceso temprano. OpenAI promovió recientemente a cineastas que utilizan la fotorrealista Sora AI. Las demostraciones fueron criticadas por defensores de los artistas, incluido el director ejecutivo de Fairly Trained AI, Ed Newton-Rex, ex miembro de Stability AI, quien las llamó «Artistwashing: cuando solicitas comentarios positivos sobre tu modelo de IA generativa de un puñado de creadores, mientras entrenas en el trabajo de las personas». sin permiso/pago”. Es probable que a lo largo de 2024 se sigan desarrollando dos posibles respuestas a las obras de arte con IA: las marcas de agua y el vidriado. Arte de IA con marcas de agua El estándar líder para las marcas de agua proviene de la Coalición para la Procedencia y Autenticidad del Contenido, con la que OpenAI (Figura A) y Meta han trabajado para etiquetar imágenes generadas por su IA; sin embargo, las marcas de agua, que aparecen visualmente o en metadatos, son fáciles de eliminar. Algunos dicen que las marcas de agua no serán suficientes para prevenir la desinformación, particularmente en torno a las elecciones estadounidenses de 2024. La Figura A Los metadatos de una imagen generada por DALL-E muestran la procedencia de la imagen. VER: El gobierno federal de EE. UU. y las principales empresas de inteligencia artificial acordaron el año pasado una lista de compromisos voluntarios, incluida la marca de agua. (TechRepublic) Envenenamiento de arte original con IA Los artistas que buscan evitar que los modelos de IA se entrenen con arte original publicado en línea pueden usar Glaze o Nightshade, dos herramientas de envenenamiento de datos creadas por la Universidad de Chicago. El envenenamiento de datos ajusta las ilustraciones lo suficiente como para hacerlas ilegibles para un modelo de IA. Es probable que aparezcan más herramientas como esta en el futuro, ya que tanto la generación de imágenes mediante IA como la protección del trabajo original de los artistas seguirán siendo un foco de atención en 2024. ¿Está sobrevalorada la IA? La IA era tan popular en 2023 que inevitablemente fue sobrevalorada en 2024, pero eso no significa que no se le esté dando algún uso práctico. A finales de 2023, Gartner declaró que la IA generativa había alcanzado “la cima de las expectativas infladas”, un conocido pináculo de exageración antes de que las tecnologías emergentes se volvieran prácticas y normalizadas. Al pico le sigue el “punto más bajo de la desilusión” antes de volver a subir a la “pendiente de la iluminación” y, finalmente, a la productividad. Podría decirse que el lugar de la IA generativa en el pico o en el punto más bajo significa que está sobrevalorada. Sin embargo, muchos otros productos han pasado por el ciclo de exageración antes, y muchos finalmente alcanzaron la “meseta de productividad” después del auge inicial.

¿Qué es GPT-4 y de qué es capaz?

Imagen: LALAKA/Adobe Stock GPT-4 es un sistema modelo de lenguaje de gran tamaño con inteligencia artificial que puede imitar el habla y el razonamiento humanos. Para ello, se capacita en una vasta biblioteca de comunicación humana existente, desde obras literarias clásicas hasta grandes extensiones de Internet. La inteligencia artificial de este tipo se basa en su entrenamiento para predecir qué letra, número u otro carácter es probable que aparezca en secuencia. Esta hoja de trucos explora GPT-4 desde un alto nivel: cómo acceder a GPT-4 para uso comercial o de consumo, quién lo creó y cómo funciona. ¿Qué es GPT-4? GPT-4 es un modelo multimodal de gran tamaño que puede imitar prosa, arte, video o audio producido por un humano. GPT-4 es capaz de resolver problemas escritos o generar texto o imágenes originales. GPT-4 es la cuarta generación del modelo básico de OpenAI. La API GPT-4, así como las API GPT-3.5 Turbo, DALL·E y Whisper ya están disponibles de forma general a partir del 7 de julio de 2023. El 6 de noviembre de 2023, OpenAI anunció la próxima generación de GPT-4. , GPT-4 Turbo. ¿Quién es el propietario de GPT-4? GPT-4 es propiedad de OpenAI, una empresa independiente de inteligencia artificial con sede en San Francisco. OpenAI se fundó en 2015; Comenzó como una organización sin fines de lucro, pero desde entonces pasó a un modelo con fines de lucro. OpenAI ha recibido financiación de Elon Musk, Microsoft, Amazon Web Services, Infosys y otros patrocinadores corporativos e individuales. OpenAI también ha producido ChatGPT, un chatbot de uso gratuito derivado del modelo de la generación anterior, GPT-3.5, y DALL-E, un modelo de aprendizaje profundo generador de imágenes. A medida que la tecnología mejora y crece en sus capacidades, OpenAI revela cada vez menos sobre cómo se entrenan sus soluciones de IA. ¿Cuándo se lanzó GPT-4? OpenAI anunció el lanzamiento de GPT-4 el 14 de marzo de 2023. GPT-4 estuvo disponible de inmediato para los suscriptores de ChatGPT Plus, mientras que otros usuarios interesados ​​tuvieron que unirse a una lista de espera para acceder. VER: Salesforce incorporó IA generativa a sus productos de ventas y servicios de campo. (TechRepublic) ¿Cómo se puede acceder a GPT-4? La versión pública de GPT-4 está disponible en el sitio del portal ChatGPT. El 7 de julio de 2023, OpenAI puso la API GPT-4 a disposición para uso general de «todos los desarrolladores de API existentes con un historial de pagos exitosos». OpenAI también espera abrir el acceso a nuevos desarrolladores a finales de julio de 2023. Los límites de velocidad pueden aumentar después de ese período dependiendo de la cantidad de recursos informáticos disponibles. En agosto de 2023, GPT-4 se incluyó como parte de ChatGPT Enterprise. Los usuarios de la suscripción empresarial reciben el uso ilimitado de una tubería de alta velocidad a GPT-4. ¿Cuánto cuesta usar GPT-4? Para un individuo, el uso de la suscripción ChatGPT Plus cuesta $20 por mes. El precio de la API GPT-4 de solo texto comienza en $ 0,03 por 1.000 tokens de solicitud (un token equivale aproximadamente a cuatro caracteres en inglés) y $ 0.06 por 1.000 tokens de finalización (salida), dijo OpenAI. (OpenAI explica más sobre cómo se cuentan los tokens aquí). VER: Política de ética de la inteligencia artificial (TechRepublic Premium) También está disponible una segunda opción con mayor longitud de contexto (alrededor de 50 páginas de texto) conocida como gpt-4-32k. Esta opción cuesta $0,06 por cada 1.000 tokens de aviso y $0,12 por cada 1.000 tokens de finalización. Otros servicios de asistencia de IA como Microsoft Copilot y Copilot X de GitHub ahora se ejecutan en GPT-4. Más cobertura de IA de lectura obligada ¿Cuáles son las capacidades de GPT-4? Al igual que su predecesor, GPT-3.5, el principal reclamo de fama de GPT-4 es su respuesta a preguntas en lenguaje natural y otras indicaciones. OpenAI dice que GPT-4 puede «seguir instrucciones complejas en lenguaje natural y resolver problemas difíciles con precisión». En concreto, GPT-4 puede resolver problemas matemáticos, responder preguntas, hacer inferencias o contar historias. Además, GPT-4 puede resumir grandes cantidades de contenido, lo que podría resultar útil para referencias de consumidores o casos de uso empresarial, como una enfermera que resume los resultados de su visita a un cliente. OpenAI probó la capacidad de GPT-4 para repetir información en un orden coherente utilizando varias evaluaciones de habilidades, incluidos los exámenes AP y Olympiad y el examen uniforme de la barra. Obtuvo una puntuación en el percentil 90 en el examen de la abogacía y en el percentil 93 en el examen de lectura y escritura basado en evidencia SAT. GPT-4 obtuvo puntuaciones variables en los exámenes AP. Estas no son verdaderas pruebas de conocimiento; en cambio, ejecutar GPT-4 a través de pruebas estandarizadas muestra la capacidad del modelo para formar respuestas que suenen correctas a partir de la masa de escritura y arte preexistentes en los que fue entrenado. GPT-4 predice qué token probablemente será el siguiente en una secuencia. (Un token puede ser una sección de una cadena de números, letras, espacios u otros caracteres). Si bien OpenAI mantiene la boca cerrada sobre los detalles específicos del entrenamiento de GPT-4, los LLM generalmente se capacitan traduciendo primero la información de un conjunto de datos en tokens; Luego, el conjunto de datos se limpia para eliminar datos confusos o repetitivos. A continuación, las empresas de IA suelen emplear personas para aplicar el aprendizaje por refuerzo al modelo, empujando al modelo hacia respuestas que tengan sentido común. Los pesos, que en pocas palabras son los parámetros que le dicen a la IA qué conceptos están relacionados entre sí, se pueden ajustar en esta etapa. La API de Chat Completions y sus actualizaciones La API de Chat Completions permite a los desarrolladores utilizar la API GPT-4 a través de un formato de solicitud de texto libre. Con él, pueden crear chatbots u otras funciones que requieran una conversación de ida y vuelta. La API de Chat Completions estuvo disponible por primera vez en junio de 2020. En enero de 2024, la API de Chat Completions se actualizará para utilizar modelos de finalización más nuevos. Los modelos ada, babbage, curie y davinci de OpenAI se actualizarán a la versión 002, mientras que las tareas de finalización de chat que utilizan otros modelos pasarán a gpt-3.5-turbo-instruct. Ajuste de GPT-3.5 Turbo y otras noticias El 22 de agosto de 2023, OpenAPI anunció la disponibilidad de ajuste de GPT-3.5 Turbo. Esto permite a los desarrolladores personalizar modelos y probarlos para sus casos de uso específicos. En enero de 2023, OpenAI lanzó la última versión de su API de moderación, que ayuda a los desarrolladores a identificar texto potencialmente dañino. La última versión se conoce como text-moderation-007 y funciona de acuerdo con las mejores prácticas de seguridad de OpenAI. ¿Cuáles son las limitaciones de GPT-4 para empresas? Al igual que otras herramientas de inteligencia artificial de este tipo, GPT-4 tiene limitaciones. Por ejemplo, GPT-4 no comprueba si sus declaraciones son precisas. Su entrenamiento con textos e imágenes de Internet puede hacer que sus respuestas sean absurdas o incendiarias. Sin embargo, OpenAI tiene controles digitales y entrenadores humanos para tratar de mantener el resultado lo más útil y apropiado para el negocio posible. Además, GPT-4 tiende a crear «alucinaciones», que es el término de inteligencia artificial para las imprecisiones. Sus palabras pueden tener sentido en secuencia, ya que se basan en probabilidades establecidas por aquello en lo que se entrenó el sistema, pero no están verificadas ni conectadas directamente con eventos reales. OpenAI está trabajando para reducir la cantidad de falsedades que produce el modelo. Otra limitación importante es la cuestión de si la información corporativa confidencial que se introduce en GPT-4 se utilizará para entrenar el modelo y exponer esos datos a partes externas. Microsoft, que tiene un acuerdo de reventa con OpenAI, planea ofrecer instancias privadas de ChatGPT a corporaciones más adelante en el segundo trimestre de 2023, según un informe de abril. Al igual que GPT-3.5, GPT-4 no incorpora información más reciente que septiembre de 2021 en su léxico. Uno de los competidores de GPT-4, Google Bard, tiene información actualizada porque está entrenado en la Internet contemporánea. La IA puede sufrir un colapso del modelo cuando se entrena con datos creados por IA; Este problema se está volviendo más común a medida que proliferan los modelos de IA. GPT-4 versus GPT-3.5 o ChatGPT El segundo modelo más reciente de OpenAI, GPT-3.5, difiere de la generación actual en algunos aspectos. OpenAI no ha revelado el tamaño del modelo en el que se entrenó GPT-4, pero dice que es «más datos y más cálculos» que los miles de millones de parámetros con los que se entrenó ChatGPT. GPT-4 también ha demostrado más destreza a la hora de escribir una variedad más amplia de materiales, incluida la ficción. GPT-4 tiene un rendimiento superior a ChatGPT en las pruebas estandarizadas mencionadas anteriormente. Las respuestas a las indicaciones dadas al chatbot pueden ser más concisas y más fáciles de analizar. OpenAI señala que GPT-3.5 Turbo iguala o supera a GPT-4 en determinadas tareas personalizadas. Además, GPT-4 es mejor que GPT-3.5 a la hora de tomar decisiones comerciales, como programación o resumen. GPT-4 tiene «un 82% menos de probabilidades de responder a solicitudes de contenido no permitido y un 40% más de probabilidades de producir respuestas objetivas», dijo OpenAI. VER: Aprenda a usar ChatGPT. (TechRepublic Academy) Otra gran diferencia entre los dos modelos es que GPT-4 puede manejar imágenes. Puede servir como ayuda visual, describiendo objetos del mundo real o determinando los elementos más importantes de un sitio web y describiéndolos. «En una variedad de dominios, incluidos documentos con texto y fotografías, diagramas o capturas de pantalla, GPT-4 exhibe capacidades similares a las de las entradas de solo texto», escribió OpenAI en su documentación GPT-4. ¿Vale la pena actualizar a GPT-4? Si las nuevas capacidades ofrecidas a través de GPT-4 son apropiadas para su negocio es una decisión que depende en gran medida de sus casos de uso y de si ha tenido éxito con la inteligencia artificial en lenguaje natural. Revise las capacidades y limitaciones enumeradas anteriormente y considere dónde GPT-4 podría ahorrar tiempo o reducir costos; por el contrario, considere qué tareas podrían beneficiarse materialmente del conocimiento, las habilidades y el sentido común humanos. Las últimas noticias sobre GPT-4 Microsoft anunció a principios de agosto que la disponibilidad de GPT-4 en el servicio Azure OpenAI se ha expandido a varias regiones de cobertura nuevas. A partir de noviembre de 2023, los usuarios que ya estén explorando el ajuste fino de GPT-3.5 podrán postularse al programa de acceso experimental de ajuste fino de GPT-4. OpenAI también lanzó un programa de modelos personalizados que ofrece aún más personalización de la que permite el ajuste fino. Las organizaciones pueden solicitar un número limitado de espacios (que comienzan en $2-3 millones) aquí. En la primera conferencia DevDay de OpenAI en noviembre, OpenAI demostró que GPT-4 Turbo podía manejar más contenido a la vez (más de 300 páginas de un libro estándar) que GPT-4. GPT-4 Turbo estará disponible en versión preliminar a partir de noviembre. OpenAI bajó los precios de GPT-4 Turbo en noviembre de 2023. El precio de GPT-3.5 Turbo se redujo varias veces, la más reciente en enero de 2024. El 9 de abril, OpenAI anunció que GPT-4 con Vision está disponible de forma generalizada en la API de GPT-4. , lo que permite a los desarrolladores utilizar un modelo para analizar texto y vídeo con una llamada API.

La tienda GPT de OpenAI ya está abierta para los creadores de Chatbot

OpenAI ha estado mostrando su tienda para versiones personalizadas de ChatGPT durante dos meses, y las puertas ahora están abiertas a la Tienda GPT. La tienda, a la que pueden acceder los suscriptores de ChatGPT, ofrece una galería de GPT que son chatbots de IA generativos modificados específicamente para la generación de imágenes, escritura, educación, programación y más. Los creadores de chatbots podrán promocionar sus creaciones, mientras que los profesionales y consumidores pueden encontrar los chatbots más especializados y prácticos para sus necesidades que ChatGPT. ¿Cómo accedo a la tienda GPT? La Tienda GPT (Figura A) está disponible en chat.openai.com/gpts para personas con suscripciones a ChatGPT Plus, ChatGPT Enterprise y ChatGPT Team, una variante de ChatGPT Enterprise para casos de uso más pequeños. Figura A Una captura de pantalla de la Tienda GPT. Imagen: OpenAI Algunas organizaciones ya se han asociado con OpenAI para brindar servicios a través de la Tienda GPT. Por ejemplo, GPT de Canva permite a los profesionales diseñar publicaciones o presentaciones en redes sociales utilizando indicaciones en lenguaje natural. OpenAI planea establecer un sistema de ingresos en el que a los creadores de chatbots en los EE. UU. se les pueda pagar por sus GPT. Se espera que esté disponible más adelante en el primer trimestre de 2024. Los creadores que hayan creado GPT pueden ofrecer sus chatbots en la tienda marcándolos como para Todos (a diferencia de la opción Cualquiera con un enlace) y completando el Perfil del creador en Configuración. ¿Qué es el equipo ChatGPT? El 10 de enero, OpenAI también anunció ChatGPT Team (Figura B), que ofrece a los equipos un entorno colaborativo para compartir GPT e indicaciones. Figura B Una captura de pantalla del equipo ChatGPT. Imagen: OpenAI ChatGPT Team no es tan fuerte como ChatGPT Enterprise; ChatGPT Team brinda acceso a GPT-4 con una ventana de contexto de token de 32K, mientras que ChatGPT Enterprise ofrece una ventana de contexto de token de 128K. OpenAI señala que, dado que ChatGPT Team está diseñado para empresas, los datos que contiene no se compartirán con OpenAI ni se utilizarán para entrenar otra IA generativa. ChatGPT Team es una solución empresarial de $25 al mes por usuario al año o $30 al mes.

Source link

OpenAI anuncia GPT-4 Turbo y GPT Tool Builder Store

GPT-4 Turbo, que está en versión preliminar para desarrolladores, puede solicitar información tan reciente como abril de 2023. Y OpenAI reveló una nueva forma para que los desarrolladores creen herramientas de inteligencia artificial. En la presentación principal de la primera conferencia DevDay de OpenAI, celebrada el 6 de noviembre de 2023 en San Francisco, OpenAI anunció una versión nueva y más potente de GPT-4, herramientas de IA generativa especializadas llamadas GPT y una API de asistentes para ayudar a los desarrolladores a crear aplicaciones de IA. Además, OpenAI anunció que ChatGPT con GPT4 Turbo podrá extraer información de eventos actuales tan recientes como abril de 2023. Saltar a: GPT-4 Turbo puede digerir más información que GPT-4 a un precio más bajo. GPT-4 Turbo agrega estos nuevos Capacidades para GPT-4: longitud de contexto de 128.000 tokens, o 300 páginas de un libro estándar. Más control para los desarrolladores, incluido un modo JSON, la capacidad de llamar a múltiples funciones a la vez, registrar probabilidades y resultados reproducibles. Conocimiento mundial hasta abril de 2023. Límites de tarifas más altos. GPT-4 Turbo costará un centavo por 1000 tokens de entrada y tres centavos por 1000 tokens de salida, más barato que GPT-4, dijo el director ejecutivo de OpenAI, Sam Altman (Figura A). Figura A El director ejecutivo de OpenAI, Sam Altman, resume los anuncios del DevDay de OpenAI el 6 de noviembre de 2023 en San Francisco. Imagen: TechRepublic «Decidimos priorizar los costos primero porque necesitamos hacer uno u otro, pero ahora estamos trabajando en la velocidad», dijo Altman durante la presentación principal. GPT-4 Turbo está disponible hoy en versión preliminar para desarrolladores con una suscripción a OpenAI. OpenAI espera que GPT-4 Turbo esté listo para producción en las próximas semanas. ChatGPT utilizará GPT-4 Turbo en una implementación gradual a partir de hoy. En el momento de escribir este artículo, GP-3.5 también mostró una actualización de conocimientos hasta enero de 2022. VER: OpenAI estuvo entre las organizaciones que firmaron una lista voluntaria de garantías de seguridad de IA con el gobierno de EE. UU. en septiembre. (TechRepublic) Otro cambio que los usuarios de ChatGPT verán hoy es que el selector de modelo ya no es un menú desplegable; en cambio, ChatGPT elige automáticamente qué modelo y modalidad, incluidas imágenes de DALL-E 3 y texto a voz, usar según la solicitud del usuario. Los desarrolladores podrán crear y vender herramientas de IA personalizadas conocidas como GPT. Además de mencionar el objetivo declarado de OpenAI de AGI (inteligencia artificial general hipotética, o IA, que es más inteligente que los humanos), Altman enfatizó que el objetivo para el futuro de la empresa es Permitir agentes de IA personalizados para combinar habilidades específicas. Con ese fin, OpenAI está lanzando GPT, que son versiones personalizadas de ChatGPT (Figura B). Figura B El director ejecutivo de OpenAI, Sam Altman, demostró la creación de un GPT el 6 de noviembre de 2023 durante el discurso de apertura de OpenAI DevDay en San Francisco. Imagen: Los GPT de TechRepublic se pueden diseñar, personalizar y vender en un mercado llamado GPT Store, que se abrirá a finales de este mes (Figura C). Figura C Una maqueta de la página principal de la Tienda GPT. Imagen: Los creadores de OpenAI pueden obtener ingresos de sus GPT en función de la popularidad de los GPT. Canva y Zapier recibieron acceso temprano al creador de GPT y lanzaron sus propios GPT. En ChatGPT Enterprise, los usuarios podrán crear GPT que solo se puedan compartir dentro de su organización. Los GPT estarán disponibles en ChatGPT Enterprise el miércoles 8 de noviembre. OpenAI enfatizó que las conversaciones en ChatGPT Enterprise no se utilizan para la capacitación de modelos. La IA de diseño generativo automatizará el 60% del esfuerzo de diseño de nuevos sitios web y aplicaciones móviles para 2026, predijo Gartner en su Market Databook 2023. La API de Asistentes ahora está disponible en versión beta. Más cobertura de IA de lectura obligada. OpenAI también anunció la API de Asistentes, una herramienta para crear aplicaciones generativas basadas en IA que reúne capacidades como el intérprete de código, la recuperación y la llamada de funciones de OpenAI. La API de Asistentes se basa en la misma base que los GPT, con herramientas adicionales. Con la API de Asistentes, los desarrolladores pueden agregar IA generativa a sus aplicaciones y servicios existentes. Por ejemplo, OpenAI Code Interpreter puede escribir y generar código y crear archivos. En la conferencia magistral, OpenAI demostró un asistente de voz que realiza cambios en las cuentas OpenAI de los usuarios en vivo. La API de Asistentes está en versión beta hoy; Los detalles de precios están disponibles en el sitio de OpenAI. El acceso a la API de OpenAI está disponible a nivel internacional. Los datos y archivos utilizados con la API de OpenAI no se utilizan para entrenar modelos de IA, dijo OpenAI. Altman dijo que ve esta API de Asistentes como un precursor de los agentes de IA, que cree que gradualmente podrán actuar por sí solos a medida que se vuelvan más capaces. Nota: TechRepublic vio virtualmente el discurso de apertura del DevDay de OpenAI.

Source link

Funciona con WordPress & Tema de Anders Norén