Todo lo que necesitas saber sobre tecnología

Etiqueta: abierto Página 1 de 3

¿Qué es GPT-4 y de qué es capaz?

¿Qué es GPT-4 y de qué es capaz?

Imagen: LALAKA/Adobe Stock GPT-4 es un sistema modelo de lenguaje de gran tamaño con inteligencia artificial que puede imitar el habla y el razonamiento humanos. Para ello, se capacita en una vasta biblioteca de comunicación humana existente, desde obras literarias clásicas hasta grandes extensiones de Internet. La inteligencia artificial de este tipo se basa en su entrenamiento para predecir qué letra, número u otro carácter es probable que aparezca en secuencia. Esta hoja de trucos explora GPT-4 desde un alto nivel: cómo acceder a GPT-4 para uso comercial o de consumo, quién lo creó y cómo funciona. ¿Qué es GPT-4? GPT-4 es un modelo multimodal de gran tamaño que puede imitar prosa, arte, video o audio producido por un humano. GPT-4 es capaz de resolver problemas escritos o generar texto o imágenes originales. GPT-4 es la cuarta generación del modelo básico de OpenAI. La API GPT-4, así como las API GPT-3.5 Turbo, DALL·E y Whisper ya están disponibles de forma general a partir del 7 de julio de 2023. El 6 de noviembre de 2023, OpenAI anunció la próxima generación de GPT-4. , GPT-4 Turbo. ¿Quién es el propietario de GPT-4? GPT-4 es propiedad de OpenAI, una empresa independiente de inteligencia artificial con sede en San Francisco. OpenAI se fundó en 2015; Comenzó como una organización sin fines de lucro, pero desde entonces pasó a un modelo con fines de lucro. OpenAI ha recibido financiación de Elon Musk, Microsoft, Amazon Web Services, Infosys y otros patrocinadores corporativos e individuales. OpenAI también ha producido ChatGPT, un chatbot de uso gratuito derivado del modelo de la generación anterior, GPT-3.5, y DALL-E, un modelo de aprendizaje profundo generador de imágenes. A medida que la tecnología mejora y crece en sus capacidades, OpenAI revela cada vez menos sobre cómo se entrenan sus soluciones de IA. ¿Cuándo se lanzó GPT-4? OpenAI anunció el lanzamiento de GPT-4 el 14 de marzo de 2023. GPT-4 estuvo disponible de inmediato para los suscriptores de ChatGPT Plus, mientras que otros usuarios interesados ​​tuvieron que unirse a una lista de espera para acceder. VER: Salesforce incorporó IA generativa a sus productos de ventas y servicios de campo. (TechRepublic) ¿Cómo se puede acceder a GPT-4? La versión pública de GPT-4 está disponible en el sitio del portal ChatGPT. El 7 de julio de 2023, OpenAI puso la API GPT-4 a disposición para uso general de «todos los desarrolladores de API existentes con un historial de pagos exitosos». OpenAI también espera abrir el acceso a nuevos desarrolladores a finales de julio de 2023. Los límites de velocidad pueden aumentar después de ese período dependiendo de la cantidad de recursos informáticos disponibles. En agosto de 2023, GPT-4 se incluyó como parte de ChatGPT Enterprise. Los usuarios de la suscripción empresarial reciben el uso ilimitado de una tubería de alta velocidad a GPT-4. ¿Cuánto cuesta usar GPT-4? Para un individuo, el uso de la suscripción ChatGPT Plus cuesta $20 por mes. El precio de la API GPT-4 de solo texto comienza en $ 0,03 por 1.000 tokens de solicitud (un token equivale aproximadamente a cuatro caracteres en inglés) y $ 0.06 por 1.000 tokens de finalización (salida), dijo OpenAI. (OpenAI explica más sobre cómo se cuentan los tokens aquí). VER: Política de ética de la inteligencia artificial (TechRepublic Premium) También está disponible una segunda opción con mayor longitud de contexto (alrededor de 50 páginas de texto) conocida como gpt-4-32k. Esta opción cuesta $0,06 por cada 1.000 tokens de aviso y $0,12 por cada 1.000 tokens de finalización. Otros servicios de asistencia de IA como Microsoft Copilot y Copilot X de GitHub ahora se ejecutan en GPT-4. Más cobertura de IA de lectura obligada ¿Cuáles son las capacidades de GPT-4? Al igual que su predecesor, GPT-3.5, el principal reclamo de fama de GPT-4 es su respuesta a preguntas en lenguaje natural y otras indicaciones. OpenAI dice que GPT-4 puede «seguir instrucciones complejas en lenguaje natural y resolver problemas difíciles con precisión». En concreto, GPT-4 puede resolver problemas matemáticos, responder preguntas, hacer inferencias o contar historias. Además, GPT-4 puede resumir grandes cantidades de contenido, lo que podría resultar útil para referencias de consumidores o casos de uso empresarial, como una enfermera que resume los resultados de su visita a un cliente. OpenAI probó la capacidad de GPT-4 para repetir información en un orden coherente utilizando varias evaluaciones de habilidades, incluidos los exámenes AP y Olympiad y el examen uniforme de la barra. Obtuvo una puntuación en el percentil 90 en el examen de la abogacía y en el percentil 93 en el examen de lectura y escritura basado en evidencia SAT. GPT-4 obtuvo puntuaciones variables en los exámenes AP. Estas no son verdaderas pruebas de conocimiento; en cambio, ejecutar GPT-4 a través de pruebas estandarizadas muestra la capacidad del modelo para formar respuestas que suenen correctas a partir de la masa de escritura y arte preexistentes en los que fue entrenado. GPT-4 predice qué token probablemente será el siguiente en una secuencia. (Un token puede ser una sección de una cadena de números, letras, espacios u otros caracteres). Si bien OpenAI mantiene la boca cerrada sobre los detalles específicos del entrenamiento de GPT-4, los LLM generalmente se capacitan traduciendo primero la información de un conjunto de datos en tokens; Luego, el conjunto de datos se limpia para eliminar datos confusos o repetitivos. A continuación, las empresas de IA suelen emplear personas para aplicar el aprendizaje por refuerzo al modelo, empujando al modelo hacia respuestas que tengan sentido común. Los pesos, que en pocas palabras son los parámetros que le dicen a la IA qué conceptos están relacionados entre sí, se pueden ajustar en esta etapa. La API de Chat Completions y sus actualizaciones La API de Chat Completions permite a los desarrolladores utilizar la API GPT-4 a través de un formato de solicitud de texto libre. Con él, pueden crear chatbots u otras funciones que requieran una conversación de ida y vuelta. La API de Chat Completions estuvo disponible por primera vez en junio de 2020. En enero de 2024, la API de Chat Completions se actualizará para utilizar modelos de finalización más nuevos. Los modelos ada, babbage, curie y davinci de OpenAI se actualizarán a la versión 002, mientras que las tareas de finalización de chat que utilizan otros modelos pasarán a gpt-3.5-turbo-instruct. Ajuste de GPT-3.5 Turbo y otras noticias El 22 de agosto de 2023, OpenAPI anunció la disponibilidad de ajuste de GPT-3.5 Turbo. Esto permite a los desarrolladores personalizar modelos y probarlos para sus casos de uso específicos. En enero de 2023, OpenAI lanzó la última versión de su API de moderación, que ayuda a los desarrolladores a identificar texto potencialmente dañino. La última versión se conoce como text-moderation-007 y funciona de acuerdo con las mejores prácticas de seguridad de OpenAI. ¿Cuáles son las limitaciones de GPT-4 para empresas? Al igual que otras herramientas de inteligencia artificial de este tipo, GPT-4 tiene limitaciones. Por ejemplo, GPT-4 no comprueba si sus declaraciones son precisas. Su entrenamiento con textos e imágenes de Internet puede hacer que sus respuestas sean absurdas o incendiarias. Sin embargo, OpenAI tiene controles digitales y entrenadores humanos para tratar de mantener el resultado lo más útil y apropiado para el negocio posible. Además, GPT-4 tiende a crear «alucinaciones», que es el término de inteligencia artificial para las imprecisiones. Sus palabras pueden tener sentido en secuencia, ya que se basan en probabilidades establecidas por aquello en lo que se entrenó el sistema, pero no están verificadas ni conectadas directamente con eventos reales. OpenAI está trabajando para reducir la cantidad de falsedades que produce el modelo. Otra limitación importante es la cuestión de si la información corporativa confidencial que se introduce en GPT-4 se utilizará para entrenar el modelo y exponer esos datos a partes externas. Microsoft, que tiene un acuerdo de reventa con OpenAI, planea ofrecer instancias privadas de ChatGPT a corporaciones más adelante en el segundo trimestre de 2023, según un informe de abril. Al igual que GPT-3.5, GPT-4 no incorpora información más reciente que septiembre de 2021 en su léxico. Uno de los competidores de GPT-4, Google Bard, tiene información actualizada porque está entrenado en la Internet contemporánea. La IA puede sufrir un colapso del modelo cuando se entrena con datos creados por IA; Este problema se está volviendo más común a medida que proliferan los modelos de IA. GPT-4 versus GPT-3.5 o ChatGPT El segundo modelo más reciente de OpenAI, GPT-3.5, difiere de la generación actual en algunos aspectos. OpenAI no ha revelado el tamaño del modelo en el que se entrenó GPT-4, pero dice que es «más datos y más cálculos» que los miles de millones de parámetros con los que se entrenó ChatGPT. GPT-4 también ha demostrado más destreza a la hora de escribir una variedad más amplia de materiales, incluida la ficción. GPT-4 tiene un rendimiento superior a ChatGPT en las pruebas estandarizadas mencionadas anteriormente. Las respuestas a las indicaciones dadas al chatbot pueden ser más concisas y más fáciles de analizar. OpenAI señala que GPT-3.5 Turbo iguala o supera a GPT-4 en determinadas tareas personalizadas. Además, GPT-4 es mejor que GPT-3.5 a la hora de tomar decisiones comerciales, como programación o resumen. GPT-4 tiene «un 82% menos de probabilidades de responder a solicitudes de contenido no permitido y un 40% más de probabilidades de producir respuestas objetivas», dijo OpenAI. VER: Aprenda a usar ChatGPT. (TechRepublic Academy) Otra gran diferencia entre los dos modelos es que GPT-4 puede manejar imágenes. Puede servir como ayuda visual, describiendo objetos del mundo real o determinando los elementos más importantes de un sitio web y describiéndolos. «En una variedad de dominios, incluidos documentos con texto y fotografías, diagramas o capturas de pantalla, GPT-4 exhibe capacidades similares a las de las entradas de solo texto», escribió OpenAI en su documentación GPT-4. ¿Vale la pena actualizar a GPT-4? Si las nuevas capacidades ofrecidas a través de GPT-4 son apropiadas para su negocio es una decisión que depende en gran medida de sus casos de uso y de si ha tenido éxito con la inteligencia artificial en lenguaje natural. Revise las capacidades y limitaciones enumeradas anteriormente y considere dónde GPT-4 podría ahorrar tiempo o reducir costos; por el contrario, considere qué tareas podrían beneficiarse materialmente del conocimiento, las habilidades y el sentido común humanos. Las últimas noticias sobre GPT-4 Microsoft anunció a principios de agosto que la disponibilidad de GPT-4 en el servicio Azure OpenAI se ha expandido a varias regiones de cobertura nuevas. A partir de noviembre de 2023, los usuarios que ya estén explorando el ajuste fino de GPT-3.5 podrán postularse al programa de acceso experimental de ajuste fino de GPT-4. OpenAI también lanzó un programa de modelos personalizados que ofrece aún más personalización de la que permite el ajuste fino. Las organizaciones pueden solicitar un número limitado de espacios (que comienzan en $2-3 millones) aquí. En la primera conferencia DevDay de OpenAI en noviembre, OpenAI demostró que GPT-4 Turbo podía manejar más contenido a la vez (más de 300 páginas de un libro estándar) que GPT-4. GPT-4 Turbo estará disponible en versión preliminar a partir de noviembre. OpenAI bajó los precios de GPT-4 Turbo en noviembre de 2023. El precio de GPT-3.5 Turbo se redujo varias veces, la más reciente en enero de 2024. El 9 de abril, OpenAI anunció que GPT-4 con Vision está disponible de forma generalizada en la API de GPT-4. , lo que permite a los desarrolladores utilizar un modelo para analizar texto y vídeo con una llamada API.

¿Es ‘Copilot’ de IA un término genérico o una marca?

¿Es ‘Copilot’ de IA un término genérico o una marca?

El término «copiloto» para los asistentes de IA parece estar en todas partes en el software empresarial actual. Como muchas cosas en la industria de la IA generativa, la forma en que se usa la palabra está cambiando. A veces se escribe con mayúscula y otras no. La elección de Copilot por parte de GitHub como marca fue el primer uso importante, seguido de que Microsoft nombrara a su asistente insignia de IA Copilot. Luego, el término copiloto rápidamente se volvió genérico. En el uso común, un copiloto de IA es un asistente de IA generativa, generalmente un modelo de lenguaje grande entrenado para una tarea específica. La confusión sobre un término podría llevar a que algunos clientes no sepan si lo que están adquiriendo es un producto de Microsoft, por ejemplo. Pero Microsoft no parece estar buscando apropiarse de la palabra copiloto, como la usan muchas otras compañías. El término copiloto se originó en el vuelo e implica una mano derecha competente para un profesional altamente calificado. Esto es lo que necesita saber sobre algunas de las muchas variedades de copiloto de IA. ¿Qué es el copiloto de Microsoft? Microsoft Copilot es un término general para una variedad de productos de IA generativa y chatbot que ahora están disponibles en todo el software de productividad de Microsoft. Para los usuarios empresariales, tenemos una guía para diferenciar las diversas iteraciones de Microsoft Copilot y las nuevas funciones e integraciones de Copilot. Microsoft utiliza dos construcciones para los nombres de productos Copilot: «en» o «para». En la hoja de trucos de TechRepublic sobre Microsoft Copilot, tenga en cuenta Copilot para seguridad y Copilots para finanzas, ventas y servicios, que probablemente se compren por separado para usos o departamentos específicos. Este es un caso interesante en el que Microsoft usa su propia marca de dos maneras a la vez (incluso después de todo el cambio de nombre de Copilot): los Copilots ofrecen capacidades muy similares, pero más específicas de la industria, en comparación con los Copilots en, por ejemplo. Por ejemplo, Copilot en Word puede ayudar con cualquier tarea de escritura, mientras que Copilot for Security se integra con productos de seguridad específicos. VER: Copilot en Bing solía llamarse Bing Chat antes de que Microsoft unificara un poco sus marcas. (TechRepublic) ¿Qué es GitHub Copilot? GitHub lanzó su producto Copilot en 2021 (GitHub ya había sido adquirido por Microsoft en ese momento). GitHub Copilot genera código basado en el código existente de un desarrollador; Está pensado como una versión AI de la programación en pareja. El GitHub Copilot original se construyó sobre OpenAI Codex, una variante del entonces actual GPT-3. GitHub cerró el círculo de la IA generativa con la incorporación de un chatbot a su versión más reciente, GitHub Copilot X. Más cobertura de IA de lectura obligada Microsoft Copilot vs GitHub Copilot Microsoft Copilot y GitHub Copilot tienen diferentes casos de uso principales. GitHub Copilot es específicamente para codificar, mientras que Microsoft Copilot se integra con una gran cantidad de software empresarial diferente. GitHub Copilot lee código, no lenguaje natural, y lo integra en un editor de código; Microsoft Copilot utiliza lenguaje natural y se integra con una variedad de productos de Microsoft. Por otro lado, Microsoft Copilot se puede utilizar para escribir código en algunos casos, como en Power Pages cuando se integra con Visual Studio Code. Microsoft Copilot para empresas comienza en $30,00 por usuario por mes con una licencia de Microsoft 365 Business Standard o Microsoft 365 Business Premium. GitHub Copilot comienza en $10 por usuario por mes. ¿Cuáles son otros productos Copilot? Salesforce no es un defensor de Microsoft de Copilot como marca. Einstein Copilot, lanzado en febrero de 2024, funciona en las ofertas de software como servicio de gestión de relaciones con clientes, inteligencia artificial y nube de datos de Salesforce. La empresa de software de automatización de procesos empresariales Appian llama Copilot a su compañero de IA generativa. Una empresa de software de prospección de ventas se llamó Copilot AI, pero no vende un robot de IA generativa; en cambio, ofrece respuestas predictivas a las conversaciones y campañas de LinkedIn. Hay muchas más empresas que utilizan Copilot para indicar un impulso generativo de IA para sus servicios. VER: Hay varias razones por las que las empresas o los usuarios individuales podrían querer desactivar las funciones de Microsoft Copilot que vienen con Windows 11. (TechRepublic) ¿Se puede utilizar copiloto como término genérico? Por ahora, “copilot” es una palabra flexible para productos de chatbot de IA genéricos y específicos de marca para usos comerciales específicos. Por ejemplo, Microsoft Copilot es un copiloto. A qué se refiere «copiloto» o cómo se denomina un chatbot de IA puede ser diferente según la organización. Los usos comunes del término indican el período del Salvaje Oeste de la IA en el que nos encontramos, y muestran que los profesionales todavía están trabajando en formas de utilizar la IA generativa para los negocios y que la IA generativa se está asentando en un papel de «asistente» en forma de chatbots personalizados. a productos y aplicaciones específicos. Probablemente verá la palabra copiloto escrita en minúsculas para indicar la versión genérica de los asistentes de IA. Las personas que crean la infraestructura Copilot en mayúsculas también han adoptado la versión genérica del término: el CEO de NVIDIA, Jensen Huang, utilizó copiloto como término genérico en NVIDIA GTC, al igual que muchas empresas en la sala de exposiciones de la conferencia. Otras empresas parecen mantenerse alejadas del término: IBM llama Asistente a su compañero de IA watsonx, al igual que Databricks con su Asistente Databricks.

Source link

Los protocolos de seguridad de la IA podrían estar pasando por alto la mayor amenaza

Los protocolos de seguridad de la IA podrían estar pasando por alto la mayor amenaza

La era de la inteligencia artificial ha comenzado y trae consigo muchas preocupaciones nuevas. Se están dedicando mucho esfuerzo y dinero para garantizar que la IA sólo haga lo que los humanos quieren. Pero lo que más deberíamos temer es la IA que hará lo que los humanos quieren. El verdadero peligro somos nosotros. Ese no es el riesgo que la industria se esfuerza por abordar. En febrero, se fundó toda una empresa, llamada Synth Labs, con el propósito expreso de “alinear la IA”, haciendo que se comporte exactamente como los humanos pretenden. Entre sus inversores se encuentran M12, propiedad de Microsoft, y First Start Ventures, fundada por el ex director ejecutivo de Google, Eric Schmidt. OpenAI, el creador de ChatGPT, ha prometido que el 20% de su potencia de procesamiento se destinará a una «superalineación» que «dirigirá y controlará los sistemas de IA de forma mucho más inteligente que nosotros». Las grandes tecnologías están en todo esto. Y eso probablemente sea algo bueno debido al rápido desarrollo tecnológico de la IA. Casi todas las conversaciones sobre riesgos tienen que ver con las posibles consecuencias de que los sistemas de IA persigan objetivos que divergen de aquellos para los que fueron programados y que no redundan en interés de los humanos. Todos pueden respaldar esta noción de alineación y seguridad de la IA, pero este es solo un lado del peligro. Imagínese lo que podría suceder si la IA hiciera lo que los humanos quieren. “Lo que los humanos quieren”, por supuesto, no es un monolito. Diferentes personas quieren cosas diferentes y tienen innumerables ideas sobre lo que constituye «el bien común». Creo que a la mayoría de nosotros nos preocuparía, con razón, si una inteligencia artificial estuviera alineada con las visiones de un mundo óptimo de Vladimir Putin o Kim Jong Un. Incluso si pudiéramos lograr que todos se centraran en el bienestar de toda la especie humana, es poco probable que Podríamos ponernos de acuerdo sobre cómo sería eso. Elon Musk dejó esto claro la semana pasada cuando compartió en X, su plataforma de redes sociales, que le preocupaba que la IA impulsara la “diversidad forzada” y estuviera demasiado “despierta”. (Esto se produjo inmediatamente después de que Musk presentara una demanda contra OpenAI, argumentando que la compañía no estaba cumpliendo su promesa de desarrollar IA para el beneficio de la humanidad). Las personas con prejuicios extremos podrían creer genuinamente que redundaría en interés general de humanidad a matar a cualquiera que consideraran desviado. La IA «alineada con los humanos» es esencialmente tan buena, mala, constructiva o peligrosa como las personas que la diseñan. Esa parece ser la razón por la que Google DeepMind, el brazo de desarrollo de IA de la corporación, fundó recientemente una organización interna centrada en la seguridad y prevención de la IA. su manipulación por parte de malos actores. Pero no es ideal que lo que es “malo” sea determinado por un puñado de individuos en esta corporación en particular (y un puñado de otras similares), con sus puntos ciegos y sus prejuicios personales y culturales. El problema potencial va más allá. humanos dañando a otros humanos. Lo que es “bueno” para la humanidad, muchas veces a lo largo de la historia, se ha producido a expensas de otros seres sintientes. Ésta es la situación actual. Sólo en Estados Unidos tenemos miles de millones de animales sometidos a cautiverio, a prácticas tortuosas y a la negación de sus necesidades psicológicas y fisiológicas básicas en un momento dado. Especies enteras son subyugadas y sistemáticamente sacrificadas para que podamos comer tortillas, hamburguesas y zapatos. Si la IA hace exactamente lo que “nosotros” (quienquiera que programe el sistema) queremos, eso probablemente significaría implementar esta crueldad masiva de manera más eficiente, a un nivel uniforme. a mayor escala y con más automatización y menos oportunidades para que seres humanos comprensivos intervengan y señalen cualquier cosa particularmente horripilante. De hecho, en las granjas industriales, esto ya está sucediendo, aunque en una escala mucho menor de lo que es posible. Los principales productores de productos animales, como Tyson Foods, con sede en Estados Unidos, CP Foods, con sede en Tailandia, y Mowi, con sede en Noruega, han comenzado a experimentar con sistemas de inteligencia artificial destinados a hacer más eficiente la producción y el procesamiento de animales. Estos sistemas se están probando para, entre otras actividades, alimentar animales, monitorear su crecimiento, recortar marcas en sus cuerpos e interactuar con animales usando sonidos o descargas eléctricas para controlar su comportamiento. Un objetivo mejor que alinear la IA con los intereses inmediatos de la humanidad sería cuál Yo lo llamaría alineación sensible: la IA actúa de acuerdo con los intereses de todos los seres sintientes, incluidos los humanos, todos los demás animales y, si existiera, la IA sintiente. En otras palabras, si una entidad puede experimentar placer o dolor, su destino debe tenerse en cuenta cuando los sistemas de IA tomen decisiones. Esto les parecerá a algunos una propuesta radical, porque lo que es bueno para toda la vida sensible puede no siempre coincidir con lo que es bueno para humanidad. A veces, incluso a menudo, puede estar en contra de lo que los humanos queremos o de lo que sería mejor para la mayoría de nosotros. Eso podría significar, por ejemplo, que la IA elimine los zoológicos, destruya ecosistemas no esenciales para reducir el sufrimiento de los animales salvajes o prohíba las pruebas con animales. Hablando recientemente en el podcast “All Thinks Considered”, Peter Singer, filósofo y autor del histórico libro de 1975 “Animal Liberation, » Argumentó que los objetivos y prioridades finales de un sistema de IA son más importantes que su alineación con los humanos. «La pregunta es realmente si esta IA superinteligente será benévola y querrá producir un mundo mejor», dijo Singer, «e incluso si Si no lo controlamos, producirá un mundo mejor en el que nuestros intereses serán tenidos en cuenta. A veces pueden verse superados por el interés de los animales no humanos o por los intereses de la IA, pero creo que aun así sería un buen resultado”. Estoy con Singer en esto. Parece que lo más seguro y compasivo que podemos hacer es tener en cuenta la vida sensible no humana, incluso si los intereses de esas entidades podrían chocar con lo que es mejor para los humanos. Descentrar a la humanidad en cualquier medida, y especialmente hasta este extremo, es una idea que desafiará a la gente. Pero eso es necesario si queremos evitar que nuestro especismo actual prolifere de maneras nuevas y terribles. Lo que realmente deberíamos pedir es que los ingenieros amplíen sus propios círculos de compasión al diseñar tecnología. Cuando pensamos en “seguro”, pensemos en lo que significa “seguro” para todos los seres sintientes, no sólo para los humanos. Cuando pretendemos hacer que la IA sea “benévola”, asegurémonos de que eso signifique benevolencia para el mundo en general, no solo para una sola especie que vive en él. Brian Kateman es cofundador de la Reducetarian Foundation, una organización sin fines de lucro dedicada a reducir la desigualdad social. consumo de productos animales. Su último libro y documental es «Meat Me Halfway».

Source link

OpenAI puede recrear voces humanas, pero aún no lanzará la tecnología

OpenAI puede recrear voces humanas, pero aún no lanzará la tecnología

La síntesis de voz ha recorrido un largo camino desde el juguete Speak & Spell de 1978, que alguna vez cautivó a la gente con su capacidad de última generación para leer palabras en voz alta usando una voz electrónica. Ahora, utilizando modelos de inteligencia artificial de aprendizaje profundo, el software puede crear no solo voces que suenan realistas, sino que también puede imitar de manera convincente voces existentes utilizando pequeñas muestras de audio. En ese sentido, OpenAI anunció esta semana Voice Engine, un modelo de inteligencia artificial de texto a voz. para crear voces sintéticas basadas en un segmento de 15 segundos de audio grabado. Ha proporcionado muestras de audio del Voice Engine en acción en su sitio web. Una vez que se clona una voz, un usuario puede ingresar texto en Voice Engine y obtener un resultado de voz generado por IA. Pero OpenAI no está preparado para lanzar ampliamente su tecnología. Inicialmente, la compañía planeó lanzar un programa piloto para que los desarrolladores se registraran en la API Voice Engine a principios de este mes. Pero después de considerar más a fondo las implicaciones éticas, la compañía decidió reducir sus ambiciones por ahora. «De acuerdo con nuestro enfoque hacia la seguridad de la IA y nuestros compromisos voluntarios, estamos eligiendo una vista previa, pero no lanzar ampliamente esta tecnología en este momento», dijo. escribe la empresa. «Esperamos que esta vista previa de Voice Engine resalte su potencial y también motive la necesidad de reforzar la resiliencia de la sociedad frente a los desafíos que plantean modelos generativos cada vez más convincentes». La tecnología de clonación de voz en general no es particularmente nueva; ha habido varias síntesis de voz con IA. Modelos desde 2022, y la tecnología está activa en la comunidad de código abierto con paquetes como OpenVoice y XTTSv2. Pero la idea de que OpenAI esté avanzando poco a poco hacia permitir que cualquiera use su tipo particular de tecnología de voz es notable. Y en cierto modo, la reticencia de la compañía a lanzarlo en su totalidad podría ser la historia más importante. OpenAI dice que los beneficios de su tecnología de voz incluyen brindar asistencia de lectura a través de voces que suenan naturales, permitiendo un alcance global para los creadores al traducir contenido mientras se preservan los acentos nativos, apoyando individuos no verbales con opciones de habla personalizadas y ayudar a los pacientes a recuperar su propia voz después de condiciones que afectan el habla. Pero también significa que cualquier persona con 15 segundos de la voz grabada de alguien podría clonarla efectivamente, y eso tiene implicaciones obvias para un posible uso indebido. Incluso si OpenAI nunca lanza ampliamente su motor de voz, la capacidad de clonar voces ya ha causado problemas en la sociedad a través de estafas telefónicas en las que alguien imita la voz de un ser querido y llamadas automáticas de campañas electorales con voces clonadas de políticos como Joe Biden. Además, investigadores y periodistas han demostrado que la tecnología de clonación de voz se puede utilizar para acceder a cuentas bancarias que utilizan autenticación de voz (como el Voice ID de Chase), lo que impulsó al senador estadounidense Sherrod Brown de Ohio, presidente del Comité de Banca, Vivienda y Asuntos Urbanos del Senado de EE. UU. , para enviar una carta a los directores ejecutivos de varios bancos importantes en mayo de 2023 para preguntar sobre las medidas de seguridad que los bancos están tomando para contrarrestar los riesgos impulsados ​​por la IA. OpenAI reconoce que la tecnología podría causar problemas si se lanza ampliamente, por lo que inicialmente está tratando de solucionarlo. esas cuestiones con un conjunto de reglas. Ha estado probando la tecnología con un conjunto de empresas asociadas selectas desde el año pasado. Por ejemplo, la empresa de síntesis de vídeo HeyGen ha estado utilizando el modelo para traducir la voz de un hablante a otros idiomas manteniendo el mismo sonido vocal.

Source link

Las empresas de inteligencia artificial están cortejando a Hollywood.  ¿Vienen en paz?

Las empresas de inteligencia artificial están cortejando a Hollywood. ¿Vienen en paz?

La inteligencia artificial está llegando a Hollywood, pero ¿está Hollywood preparado para ello? OpenAI, la compañía detrás de ChatGPT, se reúne con actores de la industria del entretenimiento, incluidos ejecutivos de agencias de talentos y estudios de cine, para demostrar y explicar su última tecnología, Sora, que evoca videos basados ​​en lo que los usuarios describen en texto. Es un baile delicado para las empresas de entretenimiento que desean aprovechar herramientas poderosas que podrían reducir costos y optimizar sus procesos. No quieren que los pillen desprevenidos en un momento en el que el estado de la industria ya es frágil debido a los cortes de cable de la televisión de pago, las pérdidas de streaming y otros factores. Al mismo tiempo, quieren evitar ofender a los actores, escritores y legiones de trabajadores detrás de escena de Hollywood, como animadores y artistas de guiones gráficos, que temen que la IA pueda acabar con sus trabajos. “Nadie quiere estar detrás de la bola ocho”. dijo Daisy Stall, directora de finanzas de entretenimiento de California Bank & Trust. “Si va a estar en tu puerta, tienes que lidiar con ello, ¿verdad? Todavía es muy incierto y la gente apenas se está preparando, pero no están seguras del papel que realmente va a desempeñar”. La amenaza inminente de la IA en Hollywood fue un tema clave en las huelgas duales del verano pasado lideradas por el Writers Guild of America y el Screen Actors Guild-American Federation of Television and Radio Artists. El presidente de SAG-AFTRA, Fran Drescher, advirtió en julio pasado que si los actores no se mantienen firmes ahora, «todos estaremos en peligro de ser reemplazados por máquinas». Los acuerdos alcanzados que resolvieron ambos ataques ofrecieron algunas protecciones a la IA. A los actores se les debe pedir permiso y compensar por el uso de sus imágenes digitales, por ejemplo. Pero cuando OpenAI presentó su herramienta de conversión de texto a video en febrero, generó preguntas adicionales y urgentes sobre cómo estas innovaciones alterarían la producción de entretenimiento. Un usuario puede escribir un mensaje, como «el tráiler de una película que presenta las aventuras del hombre espacial de 30 años que lleva un casco de motocicleta tejido de lana roja», y Sora creará un vídeo detallado de hasta un minuto de duración. El magnate Tyler Perry dijo recientemente al Hollywood Reporter que estaba postergando una expansión de 800 millones de dólares de su estudio en Atlanta, diciendo: “Estoy muy, muy preocupado de que en el futuro cercano se pierdan muchos empleos”. OpenAI dijo en un comunicado que espera mantener un diálogo continuo con artistas y creativos sobre Sora, algunos de los cuales ya ha trabajado mientras la tecnología permanece en su etapa de prueba antes de su lanzamiento más amplio. “OpenAI tiene una estrategia deliberada de trabajar en colaboración con la industria a través de un proceso de implementación iterativa (implementando avances de IA en fases) para garantizar una implementación segura y dar a las personas una idea de lo que hay en el horizonte”, dijo la compañía en un comunicado. «Estamos compartiendo el progreso de nuestra investigación con Sora desde el principio para obtener comentarios sobre cómo hacer avanzar el modelo para que sea más útil para los profesionales creativos». Bloomberg informó por primera vez sobre las reuniones de la compañía. Aunque Sora es impresionante, dicen las personas que han visto demostraciones. , todavía está en sus inicios. OpenAI aún no ha determinado cómo ganará dinero con el producto, según personas informadas sobre los planes de la compañía que no estaban autorizadas a hacer comentarios. También quedan preguntas difíciles sobre cómo OpenAI maneja el trabajo protegido por derechos de autor en sus datos de capacitación. La compañía ha dicho que sus grandes modelos de lenguaje, incluidos los que impulsan ChatGPT, se desarrollan a través de información disponible públicamente en Internet, material a través de licencias con terceros e información que brindan sus usuarios y “entrenadores humanos”. La compañía dijo en una publicación de blog que cree que entrenar modelos de IA con materiales disponibles públicamente en Internet es un «uso legítimo». «Consideramos que este principio es justo para los creadores, necesario para los innovadores y crítico para la competitividad de Estados Unidos», dijo OpenAI en una publicación de blog en enero. Actualmente, Sora no está disponible para el público, pero OpenAI ha hecho que la tecnología sea accesible para algunos creadores. incluido el director Paul Trillo, quien dijo que los avances tecnológicos le han permitido probar ideas audaces, sin restricciones de tiempo ni dinero. «Va a haber un cambio sísmico y la gente sólo necesita empezar a aceptar este tipo de aspectos de cómo vamos a crear imágenes en el futuro», dijo Trillo. «Todos podemos aprender a adaptarnos juntos». El sector del entretenimiento ya está utilizando algunas tecnologías de inteligencia artificial. Una película distribuida por Lionsgate utilizó software de inteligencia artificial para incluir diálogos alterados en una película sin tener que volver a filmar la escena. Spotify utiliza un software de traducción de voz impulsado por inteligencia artificial para interpretar podcasts a diferentes idiomas utilizando la voz del hablante. Personas influyentes en las redes sociales están utilizando chatbots para interactuar con sus fans. Otras empresas relacionadas con la IA están colaborando con artistas; por ejemplo, Meta, propietario de Facebook, anunció en septiembre que trabajaba con celebridades para crear nuevos personajes impulsados ​​por IA que conversarían con los usuarios. La agencia de talentos CAA, con sede en Century City, lanzó el año pasado Vault para sus clientes, que escanea los cuerpos de los clientes y registra sus movimientos y voces para crear una versión digital de ellos. Aquellos que deseen participar podrán crear y poseer sus propias imágenes digitales, lo que la agencia cree que ayudará a proteger a esos clientes contra la infracción de derechos de autor y permitirá que el talento gane más dinero. «Es muy fácil esconder la cabeza en la arena con este tipo de cosas, pero nuestra opinión era que no vamos a poder detener este tren», dijo Alexandra Shannon, directora de desarrollo estratégico de CAA. “No podemos interponernos en el camino de la innovación. Nunca ha sido un modelo exitoso y por eso nos apoyamos en él”. Shannon dijo que los beneficios potenciales de la IA incluyen hacer el trabajo más eficiente y crear oportunidades comerciales adicionales para artistas e intérpretes. Artistas musicales, incluido ABBA, han lanzado conciertos con versiones digitales de ellos mismos y el artista musical Lauv utilizó IA para crear una versión en coreano de su canción “Love U Like That” para sus fans el año pasado. «Desde nuestro punto de vista, las consideramos tecnologías que pueden mejorar aún más el trabajo de las personas y lo que hacen hoy», dijo Shannon. Algunos en Hollywood están ansiosos por aprender más sobre el futuro automatizado que se avecina. El magnate del entretenimiento e inversionista en tecnología Jeffrey Katzenberg llevó a un grupo de profesionales del cine, la televisión y la música a la conferencia de desarrolladores del fabricante de chips de inteligencia artificial Nvidia en San José este mes y vio una presentación de dos horas a cargo del director ejecutivo Jensen Huang. una herramienta esencial para todas las formas de contar historias y más especialmente para Hollywood”, dijo Katzenberg en un correo electrónico. “Aprender sobre esto de la mano de uno de los verdaderos líderes visionarios fue invaluable. Sé que todos quedamos muy impresionados con lo que vimos”. Caleb Ward y su esposa, Shelby, comenzaron un curso de realización cinematográfica de IA en su escuela de capacitación en línea de Burbank, Curious Refuge, en junio. Está a punto de iniciar su décimo período de sesiones en abril. Han pasado por sus cursos personas de todo tipo de profesiones, incluido un dentista que cambió su carrera al cine. «Creo que es natural tener miedo al cambio y la verdad es que la IA va a cambiar drásticamente la forma en que contamos historias», dijo Ward. El director, escritor y productor Bernie Su dijo que recientemente utilizó herramientas de IA para ayudar a presentar su concepto para un comercial, indicando qué tipos de tomas quería tomar. Sin las herramientas, habría tenido que usar fotografías de archivo, que no habrían transmitido tan bien sus ideas, dijo. «Ayuda a ahorrar tiempo y también pudo aclarar la comunicación de una visión a otra», dijo Su, que también es asesor estratégico e inversor en la herramienta de inteligencia artificial Sudowrite, que ha utilizado para generar ideas como escritor. Su advirtió que siguen existiendo limitaciones importantes en las herramientas actuales de IA de conversión de texto a vídeo, incluidos problemas de continuidad. Y todavía no pueden hacer una película narrativa completa y convincente con múltiples ubicaciones y secuencias. «Aún no hemos llegado a ese punto», dijo Su.

Source link

Blackwell Architecture acelerará los productos de IA a finales de 2024

La plataforma GPU más nueva de NVIDIA es Blackwell (Figura A), que empresas como AWS, Microsoft y Google planean adoptar para la IA generativa y otras tareas informáticas modernas, anunció el CEO de NVIDIA, Jensen Huang, durante el discurso de apertura en la conferencia NVIDIA GTC el 18 de marzo en San José, California. Figura A La arquitectura NVIDIA Blackwell. Imagen: Los productos basados ​​en NVIDIA Blackwell ingresarán al mercado de los socios de NVIDIA en todo el mundo a fines de 2024. Huang anunció una larga lista de tecnologías y servicios adicionales de NVIDIA y sus socios, hablando de la IA generativa como solo una faceta de la computación acelerada. «Cuando te aceleras, tu infraestructura son las GPU CUDA», dijo Huang, refiriéndose a CUDA, la plataforma informática paralela y el modelo de programación de NVIDIA. «Y cuando eso sucede, es la misma infraestructura que para la IA generativa». Blackwell permite el entrenamiento y la inferencia de modelos de lenguaje grandes. La plataforma Blackwell GPU contiene dos matrices conectadas por una interconexión de chip a chip de 10 terabytes por segundo, lo que significa que cada lado puede funcionar esencialmente como si «las dos matrices pensaran que es un solo chip», dijo Huang. Tiene 208 mil millones de transistores y se fabrica utilizando el proceso TSMC 4NP de 208 mil millones de NVIDIA. Cuenta con un ancho de banda de memoria de 8 TB/S y 20 pentaFLOPS de rendimiento de IA. Para las empresas, esto significa que Blackwell puede realizar entrenamiento e inferencia para modelos de IA escalando hasta 10 billones de parámetros, dijo NVIDIA. Blackwell se ve reforzado por las siguientes tecnologías: La segunda generación de TensorRT-LLM y NeMo Megatron, ambas de NVIDIA. Marcos para duplicar el tamaño de cálculo y modelo en comparación con el motor transformador de primera generación. Computación confidencial con protocolos de cifrado de interfaz nativos para privacidad y seguridad. Un motor de descompresión dedicado para acelerar consultas de bases de datos en análisis de datos y ciencia de datos. En cuanto a la seguridad, Huang dijo que el motor de confiabilidad “realiza una autoprueba, una prueba dentro del sistema, de cada bit de memoria en el chip Blackwell y de toda la memoria conectada a él. Es como si enviáramos el chip Blackwell con su propio probador”. Los productos basados ​​en Blackwell estarán disponibles a través de proveedores de servicios de nube asociados, empresas del programa NVIDIA Cloud Partner y nubes soberanas seleccionadas. La línea de GPU Blackwell sigue a la línea de GPU Grace Hopper, que debutó en 2022 (Figura B). NVIDIA dice que Blackwell ejecutará IA generativa en tiempo real en LLM de billones de parámetros a un costo 25 veces menor y un consumo de energía menor que la línea Hopper. Figura B El director ejecutivo de NVIDIA, Jensen Huang, muestra las GPU Blackwell (izquierda) y Hopper (derecha) en NVIDIA GTC 2024 en San José, California, el 18 de marzo. Imagen: Megan Crouse/TechRepublic El superchip NVIDIA GB200 Grace Blackwell conecta varias GPU Blackwell junto con el Blackwell GPUs, la compañía anunció el superchip NVIDIA GB200 Grace Blackwell, que vincula dos GPU NVIDIA B200 Tensor Core a la CPU NVIDIA Grace, proporcionando una nueva plataforma combinada para la inferencia LLM. El Superchip NVIDIA GB200 Grace Blackwell se puede vincular con las plataformas Ethernet NVIDIA Quantum-X800 InfiniBand y Spectrum-X800 recientemente anunciadas por la compañía para velocidades de hasta 800 GB/S. El GB200 estará disponible en NVIDIA DGX Cloud y a través de instancias de AWS, Google Cloud y Oracle Cloud Infrastructure a finales de este año. El nuevo diseño de servidor mira hacia modelos de IA de billones de parámetros El GB200 es un componente del recientemente anunciado GB200 NVL72, un diseño de servidor a escala de rack que incluye 36 CPU Grace y 72 GPU Blackwell para 1,8 exaFLOP de rendimiento de IA. NVIDIA espera posibles casos de uso para LLM masivos de billones de parámetros, incluida la memoria persistente de conversaciones, aplicaciones científicas complejas y modelos multimodales. El GB200 NVL72 combina la quinta generación de conectores NVLink (5000 cables NVLink) y el superchip GB200 Grace Blackwell para obtener una enorme cantidad de potencia informática que Huang llama «un sistema de IA exoflops en un solo bastidor». «Eso es más que el ancho de banda promedio de Internet… básicamente podríamos enviar todo a todo el mundo», dijo Huang. «Nuestro objetivo es reducir continuamente el coste y la energía (están directamente relacionados entre sí) de la informática», afirmó Huang. Para enfriar el GB200 NVL72 se necesitan dos litros de agua por segundo. La próxima generación de NVLink ofrece una arquitectura de centro de datos acelerada. La quinta generación de NVLink proporciona un rendimiento bidireccional de 1,8 TB/s por comunicación GPU entre hasta 576 GPU. Esta iteración de NVLink está pensada para utilizarse en los LLM complejos más potentes disponibles en la actualidad. «En el futuro, los centros de datos serán considerados como una fábrica de inteligencia artificial», dijo Huang. Presentación de los microservicios de inferencia de NVIDIA Otro elemento de la posible «fábrica de IA» es el microservicio de inferencia de NVIDIA, o NIM, que Huang describió como «una nueva forma de recibir y empaquetar software». Los NIM de NVIDIA son microservicios que contienen API, código específico de dominio, motores de inferencia optimizados y tiempo de ejecución empresarial necesarios para ejecutar IA generativa. Estos microservicios nativos de la nube se pueden optimizar según la cantidad de GPU que utiliza el cliente y se pueden ejecutar en la nube o en un centro de datos propio. Los NIM permiten a los desarrolladores utilizar API, NVIDIA CUDA y Kubernetes en un solo paquete. VER: Python sigue siendo el lenguaje de programación más popular según el índice TIOBE. (TechRepublic) Los NIM aprovechan la IA para crear IA, simplificando parte del trabajo pesado, como la inferencia y la capacitación, necesarios para crear chatbots. A través de bibliotecas CUDA de dominio específico, los NIM se pueden personalizar para industrias muy específicas, como la atención médica. En lugar de escribir código para programar una IA, dijo Huang, los desarrolladores pueden “reunir un equipo de IA” que trabajen en el proceso dentro del NIM. «Queremos construir chatbots (copilotos de IA) que funcionen junto con nuestros diseñadores», dijo Huang. Los NIM estarán disponibles a partir del 18 de marzo. Los desarrolladores pueden experimentar con los NIM sin costo alguno y ejecutarlos a través de una suscripción a NVIDIA AI Enterprise 5.0. Los NIM están disponibles en Amazon SageMaker, Google Kubernetes Engine y Microsoft Azure AI, y pueden interoperar con los marcos de IA Deepset, LangChain y LlamaIndex. Nuevas herramientas lanzadas para NVIDIA AI Enterprise en la versión 5.0 NVIDIA lanzó la versión 5.0 de AI Enterprise, su plataforma de implementación de IA destinada a ayudar a las organizaciones a implementar productos de IA generativa para sus clientes. 5.0 de NVIDIA AI Enterprise agrega lo siguiente: NIM. Microservicios CUDA-X para una amplia variedad de casos de uso de IA acelerada por GPU. AI Workbench, un conjunto de herramientas para desarrolladores. Soporte para la plataforma Red Hat OpenStack. Soporte ampliado para nuevas GPU NVIDIA, hardware de red y software de virtualización. El operador de modelo de lenguaje grande de generación aumentada de recuperación de NVIDIA se encuentra ahora en acceso temprano para AI Enterprise 5.0. AI Enterprise 5.0 está disponible a través de Cisco, Dell Technologies, HP, HPE, Lenovo, Supermicro y otros proveedores. Otros anuncios importantes de NVIDIA en GTC 2024 Huang anunció una amplia gama de nuevos productos y servicios en computación acelerada e inteligencia artificial generativa durante el discurso de apertura de NVIDIA GTC 2024. NVIDIA anunció cuPQC, una biblioteca utilizada para acelerar la criptografía poscuántica. Los desarrolladores que trabajan en criptografía poscuántica pueden comunicarse con NVIDIA para obtener actualizaciones sobre la disponibilidad. La serie X800 de conmutadores de red de NVIDIA acelera la infraestructura de IA. En concreto, la serie X800 contiene los conmutadores Ethernet NVIDIA Quantum-X800 InfiniBand o NVIDIA Spectrum-X800, el conmutador NVIDIA Quantum Q3400 y el NVIDIA ConnectXR-8 SuperNIC. Los conmutadores X800 estarán disponibles en 2025. Las principales asociaciones detalladas durante la conferencia magistral de NVIDIA incluyen: La plataforma de IA de pila completa de NVIDIA estará en Enterprise AI de Oracle a partir del 18 de marzo. AWS brindará acceso a las instancias Amazon EC2 basadas en GPU NVIDIA Grace Blackwell y a NVIDIA DGX Cloud con seguridad Blackwell. NVIDIA acelerará Google Cloud con la plataforma informática NVIDIA Grace Blackwell AI y el servicio NVIDIA DGX Cloud, que llegarán a Google Cloud. Google aún no ha confirmado una fecha de disponibilidad, aunque es probable que sea a finales de 2024. Además, la plataforma DGX Cloud con tecnología NVIDIA H100 estará disponible de forma general en Google Cloud a partir del 18 de marzo. Oracle utilizará NVIDIA Grace Blackwell en su OCI Supercluster, OCI Compute y NVIDIA DGX Cloud en Oracle Cloud Infrastructure. Algunos servicios soberanos de IA combinados de Oracle y NVIDIA estarán disponibles a partir del 18 de marzo. Microsoft adoptará el Superchip NVIDIA Grace Blackwell para acelerar Azure. Se puede esperar la disponibilidad más adelante en 2024. Dell utilizará la infraestructura de inteligencia artificial y el paquete de software de NVIDIA para crear Dell AI Factory, una solución empresarial de inteligencia artificial de extremo a extremo, disponible a partir del 18 de marzo a través de canales tradicionales y Dell APEX. En un momento futuro no revelado, Dell utilizará el superchip NVIDIA Grace Blackwell como base para una arquitectura de refrigeración líquida, de alta densidad y a escala de rack. El Superchip será compatible con los servidores PowerEdge de Dell. SAP agregará capacidades de generación aumentada de recuperación de NVIDIA a su copiloto Joule. Además, SAP utilizará NIM de NVIDIA y otros servicios conjuntos. «Toda la industria se está preparando para Blackwell», dijo Huang. Competidores de los chips de IA de NVIDIA NVIDIA compite principalmente con AMD e Intel en lo que respecta al suministro de IA empresarial. Qualcomm, SambaNova, Groq y una amplia variedad de proveedores de servicios en la nube juegan en el mismo espacio en lo que respecta a la inferencia y el entrenamiento de IA generativa. AWS tiene sus propias plataformas de inferencia y formación: Inferentia y Trainium. Además de asociarse con NVIDIA en una amplia variedad de productos, Microsoft tiene su propio chip de inferencia y entrenamiento de IA: el Maia 100 AI Accelerator en Azure. Descargo de responsabilidad: NVIDIA pagó mi pasaje aéreo, alojamiento y algunas comidas para el evento NVIDIA GTC que se llevó a cabo del 18 al 21 de marzo en San José, California.

Source link

Por qué Elon Musk tuvo que abrir Grok, su respuesta a ChatGPT

Después de demandar a OpenAI este mes, alegando que la empresa se ha vuelto demasiado cerrada, Elon Musk dice que publicará su respuesta de “búsqueda de la verdad” a ChatGPT, el chatbot Grok, para que cualquiera pueda descargarla y usarla. “Esta semana, @xAI abrirá el código fuente Grok”, escribió Musk hoy en su plataforma de redes sociales X. Eso sugiere que su empresa de inteligencia artificial, xAI, publicará el código completo de Grok y permitirá que cualquiera pueda usarlo o modificarlo. Por el contrario, OpenAI ofrece una versión de ChatGPT y el modelo de lenguaje detrás de él disponible para su uso de forma gratuita, pero mantiene su código privado. Musk había dicho poco anteriormente sobre el modelo de negocio de Grok o xAI, y el chatbot estuvo disponible solo para suscriptores Premium. a X. Después de haber acusado a sus cofundadores de OpenAI de incumplir una promesa de regalar la inteligencia artificial de la compañía a principios de este mes, Musk puede haber sentido que tenía que abrir su propio chatbot para demostrar que está comprometido con esa visión. OpenAI respondió a la pregunta de Musk. demanda la semana pasada al publicar mensajes de correo electrónico entre Musk y otros en los que parecía respaldar la idea de hacer que la tecnología de la compañía fuera más cerrada a medida que se volviera más poderosa. Musk finalmente invirtió más de 40 millones de dólares en OpenAI antes de separarse del proyecto en 2018. Cuando Musk anunció por primera vez que Grok estaba en desarrollo, prometió que tendría menos sesgo político que ChatGPT u otros modelos de IA, que él y otros tienen derechos. Las opiniones inclinadas han sido criticadas por ser demasiado liberales. Las pruebas realizadas por WIRED y otros demostraron rápidamente que, aunque Grok puede adoptar un estilo provocativo, no está muy sesgado en un sentido u otro, lo que tal vez revela el desafío de alinear los modelos de IA de manera consistente con un punto de vista particular. El abastecimiento abierto de Grok podría ayudar a Musk a generar interés en la IA de su empresa. Limitar el acceso de Grok solo a suscriptores pagos de X, una de las plataformas sociales globales más pequeñas, significa que aún no tiene la tracción de ChatGPT de OpenAI o Gemini de Google. El lanzamiento de Grok podría atraer a los desarrolladores a utilizar y desarrollar el modelo y, en última instancia, podría ayudarlo a llegar a más usuarios finales. Eso podría proporcionar a xAI datos que puede utilizar para mejorar su tecnología. La decisión de Musk de liberar a Grok lo ve alinearse con el enfoque de Meta hacia la IA generativa. Los modelos de código abierto de Meta, como Llama 2, se han vuelto populares entre los desarrolladores porque pueden personalizarse y adaptarse completamente a diferentes usos. Pero adoptar una estrategia similar podría arrastrar a Musk aún más a un creciente debate sobre los beneficios y riesgos de dar a cualquiera acceso a los modelos de IA más potentes. Muchos expertos en IA sostienen que los modelos de IA de código abierto tienen importantes beneficios, como una mayor transparencia y un mayor acceso. «Los modelos abiertos son más seguros y robustos, y es fantástico ver más opciones de empresas líderes en el espacio», dice Emad Mostaque, fundador de Stability AI, una empresa que construye varios modelos de IA de código abierto.

Source link

Sora de OpenAI genera vídeos fotorrealistas

OpenAI lanzó el 15 de febrero un nuevo e impresionante modelo de conversión de texto a video llamado Sora que puede crear imágenes en movimiento fotorrealistas o de dibujos animados a partir de indicaciones de texto en lenguaje natural. Sora aún no está disponible para el público; en cambio, OpenAI entregó a Sora a los equipos rojos (investigadores de seguridad que imitan las técnicas utilizadas por los actores de amenazas) para evaluar posibles daños o riesgos. OpenAI también ofreció Sora a diseñadores y artistas visuales y de audio seleccionados para obtener comentarios sobre cómo optimizar mejor Sora para el trabajo creativo. El énfasis de OpenAI en la seguridad en torno a Sora es estándar para la IA generativa hoy en día, pero también muestra la importancia de tomar precauciones cuando se trata de IA que podría usarse para crear imágenes falsas convincentes, que podrían, por ejemplo, dañar la reputación de una organización. ¿Qué es Sora? Sora es un modelo de difusión de IA generativa. Sora puede generar múltiples personajes, fondos complejos y movimientos de apariencia realista en videos de hasta un minuto de duración. Puede crear múltiples tomas dentro de un video, manteniendo consistentes los personajes y el estilo visual, lo que permite a Sora ser una herramienta narrativa eficaz. En el futuro, Sora podría usarse para generar videos que acompañen el contenido, para promocionar contenido o productos en las redes sociales, o para ilustrar puntos en presentaciones para empresas. Si bien no debería reemplazar las mentes creativas de los creadores de videos profesionales, Sora podría usarse para crear contenido de manera más rápida y sencilla. Si bien aún no hay información sobre los precios, es posible que OpenAI eventualmente tenga una opción para incorporar Sora en su suscripción ChatGPT Enterprise. Más cobertura de IA de lectura obligada «Los medios y el entretenimiento serán la industria vertical que puede ser la primera en adoptar modelos como estos», dijo a TechRepublic el analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran Chandrasekaran, en un correo electrónico. «Las funciones comerciales como el marketing y el diseño dentro de las empresas y empresas de tecnología también podrían ser las primeras en adoptar». ¿Cómo accedo a Sora? A menos que ya haya recibido acceso de OpenAI como parte de su equipo rojo o prueba beta de trabajo creativo, no es posible acceder a Sora ahora. OpenAI lanzó Sora a artistas visuales, diseñadores y cineastas seleccionados para aprender cómo optimizar Sora para usos creativos específicamente. Además, OpenAI ha dado acceso a investigadores del equipo rojo especializados en desinformación, contenido de odio y prejuicios. El analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran, dijo que el lanzamiento inicial de Sora por parte de OpenAI es «un buen enfoque y consistente con las prácticas de OpenAI sobre el lanzamiento seguro de modelos». «Por supuesto, esto por sí solo no será suficiente, y deben implementar prácticas para eliminar a los malos actores que obtienen acceso a estos modelos o sus usos nefastos», dijo Chandrasekaran. ¿Cómo funciona Sora? Sora es un modelo de difusión, lo que significa que refina gradualmente una imagen sin sentido hasta convertirla en una comprensible basándose en el mensaje y utiliza una arquitectura transformadora. La investigación que realizó OpenAI para crear sus modelos DALL-E y GPT, en particular la técnica de recaptura de DALL-E, fueron peldaños hacia la creación de Sora. VER: Hay demanda de ingenieros de inteligencia artificial en el Reino Unido (TechRepublic) Los videos de Sora no siempre parecen completamente realistas. Sora todavía tiene problemas para diferenciar la izquierda de la derecha o seguir descripciones complejas de eventos que suceden con el tiempo, como indicaciones sobre un movimiento específico de la cámara. . Los videos creados con Sora probablemente se detecten a través de errores de causa y efecto, dijo OpenAI, como cuando una persona muerde una galleta pero no deja una marca. Por ejemplo, las interacciones entre personajes pueden mostrar confusión (especialmente alrededor de las extremidades) o incertidumbre en términos de números (por ejemplo, ¿cuántos lobos hay en el video a continuación en un momento dado?). ¿Cuáles son las precauciones de seguridad de OpenAI en torno a Sora? Con las indicaciones y ajustes correctos, los videos que hace Sora pueden confundirse fácilmente con videos de acción en vivo. OpenAI es consciente de posibles problemas de difamación o desinformación derivados de esta tecnología. OpenAI planea aplicar los mismos filtros de contenido a Sora que la compañía aplica a DALL-E 3 que previenen “violencia extrema, contenido sexual, imágenes de odio, parecidos a celebridades o la propiedad intelectual de otros”, según OpenAI. Si Sora se lanza al público, OpenAI planea marcar el contenido creado con Sora con metadatos C2PA; Los metadatos se pueden ver seleccionando la imagen y eligiendo las opciones del menú Información del archivo o Propiedades. Las personas que crean imágenes generadas por IA aún pueden eliminar los metadatos a propósito o hacerlo accidentalmente. OpenAI actualmente no tiene nada implementado para evitar que los usuarios de su generador de imágenes, DALL-E 3, eliminen metadatos. «Ya es [difficult] y será cada vez más imposible detectar contenido generado por IA por parte de seres humanos”, dijo Chandrasekaran. “Los capitalistas de riesgo están invirtiendo en nuevas empresas que crean herramientas de detección de deepfake, y ellas (las herramientas de detección de deepfake) pueden ser parte de la armadura de una empresa. Sin embargo, en el futuro, será necesario que las asociaciones público-privadas identifiquen, a menudo en el momento de la creación, contenidos generados por máquinas”. ¿Cuáles son los competidores de Sora? Los vídeos fotorrealistas de Sora son bastante distintos, pero existen servicios similares. Runway proporciona generación de IA de texto a vídeo lista para uso empresarial. Fliki puede crear videos limitados con sincronización de voz para narraciones en redes sociales. La IA generativa ahora también puede agregar contenido o editar videos tomados de manera convencional de manera confiable. El 8 de febrero, investigadores de Apple revelaron un artículo sobre Keyframer, su modelo de lenguaje grande propuesto que puede crear imágenes animadas y estilizadas. TechRepublic se ha comunicado con OpenAI para obtener más información sobre Sora.

Source link

NIST establece un consorcio de seguridad de IA

Imagen: Adobe/Grandbrothers El Instituto Nacional de Estándares y Tecnología estableció el Instituto de Seguridad de IA el 7 de febrero para determinar pautas y estándares para la medición y política de IA. Las empresas de IA de EE. UU. y las empresas que hacen negocios en EE. UU. se verán afectadas por esas directrices y estándares y pueden tener la oportunidad de hacer comentarios al respecto. ¿Qué es el consorcio del Instituto de Seguridad de IA de EE. UU.? El Instituto de Seguridad de la IA de EE. UU. es un grupo de investigación conjunto de los sectores público y privado y un espacio de intercambio de datos para “creadores y usuarios de IA, académicos, investigadores gubernamentales y de la industria, y organizaciones de la sociedad civil”, según el NIST. Las organizaciones podrían postularse para convertirse en miembros entre el 2 de noviembre de 2023 y el 15 de enero de 2024. De más de 600 organizaciones interesadas, el NIST eligió 200 empresas y organizaciones para convertirse en miembros. Las organizaciones participantes incluyen Apple, Anthropic, Cisco, Hewlett Packard Enterprise, Hugging Face, Microsoft, Meta, NVIDIA, OpenAI, Salesforce y otras empresas, instituciones académicas y organizaciones de investigación. Esos miembros trabajarán en proyectos que incluyen: Desarrollar nuevas pautas, herramientas, métodos, protocolos y mejores prácticas para contribuir a los estándares de la industria para desarrollar e implementar una IA segura y confiable. Desarrollar orientación y puntos de referencia para identificar y evaluar las capacidades de la IA, especialmente aquellas capacidades que podrían causar daño. Desarrollar enfoques para incorporar prácticas de desarrollo seguras para la IA generativa. Desarrollar métodos y prácticas para lograr con éxito el aprendizaje automático en equipos rojos. Desarrollar formas de autenticar el contenido digital generado por IA. Especificar y fomentar las habilidades de la fuerza laboral de IA. «La IA responsable ofrece un enorme potencial para la humanidad, las empresas y los servicios públicos, y Cisco cree firmemente que un enfoque holístico y simplificado ayudará a Estados Unidos a aprovechar de forma segura todos los beneficios de la IA», afirmó Nicole Isaac, vicepresidenta de políticas públicas globales de Cisco. en una declaración al NIST. VER: ¿Cuáles son las diferencias entre IA y aprendizaje automático? (TechRepublic Premium) «Trabajar juntos entre la industria, el gobierno y la sociedad civil es esencial si queremos desarrollar estándares comunes en torno a una IA segura y confiable», dijo Nick Clegg, presidente de asuntos globales de Meta, en una declaración al NIST. «Estamos entusiasmados de ser parte de este consorcio y trabajar en estrecha colaboración con el AI Safety Institute». Una omisión interesante en la lista de miembros del Instituto de Seguridad de la IA de EE. UU. es el Future of Life Institute, una organización mundial sin fines de lucro con inversores entre los que se incluye Elon Musk, creada para evitar que la IA contribuya a “riesgos extremos a gran escala”, como una guerra global. Más cobertura de IA de lectura obligada La creación del Instituto de Seguridad de la IA y su lugar en el gobierno federal El Instituto de Seguridad de la IA de EE. UU. se creó como parte de los esfuerzos establecidos por la Orden Ejecutiva del presidente Joe Biden sobre la proliferación y la seguridad de la IA en octubre de 2023. El Instituto de Seguridad de la IA de EE. UU. está bajo la jurisdicción del Departamento de Comercio. Elizabeth Kelly es la directora inaugural del instituto y Elham Tabassi es su director de tecnología. ¿Quién trabaja en la seguridad de la IA? En los EE. UU., la seguridad y la regulación de la IA a nivel gubernamental están a cargo del NIST y, ahora, del Instituto de Seguridad de la IA de los EE. UU. dependiente del NIST. Las principales empresas de IA de EE. UU. han trabajado con el gobierno para fomentar la seguridad y las habilidades de la IA para ayudar a la industria de la IA a construir la economía. Las instituciones académicas que trabajan en la seguridad de la IA incluyen la Universidad de Stanford y la Universidad de Maryland, entre otras. Un grupo de organizaciones internacionales de ciberseguridad estableció las Directrices para el desarrollo seguro de sistemas de IA en noviembre de 2023 para abordar la seguridad de la IA en las primeras etapas del ciclo de desarrollo.

Source link

¿Es Géminis mejor que ChatGPT?

Cuando OpenAI, con una importante financiación de Microsoft, lanzó el acceso público a ChatGPT en noviembre de 2022, entró en competencia con Google, entre otros, por el liderazgo en IA generativa. Poco más de un año después, Google anunció que Gemini, su sistema de inteligencia artificial más avanzado hasta la fecha, se implementaría a partir de diciembre de 2023. OpenAI y Google están iterando rápidamente. Este artículo cubre las características clave y los detalles de precios de ChatGPT de OpenAI y Gemini de Google, por lo que tendrá la información que necesita para determinar si Gemini es mejor que ChatGPT para las necesidades de su negocio. Gemini vs ChatGPT: tabla comparativa CaracterísticaGeminiChatGPT Ediciones notables y disponibilidadGemini Ultra, anunciado para 2024Gemini Pro, diciembre de 2023Gemini Nano, diciembre de 2023GPT-4, marzo de 2023GPT-3.5, noviembre de 2022 Acceso gratuito al chatbotGoogle Bard (úselo para acceder a Gemini Pro)ChatGPT (acceso a GPT-3.5) Acceso al chatbot de pago Ninguno (a principios de febrero de 2024) ChatGPT Plus, $20 al mes (acceso a GPT-4 con DALL-E, navegación y análisis); Equipo ChatGPT, $30/mes ($25/mes, pago anual); ChatGPT Enterprise (contacto con acceso a API de ventasSí, Gemini Pro.Sí, GPT-4 Turbo, GPT-4, GPT-3.5 y otros. Visite GeminiVisite ChatGPT Precios de Gemini y ChatGPT Ambos sistemas de IA ofrecen opciones de chatbot y API; las diversas alternativas gratuitas y de pago se detallan a continuación. Precios del chatbot Gemini Gratis: Pruebe Gemini Pro gratis cuando use Google Bard en países donde Bard está disponible. El uso de Bard requiere que inicie sesión con una cuenta de Google. Algunos materiales de Google han mencionado una versión futura de Bard Advanced, pero se han publicado pocos detalles. Precios del chatbot ChatGPT Gratis: use ChatGPT con GPT-3.5 de forma gratuita cuando se registre para obtener una cuenta OpenAI. Pagado: ChatGPT Plus, una opción paga que cuesta $20 al mes, agrega acceso a GPT-4 con funciones de navegación y análisis. También incluye acceso a DALL-E, que le permite ingresar un mensaje para generar una imagen. De terceros: varias aplicaciones de terceros dependen de ChatGPT o lo ofrecen como una opción. A menudo, un número limitado de avisos por hora se pueden realizar sin costo alguno; en algunos casos, una actualización paga ofrece acceso a modelos más precisos y más indicaciones. Dichos servicios incluyen Bing Chat, Microsoft Copilot, Perplexity.ai y Poe. Precios para desarrolladores de Google Gemini Gratis, con límites: los desarrolladores pueden usar Google AI Studio para acceder a Gemini Pro de forma gratuita, con hasta 60 solicitudes por minuto. Gratis ahora, pago según disponibilidad general: los desarrolladores de Vertex AI también pueden acceder a Gemini Pro de forma gratuita, pero una vez que el estado de Gemini Pro cambie a disponibilidad general en 2024, el precio será: $0,00025 por cada 1000 caracteres de entrada ($0,0025 por imagen). $0,0005 por 1000 caracteres para la salida. No se han anunciado detalles de precios para Gemini Ultra. Precios para desarrolladores de ChatGPT Pagados: regístrese en la API OpenAI para acceder a varios modelos de IA; El precio de estos varía según el modelo y el uso. Según la página de precios de OpenAI, «Puedes pensar en los tokens como piezas de palabras, donde 1000 tokens equivalen aproximadamente a 750 palabras». Tres modelos populares incluyen: GPT-4 Turbo (también conocido como gpt-4-1106-preview): $0,01 por 1000 tokens para entrada y $0,03 por 1000 tokens para salida. Modelo gpt-4-32k: 0,06 dólares por 1000 tokens para entrada y 0,12 dólares por 1000 tokens para salida. Modelo gpt-3.5-turbo-1106: $0,0010 por 1000 tokens para entrada y $0,0020 por 1000 tokens para salida. Comparación de funciones: Gemini frente a ChatGPT La mejor manera de tener una idea de las capacidades básicas de Gemini y ChatGPT es iniciar sesión con una cuenta y experimentar con un sistema gratuito. Interactúe con Google Bard, ya que Gemini Pro impulsa esa oferta, o pruebe ChatGPT de OpenAI para saber qué puede hacer GPT-3.5. Chat: Gemini Pro en Google Bard Google Bard está disponible en un navegador web. A partir de principios de 2024, cuando se utiliza Bard (Figura A) en la mayoría de los países, el sistema depende de Gemini Pro. Figura A Para muchas personas, ingresar mensajes en Google Bard será la forma más fácil de acceder a Gemini. Imagen: Andy Wolber/TechRepublic Google Bard le permite enviar mensajes con texto, código, datos o imágenes cargadas; el sistema puede responder con texto, código, una imagen o contenido obtenido al navegar por Internet. Puede optar por ingresar un mensaje hablando (seleccione el micrófono) o hacer que el sistema lea una respuesta (seleccione el símbolo del altavoz al lado de una respuesta). Las respuestas se pueden verificar seleccionando el logotipo de Google para comparar el contenido con datos de búsqueda confiables. Bard con Gemini Pro está diseñado para ser multimodal, lo que significa que el sistema puede aceptar entradas en una variedad de formatos sin la necesidad de «cambiar» expresamente a un modo diferente. Por ejemplo, puede cargar una imagen junto con un mensaje que le pide al sistema que la describa. Al utilizar Google Bard con una cuenta personal (no organizativa), opcionalmente puede habilitar extensiones. Estas extensiones permiten a Bard acceder a información de Google Flights, Google Hotels, Google Maps, Google Workspace (Gmail, Drive y Docs) o YouTube. Por ejemplo, esto le permite preguntar al sistema sobre información de un vídeo de YouTube o un documento de Google Drive. Chat: características de OpenAI ChatGPT ChatGPT está disponible en la web y dentro de la aplicación ChatGPT en Android, iPhone o iPad. ChatGPT Plus con GPT-4 (Figura B) le permite solicitar mensajes con texto, código, datos o imágenes o documentos cargados. El sistema puede responder con texto, código, una imagen o contenido obtenido al navegar por Internet. En dispositivos móviles, puede optar por hablar con ChatGPT y el sistema también leerá las respuestas en voz alta. ChatGPT Plus también te permite crear imágenes con un mensaje de texto, gracias a la conexión del sistema a DALL-E. Figure B ChatGPT Plus, una actualización paga, ofrece acceso a GPT-4, con navegación web y creación de imágenes, entre otras funciones. Imagen: Andy Wolber/TechRepublic ChatGPT Plus también admite instrucciones personalizadas, que le permiten ingresar texto para guiar a ChatGPT hacia mejores respuestas para el uso previsto. Por ejemplo, las instrucciones personalizadas pueden ser diferentes cuando desea que ChatGPT le ayude con el código que cuando busca ideas de marketing. Tenga en cuenta que la opción gratuita, ChatGPT con GPT-3.5, esencialmente lo limita a indicaciones y respuestas de texto, que tienden a no ser tan útiles como las proporcionadas por GPT-4. API: Gemini Google anunció el 13 de diciembre de 2023 que se puede acceder a Gemini Pro en versión preliminar ya sea en Google AI Studio (Figura C), una herramienta de creación de prototipos para desarrolladores; o Vertex AI, una plataforma integral de IA, o mediante API. Google tiene planes de aprovechar Gemini en otros productos, como Duet AI, el complemento pago de Google Workspace y en Chrome y Search. Además, Duet AI for Developers pasará a Gemini. Figura C Google AI Studio permite a los desarrolladores probar Gemini Pro de forma gratuita. Imagen: Andy Wolber/TechRepublic API: opciones de OpenAI OpenAI ofrece una variedad de opciones de acceso al modelo API, incluidos GPT-4, GPT-4 Turbo y GPT-3.5 (Figura D). (Los suscriptores de ChatGPT Plus, Teams y Enterprise pueden cambiar entre GPT-4 y GPT-3.5 en las indicaciones). En general, las opciones de GPT-4 brindan respuestas de mayor calidad que GPT-3.5. Además, OpenAI ofrece API de imagen y audio (por ejemplo, DALL-E, TTS y Whisper), entre otras. Todos estos están disponibles para su uso con una cuenta API de OpenAI. Figura D Los desarrolladores pueden seleccionar entre una variedad de modelos de IA de OpenAI. Imagen: Andy Wolber/TechRepublic Gemini: Pros y contras Pros de Gemini Disponible en tres tamaños: Nano (en el dispositivo), Pro y Ultra (más capaz). El sistema más avanzado de Google hasta la fecha. Diseñado para ser multimodal. Opciones gratuitas para experimentar en Google Bard y Google AI Studio. Uso previsto de Gemini en diversos servicios y productos de Google. Contras de Gemini De los tres tamaños de Gemini, inicialmente sólo Gemini Pro está ampliamente disponible para su uso. En comparación con ChatGPT, el público y los desarrolladores están menos familiarizados con Gemini. Falta de transparencia de los datos fuente. ChatGPT: Pros y contras Pros de ChatGPT Históricamente, GPT-4 a menudo ocupaba el puesto más alto en varios puntos de referencia. ChatGPT y ChatGPT Plus se utilizan ampliamente, por lo que hay muchos recursos y guías disponibles. El acceso API a varios modelos ChatGPT está disponible desde hace algún tiempo. Existe una opción gratuita para experimentar (ChatGPT con GPT-3.5). ChatGPT contra el drama de liderazgo de OpenAI a finales de 2023 puede llevar a las personas a buscar soluciones secundarias o alternativas. Falta de transparencia de los datos fuente. ¿Cuáles son las áreas clave en las que OpenAI y Google compiten en IA? Básicamente, OpenAI y Google compiten por el liderazgo de la IA en tres áreas. Primero, esta es una carrera tecnológica. Desde su lanzamiento en marzo de 2023, el GPT-4 de OpenAI ha superado consistentemente a otros modelos de IA. Google afirma que Gemini Ultra, su versión más capaz, iguala o supera a GPT-4 en puntos de referencia seleccionados. Independientemente de las diferencias técnicas entre los sistemas, esta competencia beneficia a los clientes. En segundo lugar, se trata de la búsqueda de un modelo de negocio sostenible para los sistemas de IA. Hasta la fecha, OpenAI, con Microsoft, ha realizado inversiones masivas, al igual que Google. OpenAI ofrece acceso a una variedad de modelos (GPT-3.5, GPT-4 y GPT-4 Turbo) para diferentes usos, mientras que Google ha optimizado Gemini para tres tamaños: Nano, Pro y Ultra. Ambas organizaciones buscan equilibrar el rendimiento, las características y el costo de la IA, ya que estos sistemas deben ser económicamente sostenibles en algún momento. En tercer lugar, existe una competencia por la mentalidad compartida entre el público y los desarrolladores. El interés público en ChatGPT ha sido rápido y sostenido. La firma financiera UBS informó que ChatGPT ganó más de un millón de usuarios una semana después de su lanzamiento; Google Trends indica un mayor interés en ChatGPT que sus competidores; y The Economist reconoció a ChatGPT como su palabra del año 2023. Sin embargo, la mentalidad de los desarrolladores puede ser más maleable. Las luchas de liderazgo en OpenAI a finales de 2023 llevaron a algunos desarrolladores a reconsiderar su dependencia tanto de ChatGPT como asistente de codificación como de OpenAI como proveedor de IA de fuente única. VER: El paquete completo de capacitación OpenAI en inteligencia artificial de ChatGPT (Academia TechRepublic) ¿Debería su organización utilizar Gemini o ChatGPT? Si necesita implementar una solución de inteligencia artificial ampliamente utilizada, las ofertas ChatGPT y API de OpenAI pueden ser su mejor opción, ya que Google puso a disposición de los desarrolladores el acceso a Gemini Pro solo el 13 de diciembre de 2023. A más largo plazo, la elección es menos obvia. Las luchas por el liderazgo de OpenAI a finales de 2023 llevaron al menos a algunos desarrolladores a explorar una gama más amplia de alternativas de IA, incluidas opciones del socio cercano de OpenAI, Microsoft. Google tiene un excelente historial de logros en investigación en IA y la empresa parece tener un sentido de urgencia por ofrecer soluciones sólidas de IA. Una práctica prudente para los líderes en la mayoría de los entornos empresariales será monitorear y experimentar con ambas opciones, mientras OpenAI y Google se esfuerzan por construir plataformas de IA útiles y sostenibles. Metodología Esta comparación de diciembre de 2023 se basó en información pública de cada proveedor y en experimentación, específicamente con ChatGPT (GPT-3.5 y GPT-4) y Bard. Ambas empresas realizan actualizaciones periódicas, así que busque Google u OpenAI para conocer las funciones más recientes.

Source link

Página 1 de 3

Funciona con WordPress & Tema de Anders Norén