Todo lo que necesitas saber sobre tecnología

Etiqueta: desde-y 3

Sora de OpenAI genera vídeos fotorrealistas

OpenAI lanzó el 15 de febrero un nuevo e impresionante modelo de conversión de texto a video llamado Sora que puede crear imágenes en movimiento fotorrealistas o de dibujos animados a partir de indicaciones de texto en lenguaje natural. Sora aún no está disponible para el público; en cambio, OpenAI entregó a Sora a los equipos rojos (investigadores de seguridad que imitan las técnicas utilizadas por los actores de amenazas) para evaluar posibles daños o riesgos. OpenAI también ofreció Sora a diseñadores y artistas visuales y de audio seleccionados para obtener comentarios sobre cómo optimizar mejor Sora para el trabajo creativo. El énfasis de OpenAI en la seguridad en torno a Sora es estándar para la IA generativa hoy en día, pero también muestra la importancia de tomar precauciones cuando se trata de IA que podría usarse para crear imágenes falsas convincentes, que podrían, por ejemplo, dañar la reputación de una organización. ¿Qué es Sora? Sora es un modelo de difusión de IA generativa. Sora puede generar múltiples personajes, fondos complejos y movimientos de apariencia realista en videos de hasta un minuto de duración. Puede crear múltiples tomas dentro de un video, manteniendo consistentes los personajes y el estilo visual, lo que permite a Sora ser una herramienta narrativa eficaz. En el futuro, Sora podría usarse para generar videos que acompañen el contenido, para promocionar contenido o productos en las redes sociales, o para ilustrar puntos en presentaciones para empresas. Si bien no debería reemplazar las mentes creativas de los creadores de videos profesionales, Sora podría usarse para crear contenido de manera más rápida y sencilla. Si bien aún no hay información sobre los precios, es posible que OpenAI eventualmente tenga una opción para incorporar Sora en su suscripción ChatGPT Enterprise. Más cobertura de IA de lectura obligada «Los medios y el entretenimiento serán la industria vertical que puede ser la primera en adoptar modelos como estos», dijo a TechRepublic el analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran Chandrasekaran, en un correo electrónico. «Las funciones comerciales como el marketing y el diseño dentro de las empresas y empresas de tecnología también podrían ser las primeras en adoptar». ¿Cómo accedo a Sora? A menos que ya haya recibido acceso de OpenAI como parte de su equipo rojo o prueba beta de trabajo creativo, no es posible acceder a Sora ahora. OpenAI lanzó Sora a artistas visuales, diseñadores y cineastas seleccionados para aprender cómo optimizar Sora para usos creativos específicamente. Además, OpenAI ha dado acceso a investigadores del equipo rojo especializados en desinformación, contenido de odio y prejuicios. El analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran, dijo que el lanzamiento inicial de Sora por parte de OpenAI es «un buen enfoque y consistente con las prácticas de OpenAI sobre el lanzamiento seguro de modelos». «Por supuesto, esto por sí solo no será suficiente, y deben implementar prácticas para eliminar a los malos actores que obtienen acceso a estos modelos o sus usos nefastos», dijo Chandrasekaran. ¿Cómo funciona Sora? Sora es un modelo de difusión, lo que significa que refina gradualmente una imagen sin sentido hasta convertirla en una comprensible basándose en el mensaje y utiliza una arquitectura transformadora. La investigación que realizó OpenAI para crear sus modelos DALL-E y GPT, en particular la técnica de recaptura de DALL-E, fueron peldaños hacia la creación de Sora. VER: Hay demanda de ingenieros de inteligencia artificial en el Reino Unido (TechRepublic) Los videos de Sora no siempre parecen completamente realistas. Sora todavía tiene problemas para diferenciar la izquierda de la derecha o seguir descripciones complejas de eventos que suceden con el tiempo, como indicaciones sobre un movimiento específico de la cámara. . Los videos creados con Sora probablemente se detecten a través de errores de causa y efecto, dijo OpenAI, como cuando una persona muerde una galleta pero no deja una marca. Por ejemplo, las interacciones entre personajes pueden mostrar confusión (especialmente alrededor de las extremidades) o incertidumbre en términos de números (por ejemplo, ¿cuántos lobos hay en el video a continuación en un momento dado?). ¿Cuáles son las precauciones de seguridad de OpenAI en torno a Sora? Con las indicaciones y ajustes correctos, los videos que hace Sora pueden confundirse fácilmente con videos de acción en vivo. OpenAI es consciente de posibles problemas de difamación o desinformación derivados de esta tecnología. OpenAI planea aplicar los mismos filtros de contenido a Sora que la compañía aplica a DALL-E 3 que previenen “violencia extrema, contenido sexual, imágenes de odio, parecidos a celebridades o la propiedad intelectual de otros”, según OpenAI. Si Sora se lanza al público, OpenAI planea marcar el contenido creado con Sora con metadatos C2PA; Los metadatos se pueden ver seleccionando la imagen y eligiendo las opciones del menú Información del archivo o Propiedades. Las personas que crean imágenes generadas por IA aún pueden eliminar los metadatos a propósito o hacerlo accidentalmente. OpenAI actualmente no tiene nada implementado para evitar que los usuarios de su generador de imágenes, DALL-E 3, eliminen metadatos. «Ya es [difficult] y será cada vez más imposible detectar contenido generado por IA por parte de seres humanos”, dijo Chandrasekaran. “Los capitalistas de riesgo están invirtiendo en nuevas empresas que crean herramientas de detección de deepfake, y ellas (las herramientas de detección de deepfake) pueden ser parte de la armadura de una empresa. Sin embargo, en el futuro, será necesario que las asociaciones público-privadas identifiquen, a menudo en el momento de la creación, contenidos generados por máquinas”. ¿Cuáles son los competidores de Sora? Los vídeos fotorrealistas de Sora son bastante distintos, pero existen servicios similares. Runway proporciona generación de IA de texto a vídeo lista para uso empresarial. Fliki puede crear videos limitados con sincronización de voz para narraciones en redes sociales. La IA generativa ahora también puede agregar contenido o editar videos tomados de manera convencional de manera confiable. El 8 de febrero, investigadores de Apple revelaron un artículo sobre Keyframer, su modelo de lenguaje grande propuesto que puede crear imágenes animadas y estilizadas. TechRepublic se ha comunicado con OpenAI para obtener más información sobre Sora.

Source link

Microsoft abre Copilot para Microsoft 365 para pequeñas y medianas empresas

El asistente de IA generativa Copilot de Microsoft para Microsoft 365 ahora está disponible para las empresas interesadas en ofrecer el producto a menos de 299 puestos. La suscripción a Copilot para Microsoft 365 para uso empresarial permite a los empleados utilizar datos de todos los productos Microsoft de su empresa para proporcionar más datos a la IA generativa, permitiéndole utilizar más información en contexto. Microsoft asegura a los clientes que la seguridad y el cumplimiento de nivel empresarial de Microsoft también se aplican a los datos utilizados por la IA generativa. Además, Microsoft anunció ayer que Copilot Pro, un plan para usuarios avanzados individuales, ya está disponible. Las personas interesadas en usar Copilot mientras viajan ahora pueden acceder a él a través de una aplicación Copilot o la aplicación móvil Microsoft 365. Copilot se ejecuta en el servicio Microsoft Azure OpenAI, que solo está disponible en Norteamérica y Europa. Puede encontrar más información sobre cómo optar por estas regiones para utilizar el servicio en otros lugares a través de Microsoft. Se creó un nuevo plan Copilot para Microsoft 365 para PYMES. Las suscripciones a Copilot para Microsoft 365 solían estar disponibles solo para los clientes interesados ​​en comprar 300 puestos; ahora, las pequeñas y medianas empresas pueden adquirir entre una y 299 plazas. Copilot para Microsoft 365 estará disponible para su compra además de las suscripciones existentes a Microsoft 365 Business Premium y Business Standard. Los clientes de Office 365 E3 y E5 ahora pueden usar Copilot para Microsoft 365 sin una licencia de Microsoft 365. VER: La IA generativa fue un tema candente en CES 2024 este año, y algunas empresas como Rabbit propusieron que la IA podría cambiar la forma en que las personas acceden a los servicios en línea (TechRepublic) Una diferencia importante entre Copilot Pro y Copilot para Microsoft 365 para empresas es que este último viene con integración de Copilot en Microsoft Teams. Copilot para Microsoft 365 se desarrolló en parte utilizando los comentarios de un programa de las primeras PYMES, dijo Brenna Robinson, gerente general de Microsoft 365 para PYMES en Microsoft en un correo electrónico a TechRepublic. «Los clientes nos dicen que Copilot les ayuda a eliminar el ruido y despejar su ajetreado trabajo, para que puedan concentrarse en el trabajo que realmente importa, y que es hacer crecer sus negocios», dijo Robinson. El plan Copilot Pro ofrece los últimos modelos de IA generativa para usuarios avanzados. Los suscriptores de Microsoft 365 Personal y Family ahora pueden usar las funciones de IA generativa de Copilot con el plan Copilot Pro. El plan de $ 20 por persona por mes está destinado a superusuarios que desean modelos de IA generativos más rápidos (comenzando con GPT-4 Turbo de OpenAI durante las horas pico) y poder sincronizar el trabajo de Copilot en Word, Excel, PowerPoint, Outlook y OneNote en la PC. , Mac y iPad; la versión de Excel está en vista previa. Microsoft se dirige a los creadores de imágenes con IA con este plan, ofreciendo Image Creator de Designer (anteriormente Bing Image Creator) con una calidad de imagen más detallada en comparación con la versión gratuita y con formato de imagen horizontal. Los suscriptores de Copilot Pro tendrán acceso a Copilot GPT Builder cuando esté disponible; la compañía dijo que estará disponible pronto. Copilot GPT Builder, al igual que GPT Builder de OpenAI, permite a las personas crear chatbots personalizados utilizando indicaciones en lenguaje natural. Copilot disponible en dispositivos móviles y en la aplicación Microsoft 365. Los usuarios de Android e iOS ahora pueden acceder a la aplicación Copilot (Figura A); podrán sincronizar chats y consultas desde su teléfono con su PC con Windows. La aplicación Copilot conecta a los usuarios con GPT-4 y Dall-E 3. Figura A Ejemplos de conversaciones con Copilot en la aplicación Copilot. Imagen: Microsoft Los titulares de cuentas individuales de Microsoft en teléfonos móviles Android e iOS podrán acceder a Copilot en la aplicación móvil Microsoft 365 más adelante en 2024. Microsoft dijo el 15 de enero de 2024 que Copilot en la aplicación móvil Microsoft 365 se está implementando «más allá de el próximo mes.» La aplicación Copilot y la aplicación Microsoft 365 se pueden encontrar en Google Play Store o Apple App Store. Más cobertura de IA de lectura obligada Microsoft ofrece GPT personalizados Al igual que OpenAI, Microsoft está apostando por los GPT para mostrar a la gente qué usos específicos tiene la IA generativa, desde organizar viajes y presentaciones hasta ofrecer recetas. Los GPT de Copilot ahora están disponibles según temas seleccionados. Microsoft dice que los primeros GPT ofrecerán conversaciones en lenguaje natural sobre «fitness, viajes, cocina y más». Es probable que haya más GPT disponibles a medida que los suscriptores de Copilot Pro creen GPT en Copilot GPT Builder. Competidores de Copilot Pro y Copilot para Microsoft 365 para empresas Los principales competidores de estas ofertas de Copilot son OpenAI y Google. OpenAI tiene su propia suscripción de usuario avanzado, ChatGPT Plus, y una versión con servicios y privacidad de nivel empresarial llamada ChatGPT Enterprise. Las extensiones Bard de Google añaden IA generativa a Gmail, Docs, Drive y otros servicios de Google.

Source link

OpenAI anuncia GPT-4 Turbo y GPT Tool Builder Store

GPT-4 Turbo, que está en versión preliminar para desarrolladores, puede solicitar información tan reciente como abril de 2023. Y OpenAI reveló una nueva forma para que los desarrolladores creen herramientas de inteligencia artificial. En la presentación principal de la primera conferencia DevDay de OpenAI, celebrada el 6 de noviembre de 2023 en San Francisco, OpenAI anunció una versión nueva y más potente de GPT-4, herramientas de IA generativa especializadas llamadas GPT y una API de asistentes para ayudar a los desarrolladores a crear aplicaciones de IA. Además, OpenAI anunció que ChatGPT con GPT4 Turbo podrá extraer información de eventos actuales tan recientes como abril de 2023. Saltar a: GPT-4 Turbo puede digerir más información que GPT-4 a un precio más bajo. GPT-4 Turbo agrega estos nuevos Capacidades para GPT-4: longitud de contexto de 128.000 tokens, o 300 páginas de un libro estándar. Más control para los desarrolladores, incluido un modo JSON, la capacidad de llamar a múltiples funciones a la vez, registrar probabilidades y resultados reproducibles. Conocimiento mundial hasta abril de 2023. Límites de tarifas más altos. GPT-4 Turbo costará un centavo por 1000 tokens de entrada y tres centavos por 1000 tokens de salida, más barato que GPT-4, dijo el director ejecutivo de OpenAI, Sam Altman (Figura A). Figura A El director ejecutivo de OpenAI, Sam Altman, resume los anuncios del DevDay de OpenAI el 6 de noviembre de 2023 en San Francisco. Imagen: TechRepublic «Decidimos priorizar los costos primero porque necesitamos hacer uno u otro, pero ahora estamos trabajando en la velocidad», dijo Altman durante la presentación principal. GPT-4 Turbo está disponible hoy en versión preliminar para desarrolladores con una suscripción a OpenAI. OpenAI espera que GPT-4 Turbo esté listo para producción en las próximas semanas. ChatGPT utilizará GPT-4 Turbo en una implementación gradual a partir de hoy. En el momento de escribir este artículo, GP-3.5 también mostró una actualización de conocimientos hasta enero de 2022. VER: OpenAI estuvo entre las organizaciones que firmaron una lista voluntaria de garantías de seguridad de IA con el gobierno de EE. UU. en septiembre. (TechRepublic) Otro cambio que los usuarios de ChatGPT verán hoy es que el selector de modelo ya no es un menú desplegable; en cambio, ChatGPT elige automáticamente qué modelo y modalidad, incluidas imágenes de DALL-E 3 y texto a voz, usar según la solicitud del usuario. Los desarrolladores podrán crear y vender herramientas de IA personalizadas conocidas como GPT. Además de mencionar el objetivo declarado de OpenAI de AGI (inteligencia artificial general hipotética, o IA, que es más inteligente que los humanos), Altman enfatizó que el objetivo para el futuro de la empresa es Permitir agentes de IA personalizados para combinar habilidades específicas. Con ese fin, OpenAI está lanzando GPT, que son versiones personalizadas de ChatGPT (Figura B). Figura B El director ejecutivo de OpenAI, Sam Altman, demostró la creación de un GPT el 6 de noviembre de 2023 durante el discurso de apertura de OpenAI DevDay en San Francisco. Imagen: Los GPT de TechRepublic se pueden diseñar, personalizar y vender en un mercado llamado GPT Store, que se abrirá a finales de este mes (Figura C). Figura C Una maqueta de la página principal de la Tienda GPT. Imagen: Los creadores de OpenAI pueden obtener ingresos de sus GPT en función de la popularidad de los GPT. Canva y Zapier recibieron acceso temprano al creador de GPT y lanzaron sus propios GPT. En ChatGPT Enterprise, los usuarios podrán crear GPT que solo se puedan compartir dentro de su organización. Los GPT estarán disponibles en ChatGPT Enterprise el miércoles 8 de noviembre. OpenAI enfatizó que las conversaciones en ChatGPT Enterprise no se utilizan para la capacitación de modelos. La IA de diseño generativo automatizará el 60% del esfuerzo de diseño de nuevos sitios web y aplicaciones móviles para 2026, predijo Gartner en su Market Databook 2023. La API de Asistentes ahora está disponible en versión beta. Más cobertura de IA de lectura obligada. OpenAI también anunció la API de Asistentes, una herramienta para crear aplicaciones generativas basadas en IA que reúne capacidades como el intérprete de código, la recuperación y la llamada de funciones de OpenAI. La API de Asistentes se basa en la misma base que los GPT, con herramientas adicionales. Con la API de Asistentes, los desarrolladores pueden agregar IA generativa a sus aplicaciones y servicios existentes. Por ejemplo, OpenAI Code Interpreter puede escribir y generar código y crear archivos. En la conferencia magistral, OpenAI demostró un asistente de voz que realiza cambios en las cuentas OpenAI de los usuarios en vivo. La API de Asistentes está en versión beta hoy; Los detalles de precios están disponibles en el sitio de OpenAI. El acceso a la API de OpenAI está disponible a nivel internacional. Los datos y archivos utilizados con la API de OpenAI no se utilizan para entrenar modelos de IA, dijo OpenAI. Altman dijo que ve esta API de Asistentes como un precursor de los agentes de IA, que cree que gradualmente podrán actuar por sí solos a medida que se vuelvan más capaces. Nota: TechRepublic vio virtualmente el discurso de apertura del DevDay de OpenAI.

Source link

Funciona con WordPress & Tema de Anders Norén