Todo lo que necesitas saber sobre tecnología

Etiqueta: abierto Página 1 de 5

El modelo ‘Strawberry’ de OpenAI realiza ecuaciones complejas

El modelo ‘Strawberry’ de OpenAI realiza ecuaciones complejas

El 12 de septiembre, OpenAI reveló una vista previa de su nuevo modelo, OpenAI o1, diseñado para manejar tareas complejas como escribir código, resolver problemas matemáticos y realizar razonamientos profundos. Es el primero de la familia de IA de próxima generación, conocida como «Strawberry», sobre la que se ha rumoreado durante mucho tiempo. Los usuarios de ChatGPT Plus, Team y los desarrolladores con uso de API de OpenAI Tier 5 ahora pueden acceder a la versión de vista previa del modelo completo, o1-preview. Estos usuarios también pueden acceder a o1-mini, una versión más pequeña y rápida del modelo o1 que es particularmente eficaz en la codificación. Como modelo más pequeño, el gigante tecnológico dice que es «un 80% más barato que o1-preview, lo que lo convierte en un modelo poderoso y rentable para aplicaciones que requieren razonamiento pero no un amplio conocimiento del mundo». Open AI señaló que los usuarios de ChatGPT Enterprise y Edu tendrán acceso a ambos modelos a partir de la próxima semana. «También estamos planeando brindar acceso a o1-mini a todos los usuarios de ChatGPT Free», dijo la compañía en su comunicado. Aquí está o1, una serie de nuestros modelos más capaces y alineados hasta ahora: https://t.co/yzZGNN8HvD o1 todavía tiene fallas, sigue siendo limitado y todavía parece más impresionante en el primer uso que después de pasar más tiempo con él. pic.twitter.com/Qs1HoSDOz1 — Sam Altman (@sama) 12 de septiembre de 2024 Más cobertura de IA de lectura obligada o1 requiere más tiempo para razonar sobre problemas más difíciles En lugar de promover la capacidad de lenguaje de GPT-4, OpenAI o1 y o1-mini se centran en la ciencia, creando y depurando código y matemáticas. Un video de demostración muestra el modelo construyendo un juego jugable al estilo de los juegos de Snake en la década de 1970. Como explicó OpenAI, o1 puede ser utilizado por: Investigadores de atención médica para anotar datos de secuenciación celular. Físicos para generar fórmulas matemáticas complicadas necesarias para la óptica cuántica. Desarrolladores en todos los campos para construir y ejecutar flujos de trabajo de varios pasos. OpenAI dice que o1 se ubicó en el percentil 89 en la prueba de programación competitiva Codeforces y se ubicó entre los 500 mejores estudiantes de los EE. UU. en una clasificación para la Olimpiada de Matemáticas de EE. UU. Por naturaleza, o1 tardará más en responder que ChatGPT o GPT-4. o1 mostrará un mensaje de carga que indica que está «pensando». Imagen: OpenAI o1-preview puede generar un máximo de 32k tokens, mientras que o1-mini puede generar un máximo de 64k tokens. Un token puede ser tan corto como un carácter o tan largo como una palabra, según la complejidad del texto. Ambas versiones del nuevo modelo solo admiten la entrada de texto, no audio ni imágenes. OpenAI creó una guía de mejores prácticas para que los desarrolladores determinen si o1 es adecuado para su trabajo. En la tarjeta del sistema del modelo, donde OpenAI describe los esfuerzos de trabajo en equipo y otras consideraciones de seguridad, o1 recibió una calificación de seguridad «media» en dos categorías. El grupo de investigación independiente Apollo Research señaló que o1 “tiene las capacidades básicas necesarias para realizar esquemas simples en contexto”, es decir, “manipular sus mecanismos de supervisión como un medio para lograr un objetivo”. Por otro lado, el razonamiento más profundo le da al modelo una mejor comprensión de las políticas de seguridad.

Apple Intelligence promete una mejor privacidad de la IA. Así es como funciona en realidad

Apple Intelligence promete una mejor privacidad de la IA. Así es como funciona en realidad

Apple está poniendo a disposición del público todas las compilaciones de servidores PCC de producción para su inspección, de modo que las personas no afiliadas a Apple puedan verificar que PCC está haciendo (y no haciendo) lo que la empresa afirma, y ​​que todo está implementado correctamente. Todas las imágenes de servidores PCC se registran en un registro de atestación criptográfica, esencialmente un registro indeleble de afirmaciones firmadas, y cada entrada incluye una URL para descargar esa compilación individual. PCC está diseñado para que Apple no pueda poner un servidor en producción sin registrarlo. Y además de ofrecer transparencia, el sistema funciona como un mecanismo de cumplimiento crucial para evitar que los malos actores configuren nodos PCC no autorizados y desvíen el tráfico. Si una compilación de servidor no se ha registrado, los iPhones no le enviarán consultas ni datos de Apple Intelligence. PCC es parte del programa de recompensas por errores de Apple, y las vulnerabilidades o configuraciones incorrectas que encuentren los investigadores podrían ser elegibles para recompensas en efectivo. Sin embargo, Apple dice que desde que la versión beta de iOS 18.1 estuvo disponible a fines de julio, nadie ha encontrado fallas en PCC hasta ahora. La empresa reconoce que hasta ahora solo ha puesto a disposición de un grupo selecto de investigadores las herramientas para evaluar el PCC. Varios investigadores de seguridad y criptógrafos le dicen a WIRED que Private Cloud Compute parece prometedor, pero que aún no han dedicado mucho tiempo a investigarlo. «Construir servidores de silicio de Apple en el centro de datos cuando antes no teníamos ninguno, construir un sistema operativo personalizado para ejecutar en el centro de datos fue enorme», dice Federighi. Agrega que «crear el modelo de confianza donde su dispositivo se negará a emitir una solicitud a un servidor a menos que la firma de todo el software que ejecuta el servidor se haya publicado en un registro de transparencia fue sin duda uno de los elementos más singulares de la solución, y totalmente crítico para el modelo de confianza». Ante las preguntas sobre la asociación de Apple con OpenAI y la integración de ChatGPT, la empresa enfatiza que las asociaciones no están cubiertas por PCC y operan por separado. ChatGPT y otras integraciones están desactivadas de forma predeterminada, y los usuarios deben habilitarlas manualmente. Luego, si Apple Intelligence determina que una solicitud se cumpliría mejor con ChatGPT u otra plataforma asociada, notifica al usuario cada vez y le pregunta si desea continuar. Además, las personas pueden usar estas integraciones mientras están conectadas a su cuenta para un servicio asociado como ChatGPT o pueden usarlas a través de Apple sin iniciar sesión por separado. Apple dijo en junio que otra integración con Gemini de Google también está en proceso. Apple dijo esta semana que además del lanzamiento en inglés de Estados Unidos, Apple Intelligence llegará a Australia, Canadá, Nueva Zelanda, Sudáfrica y el Reino Unido en diciembre. La compañía también dijo que el soporte de idiomas adicionales, incluido el chino, el francés, el japonés y el español, dejará de ofrecerse el próximo año. Si eso significa que Apple Intelligence estará permitido bajo la Ley de IA de la Unión Europea y si Apple podrá ofrecer PCC en su forma actual en China es otra pregunta. «Nuestro objetivo es brindar todo lo que podamos para brindar las mejores capacidades a nuestros clientes en todos los lugares donde podamos», dice Federighi. «Pero tenemos que cumplir con las regulaciones y existe incertidumbre en ciertos entornos que estamos tratando de resolver para poder brindar estas funciones a nuestros clientes lo antes posible. “Estamos intentándolo”, añade, y añade que, a medida que la empresa amplíe su capacidad para realizar más cálculos de Apple Intelligence en el dispositivo, es posible que pueda utilizar esto como una solución alternativa en algunos mercados. Quienes obtengan acceso a Apple Intelligence tendrán la capacidad de hacer mucho más de lo que podían con las versiones anteriores de iOS, desde herramientas de escritura hasta análisis de fotografías. Federighi dice que su familia celebró el reciente cumpleaños de su perro con un GenMoji generado por Apple Intelligence (visto y confirmado como muy tierno por WIRED). Pero, aunque la IA de Apple está pensada para ser lo más útil e invisible posible, lo que está en juego es increíblemente alto para la seguridad de la infraestructura que la sustenta. Entonces, ¿cómo van las cosas hasta ahora? Federighi lo resume sin dudarlo: “El lanzamiento de Private Cloud Compute ha sido deliciosamente tranquilo”.

Apple promociona sus últimas herramientas de inteligencia artificial al presentar el iPhone 16

Apple promociona sus últimas herramientas de inteligencia artificial al presentar el iPhone 16

SAN FRANCISCO — Apple presentó el lunes su nueva generación de iPhones, con las mejoras habituales en sus cámaras y potencia informática. Pero esta vez, la compañía promocionó un punto de venta adicional: herramientas de inteligencia artificial. Los nuevos iPhone 16 y 16 Pro serán los primeros teléfonos inteligentes construidos desde cero con Apple Intelligence, el llamado conjunto de herramientas de IA que se supone que hacen que los dispositivos y su software sean mejores y más fáciles de usar. Apple Intelligence, por ejemplo, puede hacer sugerencias a los usuarios mientras escriben correos electrónicos, puede mostrar rápidamente fotos antiguas según la descripción de un usuario y ayudar a programar reuniones teniendo en cuenta el tiempo de conducción. Además, la última versión de Siri puede extraer información recopilada del chatbot ChatGPT de OpenAI, con el permiso del usuario del iPhone. Pero, ¿será suficiente Apple Intelligence para convencer a los clientes de Apple de comprar un nuevo teléfono inteligente? «El modelo de negocio se basa en el hecho de que creen que Apple Intelligence es suficiente para que la gente se actualice, y probablemente tengan razón», dijo Ray Wang, analista principal de Constellation Research, con sede en Palo Alto. “Esto realmente se trata de cualquier cosa que sea una categoría que ahorre tiempo, cualquier cosa que realmente te ayude a crear más rápido”. El iPhone 16, 16 Plus, 16 Pro y 16 Pro Max estarán disponibles para pedidos anticipados el viernes y en las tiendas el 20 de septiembre. El iPhone 16, que tiene una pantalla de 6,1 pulgadas, comenzará en $ 799; el 16 Plus con pantalla de 6,7 pulgadas comienza en $ 899. El 16 Pro, con una pantalla de 6,3 pulgadas, comienza en $ 999, y el 16 Pro Max, con una pantalla de 6,9 ​​pulgadas, comienza en $ 1,199. Apple Intelligence estará disponible a partir del próximo mes, incluso en dispositivos más antiguos iPhone 15 Pro y 15 Pro Max. Wang estima que Apple tiene una base instalada de iPhone de 1.3 mil millones, con 240 millones de esa base actualizándose a las máquinas de próxima generación. El fabricante de iPhone con sede en Cupertino, California, ha promocionado a Apple Intelligence como más consciente de la privacidad del cliente que sus competidores de IA. Apple Intelligence utiliza procesamiento en el dispositivo. Para las solicitudes que requieren el uso de la nube, los dispositivos «no se comunican con un servidor a menos que su software se haya registrado públicamente para su inspección», según la empresa. Los datos no se conservan ni se exponen. «La próxima generación de iPhone ha sido diseñada para Apple Intelligence desde cero», dijo el director ejecutivo de Apple, Tim Cook, durante una presentación en la sede de la empresa. «Marca el comienzo de una nueva era emocionante». Apple anunció por primera vez Apple Intelligence en su Conferencia Mundial de Desarrolladores en junio. Fue inmediatamente criticado por el director ejecutivo de Tesla, Elon Musk, quien dirige su propia empresa de inteligencia artificial que compite con OpenAI. Musk expresó su preocupación de que una asociación entre Apple y OpenAI pudiera plantear riesgos de seguridad. Algunos investigadores de seguridad, incluido Alex Stamos, director de seguridad de la información en la empresa de ciberseguridad SentinelOne con sede en Mountain View, California, y ex director de seguridad de Facebook, han rechazado las acusaciones de Musk. A lo largo de los años, las capacidades de la IA han avanzado significativamente, lo que les ha dado a los chatbots digitales la capacidad de contar cuentos a los niños antes de dormir, detectar emociones en los usuarios humanos y ofrecer sugerencias para ejercicios de respiración. En la industria del entretenimiento, herramientas como Sora de OpenAI han causado entusiasmo entre algunos cineastas, quienes dicen que pueden usarse para probar ideas audaces y ahorrar dinero; pero también temen que dichas herramientas desplacen a muchos trabajadores. El lunes, los ejecutivos de Apple promocionaron los beneficios potenciales de la IA para los consumidores. El iPhone 16, con una cámara de 48 megapíxeles, tendrá nuevo software y hardware que mejorará la forma en que los clientes usan las cámaras en sus teléfonos. Pueden hacer clic y mantener presionado el botón de control de la cámara para tomar una foto de un perro y averiguar cuál es su raza, o tomar una foto de un folleto que promociona un evento local y agregarlo a su calendario. Siri también puede contextualizar la información. Por ejemplo, es posible que los usuarios le digan a Siri del iPhone 16 que envíe a un amigo específico de sus contactos fotos de una barbacoa del sábado. El iPhone sigue siendo el producto más popular de Apple, representando el 46% de las ventas de la compañía en su tercer trimestre fiscal. Pero los ingresos por los teléfonos inteligentes de Apple disminuyeron a principios de este año debido a las menores ventas en China. Algunos analistas creen que los nuevos iPhone 16 y 16 Pro con tecnología de inteligencia artificial cambiarán eso. «Nuestra visión es apostar contra Cook y Cupertino en un superciclo impulsado por la IA liderado por el iPhone 16 y Apple Intelligence es el movimiento equivocado para los inversores, ya que el renacimiento del crecimiento vuelve a la historia de Apple», dijo Daniel Ives, director gerente de Wedbush Securities, en un informe del 1 de agosto. Ives tiene una calificación de «desempeño superior» para la acción. Apple también anunció que sus auriculares inalámbricos, AirPods Pro 2, ofrecerán pruebas de audición y podrían servir como audífono para personas con pérdida auditiva leve a moderada este otoño en más de 100 países y regiones, incluido Estados Unidos. La compañía dijo que está esperando recibir la autorización de comercialización de las autoridades sanitarias. También hubo características adicionales para los AirPods 4 de próxima generación, lo que permite a los usuarios tener llamadas telefónicas más claras incluso cuando caminan por entornos ruidosos. Los AirPods 4 estarán disponibles en las tiendas el 20 de septiembre. La compañía también compartió la noticia de que su Apple Watch Series 10 tendrá una pantalla más grande y una batería de carga más rápida. El Apple Watch Series 10 comienza en $399 y estará disponible en las tiendas Apple el 20 de septiembre.

Un nuevo libro sobre la batalla por la IA no se plantea si vale la pena luchar por ella

Un nuevo libro sobre la batalla por la IA no se plantea si vale la pena luchar por ella

Reseñas de libros Supremacía: IA, ChatGPT y la carrera que cambiará el mundo Por Parmy OlsonSt. Martin’s Press” 336 páginas, $30Si compra libros vinculados en nuestro sitio, The Times puede ganar una comisión de Bookshop.org, cuyas tarifas apoyan a las librerías independientes. De todas las tecnologías que han creado revuelo en los últimos años, la que más revuelo ha causado es lo que se conoce como inteligencia artificial (IA, para abreviar). Es revuelo porque los chatbots y los procesadores de datos que ha producido han sorprendido a los usuarios con sus diálogos y habilidades para realizar exámenes similares a los humanos, y también porque sus críticos, e incluso algunos de sus defensores, han planteado el espectro de dispositivos que pueden apoderarse de los esfuerzos humanos y amenazar la existencia humana. Eso es lo que hace que un nuevo libro de la columnista de Bloomberg Parmy Olson sea tan exquisitamente oportuno. “Supremacy: AI, Chat GPT, and the Race That Will Change the World” (“Supremacía: IA, chat GPT y la carrera que cambiará el mundo”) cubre las maniobras corporativas que subyacen al desarrollo de la IA en su iteración actual, que es principalmente una batalla entre Google, el propietario del laboratorio DeepMind, y Microsoft, un inversor clave en OpenAI, un destacado comercializador de la tecnología. Olson merece elogios por el notable logro periodístico de hacer la crónica de una batalla empresarial mientras todavía está en curso, de hecho, todavía en su infancia. A pesar de la actualidad de “Supremacy”, la pregunta puede ser si ha llegado demasiado pronto. Cómo se desenvolverá la batalla es algo que no se sabe, como tampoco si las iteraciones actuales de la IA realmente cambiarán el mundo, como afirma su subtítulo, o si están destinadas a desaparecer. Si esto último es así, no sería la primera vez que los inversores de riesgo, que han inundado los laboratorios de desarrollo de IA con miles de millones de dólares, se lanzan todos juntos al precipicio. En las últimas décadas, otras tecnologías novedosas han llegado al mercado en medio de una ola de publicidad exagerada: me vienen a la mente la revolución de las puntocom de finales de los años 90 y la revolución de las criptomonedas y la cadena de bloques, que ya muestra su irregularidad. Durante gran parte de su libro, Olson parece estar demasiado cautivada por el potencial de la IA; en su prólogo, escribe que nunca había visto un campo «moverse tan rápido como lo ha hecho la inteligencia artificial en tan solo los últimos dos años». Sin embargo, según su biografía, ha estado cubriendo tecnología durante «más de 13 años». Eso puede no haber sido suficiente para darle la perspectiva histórica necesaria para evaluar la situación. El núcleo de «Supremacy» es una biografía dual al estilo de «Vidas paralelas» de los empresarios de IA Demis Hassabis y Sam Altman. El primero, el fundador de DeepMind, es un diseñador de juegos y campeón de ajedrez nacido en Londres que soñaba con crear un software «tan poderoso que pudiera hacer descubrimientos profundos sobre la ciencia e incluso sobre Dios», escribe Olson. Altman creció en St. Louis y se empapó de la cultura emprendedora de Silicon Valley, en gran medida a través de su relación con Y Combinator, una aceleradora de startups de la que se convertiría en socio y, con el tiempo, en presidente. Olson es un hábil biógrafo. Hassabis y Altman saltan a la vista. Lo mismo hacen otras figuras involucradas en la “carrera” de la IA, como Elon Musk, quien cofundó Open AI con Altman y varios otros cuya idiotez fundamental se refleja mucho más vívidamente en sus páginas que en las de Walter Isaacson, el adorador biógrafo de Musk. Los lectores fascinados por las maniobras corporativas de alto riesgo encontrarán mucho que los mantendrá cautivados en el relato de Olson sobre los altibajos de la relación entre Google y DeepMind por un lado, y Microsoft y OpenAI por el otro. En ambos casos, esas relaciones se ven tensas por el conflicto entre los ingenieros de IA centrados en desarrollar tecnologías de IA de manera segura y los deseos de las grandes empresas de explotarlas para obtener ganancias lo más rápido posible. Sin embargo, lo que se deja de lado en el libro es la larga historia de propaganda sobre la IA. Hasta aproximadamente la mitad de “Supremacy” Olson no aborda seriamente la posibilidad de que lo que hoy se promociona como “inteligencia artificial” sea menos de lo que parece. El término en sí es un artefacto de la propaganda, ya que no hay evidencia de que las máquinas que se promocionan hoy sean “inteligentes” en ningún sentido razonable. “Las predicciones demasiado confiadas sobre la IA son tan antiguas como el campo mismo”, observó perspicazmente Melanie Mitchell, del Instituto Santa Fe, hace unos años. A partir de la década de 1950, los investigadores de la IA afirmaron que las mejoras exponenciales en la capacidad de procesamiento cerrarían las últimas brechas entre la inteligencia humana y la de las máquinas. Siete décadas después, ese sigue siendo el sueño; la capacidad de procesamiento de los teléfonos inteligentes actuales, por no hablar de los ordenadores de sobremesa y los portátiles, sería inimaginable para los ingenieros de los años 50, pero el objetivo de la verdadera inteligencia de las máquinas todavía se aleja del horizonte. Todo ese poder nos ha proporcionado máquinas que pueden recibir más datos y que pueden escupirlos en frases que se parecen al inglés o a otros idiomas, pero sólo en la variedad genérica, como declaraciones de relaciones públicas, fragmentos de noticias, versos de tarjetas de felicitación y ensayos de estudiantes. En cuanto a la impresión que dan los robots de inteligencia artificial actuales de que hay una entidad consciente al otro lado de una conversación (y que engaña incluso a investigadores experimentados), eso tampoco es nuevo. En 1976, el pionero de la IA Joseph Weizenbaum, inventor del chatbot ELIZA, escribió sobre su descubrimiento de que la exposición a “un programa informático relativamente simple podía inducir un poderoso pensamiento delirante en personas bastante normales”, y advirtió que la “antropomorfización imprudente del ordenador” (es decir, tratarlo como una especie de compañero de pensamiento) había producido una “visión simplista… de la inteligencia”. La verdad es que los datos de entrada con los que se “entrenan” los productos de IA actuales (enormes “extracciones” de Internet y trabajos publicados) son todos productos de la inteligencia humana, y los resultados son recapitulaciones algorítmicas de esos datos, no creaciones sui generis de las máquinas. Son humanos de principio a fin. Los neurólogos de hoy ni siquiera pueden definir las raíces de la inteligencia humana, por lo que atribuir “inteligencia” a un dispositivo de IA es una tarea inútil. Olson lo sabe. “Una de las características más poderosas de la inteligencia artificial no es tanto lo que puede hacer”, escribe, “sino cómo existe en la imaginación humana”. El público, incitado por los emprendedores de la IA, puede ser engañado y pensar que un bot es “un ser nuevo y vivo”. Sin embargo, como informa Olson, los propios investigadores son conscientes de que los grandes modelos de lenguaje (los sistemas que parecen ser verdaderamente inteligentes) han sido “entrenados con tanto texto que podrían inferir la probabilidad de que una palabra o frase siga a otra. … Estos [are] máquinas de predicción gigantes, o como algunos investigadores lo describieron, ‘autocompletar con esteroides’”. Los empresarios de IA como Altman y Musk han advertido que los mismos productos que están comercializando pueden amenazar la civilización humana en el futuro, pero tales advertencias, extraídas en gran medida de la ciencia ficción, en realidad están destinadas a distraernos de las amenazas comerciales más cercanas: la infracción de los derechos de autor creativos por parte de los desarrolladores de IA que entrenan a sus chatbots en obras publicadas, por ejemplo, y la tendencia de los bots desconcertados por una pregunta a simplemente inventar una respuesta (un fenómeno conocido como «alucinación»). Olson concluye «Supremacy» preguntando con bastante acierto si Hassabis y Altman, y Google y Microsoft, merecen nuestra «confianza» mientras «construyen nuestro futuro de IA». A modo de respuesta, afirma que lo que ya han construido es «una de las tecnologías más transformadoras que hemos visto nunca». Pero esa no es la primera vez que se hace una afirmación tan presuntuosa para la IA, o de hecho para muchas otras tecnologías que finalmente quedaron en el camino. Michael Hiltzik es columnista de economía del Times. Su último libro es “Iron Empires: Robber Barons, Railroads, and the Making of Modern America”.

OpenAI y Anthropic firman acuerdos con el Instituto de Seguridad de la IA de EE. UU.

OpenAI y Anthropic firman acuerdos con el Instituto de Seguridad de la IA de EE. UU.

OpenAI y Anthropic han firmado acuerdos con el gobierno de Estados Unidos, ofreciendo sus modelos de IA de vanguardia para pruebas e investigación de seguridad. Un anuncio del NIST el jueves reveló que el Instituto de Seguridad de la IA de EE. UU. tendrá acceso a las tecnologías «antes y después de su lanzamiento público». Gracias a los respectivos Memorandos de Entendimiento (acuerdos no jurídicamente vinculantes) firmados por los dos gigantes de la IA, el AISI puede evaluar las capacidades de sus modelos e identificar y mitigar cualquier riesgo de seguridad. El AISI, establecido formalmente por el NIST en febrero de 2024, se centra en las acciones prioritarias descritas en la Orden Ejecutiva de IA sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial emitida en octubre de 2023. Estas acciones incluyen el desarrollo de estándares para la seguridad y protección de los sistemas de IA. El grupo cuenta con el apoyo del Consorcio del Instituto de Seguridad de la IA, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. Elizabeth Kelly, directora del AISI, dijo en el comunicado de prensa: «La seguridad es esencial para impulsar la innovación tecnológica revolucionaria. Con estos acuerdos en vigor, esperamos comenzar nuestras colaboraciones técnicas con Anthropic y OpenAI para avanzar en la ciencia de la seguridad de la IA. «Estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a administrar de manera responsable el futuro de la IA». VER: Definición de IA generativa: cómo funciona, beneficios y peligros Jack Clark, cofundador y director de Políticas de Anthropic, le dijo a TechRepublic por correo electrónico: «La IA segura y confiable es crucial para el impacto positivo de la tecnología. Nuestra colaboración con el Instituto de Seguridad de IA de EE. UU. aprovecha su amplia experiencia para probar rigurosamente nuestros modelos antes de su implementación generalizada. «Esto fortalece nuestra capacidad para identificar y mitigar riesgos, avanzando en el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y confiable». Jason Kwon, director de estrategia de OpenAI, le dijo a TechRepublic por correo electrónico: «Apoyamos firmemente la misión del Instituto de Seguridad de IA de EE. UU. y esperamos trabajar juntos para informar las mejores prácticas y estándares de seguridad para los modelos de IA. “Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de EE. UU. en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco sobre el que el resto del mundo pueda construir”. AISI trabajará con el Instituto de Seguridad de IA del Reino Unido AISI también planea colaborar con el Instituto de Seguridad de IA del Reino Unido al proporcionar comentarios relacionados con la seguridad a OpenAI y Anthropic. En abril, los dos países acordaron formalmente trabajar juntos en el desarrollo de pruebas de seguridad para modelos de IA. Este acuerdo se tomó para mantener los compromisos establecidos en la primera Cumbre mundial de seguridad de IA en noviembre pasado, donde los gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. Después del anuncio del jueves, Jack Clark, cofundador y director de políticas de Anthropic, publicó en X: “Las pruebas de terceros son una parte realmente importante del ecosistema de IA y ha sido sorprendente ver a los gobiernos crear institutos de seguridad para facilitar esto. “Este trabajo con el AISI de EE. UU. se basará en el trabajo anterior que hicimos este año, donde trabajamos con el AISI del Reino Unido para hacer una prueba previa al despliegue en Sonnet 3.5”. Claude 3.5 Sonnet es el último modelo de IA de Anthropic, lanzado en junio. Desde el lanzamiento de ChatGPT, las empresas de IA y los reguladores han chocado sobre la necesidad de regulaciones estrictas de IA, con las primeras presionando para salvaguardar contra riesgos como la desinformación, mientras que los segundos argumentan que las reglas demasiado estrictas podrían sofocar la innovación. Los principales actores de Silicon Valley han abogado por un marco voluntario que permita la supervisión gubernamental de sus tecnologías de IA en lugar de mandatos regulatorios estrictos. El enfoque de EE. UU. a nivel nacional ha sido más favorable a la industria, centrándose en pautas voluntarias y la colaboración con las empresas de tecnología, como se ve en iniciativas ligeras como la Carta de Derechos de IA y la Orden Ejecutiva de IA. En contraste, la UE ha tomado un camino regulatorio más estricto con la Ley de IA, estableciendo requisitos legales sobre transparencia y gestión de riesgos. Algo en desacuerdo con la perspectiva nacional sobre la regulación de la IA, el miércoles, la Asamblea Estatal de California aprobó la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera, también conocida como SB-1047 o Ley de IA de California. Al día siguiente, fue aprobado por el Senado estatal, y ahora solo tiene que ser aprobado por el gobernador Gavin Newsom antes de que se promulgue como ley. Los incondicionales de Silicon Valley, OpenAI, Meta y Google, han escrito cartas a los legisladores de California expresando sus preocupaciones sobre la SB-1047, enfatizando la necesidad de un enfoque más cauteloso para evitar obstaculizar el crecimiento de las tecnologías de IA. VER: OpenAI, Microsoft y Adobe respaldan el proyecto de ley de marcas de agua de IA de California Tras el anuncio del jueves del acuerdo de su empresa con la AISI de EE. UU., Sam Altman, director ejecutivo de OpenAI, publicó en X que sentía que era «importante que esto suceda a nivel nacional», haciendo una indirecta a la SB-1047 de California. Violar la legislación a nivel estatal resultaría en sanciones, a diferencia de un Memorando de Entendimiento voluntario. Más cobertura de IA de lectura obligada Mientras tanto, el Instituto de Seguridad de IA del Reino Unido se enfrenta a desafíos financieros Desde la transición del liderazgo conservador al laborista a principios de julio, el gobierno del Reino Unido ha realizado una serie de cambios notables con respecto a su enfoque hacia la IA. Ha descartado la oficina que debía establecer en San Francisco este verano, según fuentes de Reuters, que se promocionaba para cimentar las relaciones entre el Reino Unido y los titanes de IA del Área de la Bahía. El ministro de Tecnología, Peter Kyle, también habría despedido al asesor principal de políticas y cofundador del AISI del Reino Unido, Nitarshan Rajkumar. VER: El gobierno del Reino Unido anuncia £ 32 millones para proyectos de IA después de desechar la financiación para supercomputadoras Las fuentes de Reuters agregaron que Kyle planea recortar las inversiones directas del gobierno en la industria. De hecho, a principios de este mes, el gobierno archivó £ 1.3 mil millones de fondos que se habían destinado a la IA y la innovación tecnológica. En julio, la canciller Rachel Reeves dijo que el gasto público iba camino de superar el presupuesto en 22.000 millones de libras y anunció inmediatamente recortes por 5.500 millones de libras, incluidos los destinados al Fondo de Oportunidades de Inversión, que apoyaba proyectos en los sectores digital y tecnológico. Unos días antes del discurso de la canciller, el Partido Laborista designó al empresario tecnológico Matt Clifford para desarrollar el «Plan de Acción de Oportunidades de IA», que identificará cómo se puede aprovechar mejor la IA a nivel nacional para impulsar la eficiencia y reducir los costos. Sus recomendaciones se publicarán en septiembre. Según fuentes de Reuters, la semana pasada, Clifford tuvo una reunión con diez representantes de empresas de capital de riesgo establecidas para discutir este plan, incluido el modo en que el gobierno puede adoptar la IA para mejorar los servicios públicos, apoyar a las empresas derivadas de las universidades y facilitar que las empresas emergentes contraten a nivel internacional. Pero no hay calma en absoluto entre bastidores, ya que un asistente le dijo a Reuters que estaban «enfatizando que solo tenían un mes para dar vuelta la revisión».

Primeras impresiones del modo de voz avanzado de ChatGPT: divertido y un poco espeluznante

Primeras impresiones del modo de voz avanzado de ChatGPT: divertido y un poco espeluznante

Dejo activado el modo de voz avanzado de ChatGPT mientras escribo este artículo como un compañero de inteligencia artificial ambiental. De vez en cuando, le pido que proporcione un sinónimo para una palabra muy usada o algo de ánimo. Alrededor de media hora después, el chatbot interrumpe nuestro silencio y comienza a hablarme en español, sin que se lo pida. Me río un poco y pregunto qué está pasando. «¿Solo un pequeño cambio? Tengo que mantener las cosas interesantes», dice ChatGPT, ahora nuevamente en inglés. Mientras probaba el modo de voz avanzado como parte de la versión alfa temprana, mis interacciones con la nueva función de audio de ChatGPT fueron entretenidas, desordenadas y sorprendentemente variadas, aunque vale la pena señalar que las funciones a las que tuve acceso fueron solo la mitad de lo que OpenAI demostró cuando lanzó el modelo GPT-4o en mayo. El aspecto de visión que vimos en la demostración transmitida en vivo ahora está programado para un lanzamiento posterior, y la voz mejorada de Sky, que la actriz de Her Scarlett Johanssen rechazó, se ha eliminado del Modo de voz avanzado y ya no es una opción para los usuarios. Entonces, ¿cuál es el ambiente actual? En este momento, el Modo de voz avanzado recuerda a cuando se lanzó el ChatGPT original basado en texto, a fines de 2022. A veces conduce a callejones sin salida poco impresionantes o se convierte en lugares comunes de IA vacíos. Pero otras veces, las conversaciones de baja latencia funcionan de una manera que Siri de Apple o Alexa de Amazon nunca lo han hecho para mí, y me siento obligado a seguir chateando por placer. Es el tipo de herramienta de IA que le mostrarás a tus familiares durante las vacaciones para reírse un poco. OpenAI les dio a algunos periodistas de WIRED acceso a la función una semana después del anuncio inicial, pero la retiró a la mañana siguiente, citando preocupaciones de seguridad. Dos meses después, OpenAI lanzó el Modo de Voz Avanzado para un pequeño grupo de usuarios y publicó la tarjeta del sistema de GPT-4o, un documento técnico que describe los esfuerzos del equipo rojo, lo que la empresa considera riesgos de seguridad y los pasos de mitigación que ha tomado la empresa para reducir los daños. ¿Tienes curiosidad por probarlo tú mismo? Esto es lo que necesitas saber sobre la implementación más amplia del Modo de Voz Avanzado y mis primeras impresiones de la nueva función de voz de ChatGPT, para ayudarte a comenzar. Entonces, ¿cuándo será la implementación completa? OpenAI lanzó un Modo de Voz Avanzado solo de audio para algunos usuarios de ChatGPT Plus a fines de julio, y el grupo alfa todavía parece relativamente pequeño. La empresa planea habilitarlo para todos los suscriptores en algún momento de este otoño. Niko Felix, un portavoz de OpenAI, no compartió detalles adicionales cuando se le preguntó sobre el cronograma de lanzamiento. El uso compartido de pantalla y video fue una parte central de la demostración original, pero no están disponibles en esta prueba alfa. OpenAI planea agregar esos aspectos eventualmente, pero tampoco está claro cuándo sucederá eso. Si eres suscriptor de ChatGPT Plus, recibirás un correo electrónico de OpenAI cuando el Modo de voz avanzado esté disponible para ti. Una vez que esté en tu cuenta, puedes cambiar entre Estándar y Avanzado en la parte superior de la pantalla de la aplicación cuando el modo de voz de ChatGPT esté abierto. Pude probar la versión alfa en un iPhone y en un Galaxy Fold. Mis primeras impresiones del Modo de voz avanzado de ChatGPT En la primera hora de hablar con él, descubrí que me encanta interrumpir ChatGPT. No es como hablarías con un humano, pero tener la nueva capacidad de cortar ChatGPT a mitad de oración y solicitar una versión diferente del resultado se siente como una mejora dinámica y una característica destacada. Los primeros usuarios que estaban entusiasmados con las demostraciones originales pueden sentirse frustrados por obtener acceso a una versión del Modo de voz avanzado que está restringida con más barandillas de las anticipadas. Por ejemplo, aunque el canto generativo de IA fue un componente clave de las demostraciones de lanzamiento, con canciones de cuna susurradas y múltiples voces intentando armonizar, las serenatas de IA están ausentes en la versión alfa.

Apple se suma al compromiso voluntario del gobierno de EE. UU. con la seguridad de la IA

Apple se suma al compromiso voluntario del gobierno de EE. UU. con la seguridad de la IA

Apple es la última incorporación a la lista de empresas públicas estadounidenses que se comprometieron voluntariamente a cumplir con las regulaciones de IA, anunció la Casa Blanca el 26 de julio. Los compromisos, anunciados por primera vez en septiembre de 2023, incluyen promesas de revelar públicamente las capacidades de IA, marcar con marca de agua el contenido de IA y más. Estos compromisos establecen un estándar público para los mayores fabricantes de IA del país en un esfuerzo por reducir el engaño y otras prácticas novedosas e inseguras que podrían derivar de contenido de IA de apariencia realista o capacidades avanzadas. La incorporación de Apple está «consolidando aún más estos compromisos como piedras angulares de la innovación responsable en IA», afirmó la Casa Blanca en un comunicado de prensa. El gobierno llega a la fecha límite para los compromisos de seguridad de IA entre las agencias El 26 de julio, la Casa Blanca anunció que Apple había firmado el compromiso y que las agencias federales habían completado todas las «acciones de 270 días en la Orden Ejecutiva según lo programado». Las acciones van desde pautas técnicas hasta la prueba piloto del uso de IA en el gobierno para incorporar más profesionales con habilidades en IA al trabajo gubernamental. Las acciones son, en resumen: Gestionar los riesgos para la seguridad. Incorporar talento en IA al gobierno. Promover la innovación responsable en IA. El liderazgo de Estados Unidos en materia de IA en el extranjero avanza. “Las agencias de todo el gobierno han actuado con valentía”, afirma el informe de la Casa Blanca. “Han tomado medidas para mitigar los riesgos de seguridad y protección de la IA, proteger la privacidad de los estadounidenses, promover la equidad y los derechos civiles, defender a los consumidores y los trabajadores, promover la innovación y la competencia, promover el liderazgo estadounidense en todo el mundo y más”. Para las empresas, las nuevas acciones de IA podrían proporcionar un marco para los riesgos de seguridad y protección que deben considerar en torno a la IA generativa, ya sea que la fabriquen o la utilicen. VER: La semana pasada, Estados Unidos se unió a un compromiso internacional para fomentar la competencia en materia de IA y evitar el “atrincheramiento” de las grandes empresas. Más cobertura de IA imprescindible Apple retrasa el lanzamiento de la IA Bloomberg informó que Apple no presentará sus próximas funciones de IA con las actualizaciones de software en septiembre. En cambio, el lanzamiento de Apple Intelligence, la nueva plataforma de IA de la empresa tecnológica, se retrasará al menos unas semanas, aunque los desarrolladores tendrán acceso antes. Los desarrolladores pueden probar una versión beta de iOS 18.1, la versión que presenta la IA de Apple Intelligence, esta semana, según Bloomberg. Apple ha sido relativamente cautelosa con sus lanzamientos de IA, y ha optado por revelar Apple Intelligence mucho después de los experimentos de Google y Microsoft con funciones de IA generativa. Apple Intelligence incluirá tanto la integración de ChatGPT como la IA patentada de Apple para potenciar las capacidades de Siri. Los consumidores generales tendrán que esperar unas semanas después del lanzamiento de iOS 18 para que la versión iOS 18.1 incorpore funciones de IA.

OpenAI apuesta por Google con un prototipo de motor de búsqueda

OpenAI apuesta por Google con un prototipo de motor de búsqueda

OpenAI está lanzando un prototipo de motor de búsqueda para “un pequeño grupo de usuarios y editores”, posiblemente compitiendo con Google Search. SearchGPT combinará contenido generado por máquinas con información actualizada extraída de la web, anunció OpenAI en una publicación de blog el 25 de julio. Las organizaciones interesadas en probar el prototipo SearchGPT pueden unirse a la lista de espera. Las “respuestas visuales” y el lenguaje natural diferencian a SearchGPT de Google OpenAI diferencia a SearchGPT de Google Search Generative Experience de algunas maneras. Los usuarios pueden hacer preguntas de seguimiento sobre su búsqueda usando un lenguaje informal. En el ejemplo a continuación, “the jones house one” se refiere al lugar del festival al que el usuario hizo referencia originalmente. Esta captura de pantalla es de un video que muestra un caso de uso del consumidor para SearchGPT: encontrar un festival de música cercano. Imagen: OpenAI / captura de pantalla de TechRepublic Además, los usuarios podrán abrir una pestaña para ver enlaces directamente a sitios web u obtener “respuestas visuales”, que son gráficos o videos. Aún no está claro si las respuestas visuales serán generadas por IA, extraídas de la web o una mezcla de ambas. OpenAI se ha asociado con varias empresas de medios, entre ellas The Atlantic y News Corp, y ha intentado asegurar a los editores que los enlaces a contenido original se mostrarán de forma destacada en los resultados de SearchGPT. Pase el cursor sobre una atribución para ir al artículo a partir del cual SearchGPT creó su respuesta. Imagen: OpenAI Google domina el panorama competitivo de SearchGPT, pero eso podría cambiar Google puede haber estado arreglando lo que no estaba roto durante los últimos años, optimizando la Búsqueda de Google para intentar responder preguntas y promover resultados de búsqueda de alta calidad. La introducción de la Experiencia Generativa de Búsqueda impulsada por IA cambió aún más la Búsqueda de Google, añadiendo respuestas personalizadas a algunas consultas. En cifras, a julio de 2023, Google tiene el 81,95% de la cuota de mercado mundial de motores de búsqueda. Mientras tanto, Microsoft añadió primero Bing Chat y luego un formato de respuesta de IA generativa refinado a su motor de búsqueda. La competencia está por convertirse en la primera parada de un usuario en Internet. Si SearchGPT puede hacerse con una cuota de mercado como página principal, podría competir con los mismos buscadores que, en los dos últimos años, han añadido la IA generativa por la que OpenAI es famoso. VEA: Meta anunció recientemente su modelo de IA más potente hasta el momento con Llama 3.1. La naturaleza de los buscadores también está cambiando, desde directorios de contenido de Internet por tema a máquinas de preguntas y respuestas que se nutren de la web. “Esto es potencialmente una gran noticia en el mundo de las búsquedas”, dijo Damian Rollison, director de información de mercado de la firma de marketing SOCi, en un correo electrónico a TechRepublic. “ChatGPT es probablemente el mejor posicionado entre todos los competidores para alterar el dominio de Google en las búsquedas, y los aspectos de la nueva interfaz, como las ‘respuestas visuales’, parecen ser innovadores y potencialmente disruptivos. Sin embargo, de todas las áreas en las que ChatGPT puede competir con Google, la búsqueda es en la que el poder de Google como titular con una ventaja de 26 años es más fuerte”. El otro actor importante en este espacio es Perplexity AI, que ya se posiciona como un “motor de respuestas impulsado por IA”. Perplexity AI se puede utilizar en un navegador o en una aplicación y puede extraer información actual, a diferencia de ChatGPT.

¿Cobrar o demandar? Cómo el sector de las noticias combate la amenaza de la IA

¿Cobrar o demandar? Cómo el sector de las noticias combate la amenaza de la IA


El periodista Javier Cabral quería probar los resultados de búsqueda experimentales de inteligencia artificial de Google, tan publicitados. Así que escribió una pregunta sobre un tema que conocía íntimamente: el café de la panadería Gusto Bread de Long Beach. En menos de un segundo, la IA de Google resumió la información sobre la panadería en unas pocas oraciones y viñetas. Pero según Cabral, el resumen no era original: parecía sacado de un artículo que escribió el año pasado para la publicación local de comida, comunidad y cultura LA Taco, donde se desempeña como editor en jefe. Para una historia anterior, había pasado al menos cinco días trabajando en un artículo sobre la panadería, llegando a las 4 am para informar sobre el proceso de elaboración del pan. Para Cabral, la IA del gigante de las búsquedas lo estaba estafando. «El consumidor promedio que solo quiere ir a verla, probablemente no va a leer [the article] «Ya no es así», dijo Cabral en una entrevista. «Cuando lo analizas así, es un poco enfurecedor, seguro». El auge de la IA es solo la última amenaza existencial para las organizaciones de noticias como la de Cabral, que luchan por sobrevivir en medio de un entorno de medios e información que cambia rápidamente. 1 2 1. El editor de LA Taco, Javier Cabral, en el callejón detrás del Teatro Figueroa en Los Ángeles en 2020. (Mariah Tauger / Los Angeles Times) 2. La oficina de LA Taco en Los Ángeles el 26 de junio. (Zoe Cranfill / Los Angeles Times) Los medios de comunicación han luchado por atraer suscriptores y dólares publicitarios en la era de Internet. Y las plataformas de redes sociales como Facebook, de las que dependían los editores para hacer llegar su contenido a una audiencia masiva, se han alejado en gran medida de las noticias. Ahora, con el crecimiento de la IA gracias a empresas como Google, Microsoft y el fabricante de ChatGPT, OpenAI, los editores temen que los programas digitales extraigan automáticamente información de sus archivos y la entreguen a las audiencias de forma gratuita. “Hay algo que es fundamentalmente injusto en esto”, dijo Danielle Coffey, presidenta y directora ejecutiva de News/Media Alliance, que representa a publicaciones como New York Times y Los Angeles Times. “Lo que sucederá es que no habrá un modelo de negocios para nosotros en un escenario en el que usen nuestro propio trabajo para competir con nosotros, y eso es algo que nos preocupa mucho”. Las empresas tecnológicas que lideran la iniciativa de la IA dicen que sus herramientas no están involucradas en la infracción de derechos de autor y pueden dirigir el tráfico a los editores. Google dijo en una declaración que diseñó sus Resúmenes de IA (los resúmenes que aparecen cuando las personas ingresan consultas de búsqueda) para “ofrecer una instantánea de la información relevante de varias páginas web”. Las empresas también brindan enlaces a los resúmenes para que las personas puedan obtener más información. La IA y el aprendizaje automático podrían proporcionar herramientas útiles para los editores al realizar investigaciones o crear recomendaciones para los lectores. Pero para muchos medios periodísticos, la revolución de la IA representa otra consecuencia de que los gigantes tecnológicos se conviertan en intermediarios entre los productores de contenido y sus consumidores, y luego se queden con el botín. “Durante los últimos 20 años, las grandes tecnológicas han dictado el modelo de negocio de las noticias al básicamente ordenar cómo se distribuyen las noticias, ya sea a través de búsquedas o redes sociales, y esto ha resultado bastante desastroso para la mayoría de las organizaciones de noticias”, dijo Gabriel Kahn, profesor de la Escuela Annenberg de Comunicación y Periodismo de la USC. LA Taco opera con un presupuesto ajustado; su editor no cobra salario. El sitio obtiene la mayor parte de su dinero a través de membresías, por lo que si la gente obtiene la información directamente de Google en lugar de pagar para leer los artículos de LA Taco, ese es un problema importante. Arriba, una reunión de personal en su oficina de Chinatown. (Zoe Cranfill / Los Angeles Times) Para responder al problema, las organizaciones de noticias han adoptado enfoques radicalmente diferentes. Algunas empresas, entre ellas Associated Press, Financial Times y News Corp., propietaria del Wall Street Journal y Dow Jones, han firmado acuerdos de licencia para permitir a OpenAI, con sede en San Francisco, utilizar su contenido a cambio de un pago. Vox Media y The Atlantic también han llegado a acuerdos con la empresa. Otras han llevado sus luchas a los tribunales. En diciembre, The New York Times demandó a OpenAI y Microsoft, alegando que ambas empresas utilizaban sus artículos para entrenar a sus asistentes digitales y compartir textos de historias pagadas con sus usuarios sin compensación. El periódico estimó que esas acciones resultaron en miles de millones de dólares en daños. Por otra parte, el mes pasado Forbes amenazó con emprender acciones legales contra la startup de inteligencia artificial Perplexity, acusándola de plagio. Después de recibir la carta de Forbes, Perplexity dijo que cambió la forma en que presentaba las fuentes y ajustó las indicaciones para sus modelos de inteligencia artificial. La empresa dijo que ha estado desarrollando un programa de reparto de ingresos con los editores. The New York Times dijo en su demanda que su batalla contra la inteligencia artificial no se trata solo de cobrar por el contenido ahora; se trata de proteger el futuro de la profesión periodística. “Con menos ingresos, las organizaciones de noticias tendrán menos periodistas capaces de dedicar tiempo y recursos a historias importantes y en profundidad, lo que crea un riesgo de que esas historias no se cuenten”, dijo el periódico en su demanda. “Se producirá menos periodismo y el costo para la sociedad será enorme”. OpenAI dijo que la demanda del New York Times no tenía fundamento y que no ha podido reproducir los ejemplos que el periódico ha citado de ChatGPT regurgitando artículos de pago. La compañía dijo que los editores tienen una forma de optar por que sus sitios no se utilicen para entrenar herramientas de inteligencia artificial. Microsoft no respondió a una solicitud de comentarios. Associated Press, Financial Times y News Corp., el propietario del Wall Street Journal y Dow Jones, han firmado acuerdos de licencia para permitir que OpenAI, con sede en San Francisco, use su contenido a cambio de un pago. (Michael Dwyer / Associated Press) “Microsoft y OpenAI tienen el proceso completamente al revés”, dijo Davida Brook, socia de la firma de abogados Susman Godfrey, que representa al New York Times, en un comunicado. “Ni The New York Times ni otros creadores deberían tener que optar por no permitir que les roben sus obras”. La guerra legal se está extendiendo. En abril, ocho publicaciones propiedad de la firma de capital privado Alden Global Capital también acusaron a OpenAI y Microsoft de usar y proporcionar información de sus noticias sin pago. En algunos casos, la herramienta de chat de OpenAI proporcionó información incorrecta atribuida a las publicaciones, dijo Frank Pine, editor ejecutivo de MediaNews Group y Tribune Publishing, en un comunicado. Por ejemplo, según Pine, OpenAI dijo que Mercury News recomendó inyectar desinfectantes para tratar COVID-19 y Denver Post publicó una investigación que sugería que fumar cura el asma. Ninguna publicación ha hecho tales afirmaciones.[W]“Cuando no están entregando los informes textuales reales de nuestros periodistas que trabajan duro, atribuyen erróneamente información falsa a nuestras publicaciones de noticias, dañando nuestra credibilidad”, dijo Pine. OpenAI dijo que “no estaba al tanto previamente” de las preocupaciones de Alden y que está “participando activamente en asociaciones y conversaciones constructivas con muchas organizaciones de noticias de todo el mundo para explorar oportunidades, discutir cualquier inquietud y brindar soluciones”. Una de esas asociaciones es el reciente acuerdo de OpenAI con News Corp., que permite que las herramientas de la empresa de tecnología muestren contenido de los medios de comunicación en respuesta a las preguntas de los usuarios y accedan al contenido del Wall Street Journal, New York Post y publicaciones en el Reino Unido y Australia para entrenar sus modelos de IA. El acuerdo fue valorado en más de $ 250 millones a lo largo de cinco años, según el Wall Street Journal, que citó fuentes anónimas. News Corp y OpenAI se negaron a comentar sobre los términos financieros. “Este acuerdo histórico no es el final, sino el comienzo de una hermosa amistad en la que estamos comprometidos conjuntamente a crear y ofrecer información e integridad de manera instantánea”, dijo Robert Thomson, director ejecutivo de News Corp. en un comunicado. “Estamos comprometidos con un ecosistema próspero de editores y creadores al facilitar que las personas encuentren su contenido a través de nuestras herramientas”, dijo OpenAI en un comunicado. Aunque OpenAI ha cerrado acuerdos con algunos editores, la industria tecnológica ha argumentado que debería poder entrenar a sus modelos de IA en contenido disponible en línea y mostrar información relevante bajo la doctrina de “uso justo”, que permite la reproducción limitada de contenido sin el permiso del titular de los derechos de autor. “Mientras estas empresas no reproduzcan textualmente lo que publican estos sitios de noticias, creemos que están dentro de sus derechos legales de ofrecer este contenido a los usuarios”, dijo Chris MacKenzie, portavoz de la Cámara del Progreso, un grupo industrial que representa a empresas como Google y Meta. “Al final, es importante recordar que nadie tiene derechos de autor sobre los hechos”, pero medios como el New York Times rechazan esas afirmaciones de uso justo, argumentando que en algunos casos los chatbots reproducen su contenido, beneficiándose injustamente de su trabajo minuciosamente investigado y verificado. La situación es aún más difícil para medios más pequeños como LA Taco, que no pueden permitirse demandar a OpenAI o desarrollar sus propias plataformas de inteligencia artificial. Ubicado en el barrio chino de Los Ángeles con cuatro trabajadores a tiempo completo y dos a tiempo parcial, LA Taco opera con un presupuesto ajustado; su editor no recibe un salario. El sitio obtiene la mayor parte de su dinero a través de membresías, por lo que si la gente obtiene la información directamente de Google en lugar de pagar para leer los artículos de LA Taco, eso es un problema importante. La legislación es otra forma potencial de lidiar con la disrupción de la industria del periodismo por parte de las grandes tecnológicas. La California News Publishers Association, de la que es miembro Los Angeles Times, está patrocinando un proyecto de ley estatal conocido como California Journalism Preservation Act, que obligaría a los gigantes de la publicidad digital a pagar a los medios de comunicación por acceder a sus artículos, ya sea mediante una tarifa predeterminada o mediante una cantidad fijada por arbitraje. La mayoría de los editores tendrían que gastar el 70% de los fondos recibidos en salarios de periodistas. Otro proyecto de ley que los legisladores están considerando gravaría a las grandes plataformas tecnológicas por los datos que recopilan de los usuarios e inyectaría el dinero en las organizaciones de noticias dándoles un crédito fiscal por emplear a periodistas a tiempo completo. «La salida a esto es algún tipo de regulación», dijo Kahn de la USC. «El Congreso no puede hacer nada, así que básicamente les da a estas plataformas rienda suelta para hacer lo que quieran con muy pocas consecuencias». El director de la biblioteca editorial del Times, Cary Schneider, contribuyó a este informe.

El nuevo video musical de Washed Out fue creado con la tecnología Sora de OpenAI

El nuevo video musical de Washed Out fue creado con la tecnología Sora de OpenAI

“The Hardest Part”, una nueva canción del artista pop independiente Washed Out, trata sobre el amor perdido, uno de los temas más humanos. Pero irónicamente, para ilustrar la sensación de añoranza de la melodía, el músico recurrió a algo mucho menos de carne y hueso: la inteligencia artificial. Con el lanzamiento el jueves de “The Hardest Part”, Washed Out, con sede en Macon, Georgia, cuyo nombre real es Ernest Greene, tiene la primera colaboración entre un gran artista musical y un cineasta en un video musical utilizando la tecnología de texto a video Sora de OpenAI, según el sello discográfico del cantautor, Sub Pop. El video de aproximadamente cuatro minutos, dirigido por Paul Trillo, lleva rápidamente al espectador a través de elementos clave de la vida de una pareja. El público ve a los personajes, una mujer pelirroja y un hombre de cabello oscuro, pasar de besarse y fumar en una escuela secundaria de los años 80 a casarse y tener un hijo. “No llores, todo está bien ahora”, canta Greene. “Lo más difícil es que no se puede volver atrás”. La pareja no está interpretada por actores reales, sino que se crea de forma totalmente digital a través de la IA de Sora. El vídeo podría marcar el comienzo de una tendencia potencialmente innovadora de uso de la IA en la producción de vídeos. “Creo que donde estamos ahora, eso está a punto de explotar, así que espero poder incorporar algo de esta nueva tecnología y ver cómo eso informa lo que puedo crear”, dijo Greene en una entrevista. “Así que, si eso es pionero, me encantaría ser parte de eso”. “The Hardest Part”, el sencillo principal del nuevo álbum autoproducido de Greene, “Notes From a Quiet Life”, que se lanzará el 28 de junio, es el vídeo musical más largo realizado con la tecnología de Sora hasta el momento. El programa crea clips cortos basados ​​en indicaciones de texto escritas. Esto le permitió a Trillo construir escenas de una manera que hubiera sido mucho más costosa con actores, decorados y ubicaciones reales. “Al no tener las limitaciones de presupuesto y tener que viajar a diferentes lugares, pude explorar todos estos resultados diferentes y alternativos de la vida de esta pareja”, dijo Trillo. Trillo es uno de los creativos que tiene acceso anticipado a Sora, que aún no está disponible públicamente. OpenAI presentó Sora en febrero y ha estado probando el sistema con directores y reuniéndose con ejecutivos y productores de Hollywood. Está resolviendo problemas y tratando de abordar las preocupaciones sobre propiedad intelectual. Las innovaciones en IA han sido enormemente controvertidas en muchos ámbitos, incluida la industria de la música, que se ha visto plagada por el uso de «deepfakes», o videos y audios que usan falsamente la imagen o la voz de un artista. Los músicos y otros han presionado para que se apruebe una legislación para combatir estas creaciones engañosas, y las agencias de talentos están trabajando con nuevas empresas tecnológicas para acabar con la imitación digital no autorizada. La introducción de Sora, que proviene de la misma empresa que creó el modelo de IA basado en texto ChatGPT, generó inquietudes dentro de Hollywood y en otros lugares sobre su impacto potencialmente devastador en los empleos y la producción. Aun así, generó entusiasmo entre algunos creativos por las formas en que podría ayudarlos a lograr su visión en la pantalla sin verse limitados por los presupuestos de efectos especiales y limitaciones de viaje. Tanto Greene como Trillo dijeron que pudieron hacer más con Sora de lo que hubieran podido con sets de la vida real con su presupuesto. Sub Pop no reveló los costos del video. El artista musical no le pagó a OpenAI para usar la tecnología para el video musical. Los dos hombres habían explorado otras ideas, incluida la contratación de bailarines y filmar en una ubicación que se asemejara a las colinas verdes del arte del nuevo álbum de Greene, pero eso resultó difícil debido a las limitaciones de tiempo y financieras. Entonces Trillo sugirió experimentar con Sora. Greene, cuya música los espectadores de televisión pueden reconocer de la canción principal del programa de comedia satírica «Portlandia», dudó al principio. “Siento que con mi música y la mayoría de los videos que he hecho a lo largo de los años, siempre comienza desde un lugar realmente emocional y sincero”, dijo Greene, señalando que muchos de los ejemplos de videos de IA que había visto existían en el temido “valle inquietante”, parecido a los humanos pero inquietantemente artificiales. No obstante, Greene estaba dispuesto a experimentar. Entonces Trillo probó diferentes conceptos para ver qué funcionaría en el video. Usando la tecnología, pudo explorar todos los diversos resultados de la vida de la pareja en múltiples ubicaciones creando elaboradas indicaciones basadas en texto. Completó el video en aproximadamente seis semanas, editando alrededor de 55 clips en el video de los aproximadamente 700 que generó usando Sora. “Con esto, no tuve que editar yo mismo”, dijo Trillo. “Realmente pude probar cosas y eso crea orgánicamente un tipo de historia diferente debido a eso, poder arrojar tanto a la pared y ver qué se pega”. Para generar clips utilizables, Greene necesitaba escribir indicaciones con suficientes detalles específicos no solo sobre la imagen en sí, sino también sobre los ángulos de toma y los movimientos de los personajes. “Pasamos a toda velocidad por la burbuja que explota y pasamos a toda velocidad por el chicle y entramos en un campo de fútbol abierto”, escribió Trillo como parte de su indicación para un breve fragmento de video. “La escena se mueve rápidamente, mostrando una perspectiva frontal, mostrando a los estudiantes haciéndose más grandes y más rápidos”. El video musical final de “The Hardest Part” muestra varias ubicaciones, incluida una escuela secundaria, una tienda de comestibles, colinas ondulantes, un pasillo con sábanas blancas ondulantes y fuego que arde a través de las paredes. Ernest Greene, conocido como el artista musical “Washed Out”, lanzará un nuevo álbum el 28 de junio. (Ernest Greene) Hubo algunas limitaciones. A veces Trillo tenía una idea y Sora la clavaba. Otras veces, creaba algo caótico e inutilizable. Los videos salían con inconsistencias, que Trillo a veces optaba por pasar por alto. Los personajes se ven un poco diferentes de un clip a otro, al igual que el hijo de la pareja. Parte del encanto artístico del video es su estado onírico: recuerdos de la vida de una pareja que ilustran la oscuridad de la memoria humana. «Tienes que saber dónde elegir tus batallas con él», dijo Trillo sobre Sora. «Tienes que renunciar a un poco de tu libre albedrío al trabajar con esta cosa y tienes que aceptar la naturaleza de lo caótica que es». «Ciertamente me sorprendió lo lejos que podía llegar para armar una historia», dijo Greene. Tanto Greene como Trillo dijeron que ven la IA como una forma potencial de abrir más oportunidades para que la gente impulse la forma de arte del video musical. Los videos musicales son un medio lógico en el que jugar con la IA, porque generalmente son cortos y cuestan mucho menos que las películas y los episodios de televisión. Sin embargo, dijo Trillo, es importante para él que esto no se use como un nuevo método principal para la creación, sino más bien como una herramienta más en el cinturón de herramientas. “Muchos videos musicales no cuentan con el presupuesto suficiente para soñar en grande”, dijo Trillo. “Creo que la IA puede ayudar a la industria musical a crear cosas con las que incluso Ernest podría soñar y que tal vez antes no se hubiera atrevido a soñar”.

Página 1 de 5

Funciona con WordPress & Tema de Anders Norén