Todo lo que necesitas saber sobre tecnología

Etiqueta: Abierto AI Página 1 de 2

Ilya Sutskever dejó OpenAI para trabajar en un proyecto misterioso

Ilya Sutskever, cofundador y científico jefe de OpenAI, lanzó una bomba masiva el martes por la noche, anunciando su salida de la compañía que lanzó ChatGPT al mundo, iniciando esta revolución masiva de la IA. Sutskever se burló de que pasará a un proyecto emocionante pero misterioso después de ayudar a crear los productos genAI que convirtieron a OpenAI en una de las empresas de tecnología más grandes aparentemente de la noche a la mañana. La partida de Sutskever no es sorprendente considerando los eventos en la compañía el otoño pasado. En noviembre, Sutskever fue visto como el cerebro detrás del golpe que provocó el despido de Sam Altman. Pero luego su papel en el derrocamiento quedó en duda cuando Altman fue recontratado bajo la presión de los empleados de OpenAI, incluido Sutskever. Si bien el científico jefe apoyó el regreso de Altman, no se le ha visto exactamente desde entonces. Lo sorprendente es el momento del anuncio. El lunes, OpenAI presentó GPT-4o, posiblemente una de las actualizaciones de ChatGPT más importantes hasta el momento. El GPT-4o cayó justo antes del gran evento I/O 2024 de Google, cuyo único enfoque era la IA. Algunos de los anuncios de Google coincidieron con los desarrollos de OpenAI, lo que muestra cuán reñida está a punto de llegar la carrera de IA entre las dos compañías. Tecnología. Entretenimiento. Ciencia. Tu bandeja de entrada. Suscríbete para recibir las noticias de tecnología y entretenimiento más interesantes que existen. Al registrarme, acepto los Términos de uso y he revisado el Aviso de privacidad. Sutskever recurrió a X para anunciar su salida de OpenAI. Ahí es donde mostró su entusiasmo por lo que viene después: Después de casi una década, tomé la decisión de dejar OpenAI. La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará AGI que sea segura y beneficiosa bajo el liderazgo de @sama, @gdb, @miramurati y ahora, bajo el excelente liderazgo de investigación de @merettm. Fue un honor y un privilegio haber trabajado juntos y los extrañaré muchísimo a todos. Hasta luego y gracias por todo. Estoy emocionado por lo que viene a continuación: un proyecto que es muy significativo para mí personalmente y del que compartiré detalles a su debido tiempo. AGI significa inteligencia artificial general, o una IA que puede abordar cualquier problema como un humano. Cuando Sutskever y la junta despidieron a Altman, existía la preocupación de que OpenAI pudiera haber llegado a AGI y que el desarrollo de ChatGPT estuviera avanzando demasiado rápido bajo Altman. Si bien Sutskever apoyó el regreso de Altman, no se puede negar que el primero perdió visibilidad pública. VentureBeat señala que Sutskever no ha sido visto en eventos de OpenAI, lo que inspiró un meme en X, «¿Dónde está Ilya?» Sutskever también le dijo a The New York Times que iba a trabajar en un nuevo proyecto después de dejar la empresa. OpenAI confirmó en una publicación de blog que Sutskever dejará la empresa. Jakub Pachocki lo reemplaza como científico jefe de OpenAI. Aquí está la cita de Sam Altman del blog: Ilya y OpenAI se separarán. Esto es muy triste para mí; Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía en nuestro campo y un querido amigo. Su brillantez y visión son bien conocidas; su calidez y compasión son menos conocidas pero no menos importantes. OpenAI no sería lo que es sin él. Aunque tiene algo personalmente significativo en lo que va a trabajar, siempre estaré agradecido por lo que hizo aquí y comprometido a terminar la misión que comenzamos juntos. Estoy feliz de haber podido estar cerca durante tanto tiempo de un genio tan genuinamente notable y de alguien tan concentrado en lograr el mejor futuro para la humanidad. Jakub será nuestro nuevo científico jefe. Jakub también es fácilmente una de las mentes más brillantes de nuestra generación; Estoy encantado de que esté tomando el relevo aquí. Ha dirigido muchos de nuestros proyectos más importantes y tengo mucha confianza en que nos guiará para lograr un progreso rápido y seguro hacia nuestra misión de garantizar que AGI beneficie a todos. Altman también mencionó que Sutskever trabajará en “algo con significado personal”, sin revelar de qué se trata. No le corresponde a Altman decirlo, por supuesto, pero no puedo dejar de preguntarme si OpenAI sabe lo que es. Además, esperaría que el misterioso proyecto esté relacionado con la inteligencia artificial. En eso ha estado trabajando Sutskever toda su vida.

Por qué el anuncio ‘Crush’ de Apple es tan equivocado

Bienvenido a Week in Review: el boletín de TechCrunch que resume las noticias más importantes de la semana. Esta semana, Apple presentó nuevos modelos de iPad en su evento Let Loose, incluida una nueva pantalla de 13 pulgadas para el iPad Air, así como Tandem OLED y un nuevo chip M4 para el iPad Pro. Pero su anuncio para el nuevo iPad Pro causó mayor revuelo en el evento, por todas las razones equivocadas. Para los finalistas de Apple, recopilamos todos los nuevos anuncios en caso de que se los haya perdido. En el mundo de los vehículos eléctricos, el asediado Fisker Ocean se enfrenta a otra investigación federal de seguridad. La Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) ha abierto una cuarta investigación sobre el SUV en torno a acusaciones de «frenado automático de emergencia inadvertido». Los deepfakes de IA ocuparon un lugar central en la Met Gala de este año. Las imágenes generadas por IA de Katy Perry y Rihanna, ninguna de las cuales asistió al evento, se volvieron virales en X. Un buen recordatorio de que no podemos creer todo lo que vemos en línea. Ha sido una gran semana. Entremos en ello. Noticias Nuevas actualizaciones de OpenAI: el lunes a las 10 a.m. PT, OpenAI hará una demostración de nuevas funciones tanto para ChatGPT como para GPT-4. El director ejecutivo Sam Altman negó los informes de que la compañía se estuviera preparando para anunciar un producto de motor de búsqueda rival antes de la conferencia I/O de Google. Leer más Saluda al portal: un nuevo portal de vídeo siempre activo permite a las personas de la ciudad de Nueva York y Dublín interactuar en tiempo real. Portals.org, la organización detrás del proyecto, quiere alentar a las personas a interactuar entre sí “por encima de fronteras y prejuicios”. Leer más OpenAI explora permitir la pornografía con IA: la compañía lanzó una nueva política NSFW destinada a iniciar una conversación sobre cómo podría permitir imágenes y texto explícitos en sus productos de IA. Pero, ¿podemos confiar en que OpenAI (o cualquier proveedor de IA generativa) lo hará bien? Leer más Los policías no pueden usar la herramienta de inteligencia artificial de Microsoft: Microsoft ha reafirmado su prohibición a los departamentos de policía de EE. UU. de usar inteligencia artificial generativa para el reconocimiento facial a través de su herramienta centrada en la empresa: Azure OpenAI Service. Leer más Dorsey se despide de Bluesky: el ex director ejecutivo de Twitter, Jack Dorsey, reveló en X que ya no forma parte de la junta directiva de Bluesky. En un comunicado, la compañía agradeció a Dorsey por su ayuda para financiar Bluesky y dijo que están buscando activamente reemplazar su asiento. Leer más ¿La Generación Z está abandonando Tinder por Hinge?: Match Group publicó su informe de ganancias del primer trimestre, que muestra una disminución constante de la base de usuarios de pago de Tinder. Pero Hinge está en camino de convertirse en un “negocio con ingresos de mil millones de dólares”, en parte debido a sus ofertas a la carta para la Generación Z, preocupada por los precios. Leer más Letras de muros de pago de Spotify: El transmisor de música confirmó silenciosamente que ha comenzado a mover su función de letras detrás de un muro de pago en un intento de atraer a más usuarios a migrar a su servicio de suscripción Premium, provocando la ira de los usuarios. Leer más Análisis El anuncio «Crush» de Apple es repugnante: Devin Coldewey dice que el último anuncio de Apple que aplasta herramientas creativas analógicas en un iPad Pro no dio en el blanco. Desde entonces, Apple se disculpó y canceló sus planes de televisarlo. Leer más Cómo la quiebra de Newchip amenazó a miles de nuevas empresas: Mary Ann Azevedo y Christine Hall informan sobre la caída en desgracia de la aceleradora de nuevas empresas Newchip y los efectos en cadena sobre sus fundadores, incluidos aquellos que perdieron sus empresas como consecuencia de la quiebra. Leer más ¿Es realmente tan malo el R1 de Rabbit?: Mucho se ha dicho sobre el ambicioso asistente de IA R1 de Rabbit y que no está a la altura de sus promesas. Devin sostiene que, aunque probablemente se lanzó demasiado pronto, un dispositivo experimental como este es una mirada divertida a un posible futuro. Leer más

Acuerdo supuestamente cerrado para que Apple lleve las funciones ChatGPT a iOS

Robert Triggs / Android AuthorityTL;DR Según un analista confiable de la industria, Apple y OpenAI podrían estar finalizando un acuerdo para llevar las funciones ChatGPT a iOS. No está claro si las funciones de inteligencia artificial de Apple basadas en su propio LLM debutarían en iOS junto con las funciones de OpenAI. Mientras tanto, aún está en curso una negociación separada con Google para llevar las funciones de Gemini a iOS. Durante los últimos seis meses, Google ha estado golpeando duramente a Gemini. Parece que Gemini ahora está en todo lo que hace Google, incluido el sistema operativo Android, el sistema operativo móvil más popular del mundo. Mientras tanto, Apple no ha hecho mucho con la IA generativa y los modelos de lenguaje grande (LLM). Todas las señales apuntan a que eso cambiará muy pronto, pero no a través de la propia Apple. En los últimos meses, hemos aprendido que Apple ha estado en conversaciones con Google y OpenAI (propietario de ChatGPT) sobre el uso de sus respectivos LLM para impulsar funciones futuras. llegando a iOS. Ahora, según el analista de la industria Mark Gurman, el acuerdo de Apple con OpenAI podría estar cerca de cerrarse. ÚLTIMA HORA: Apple está ultimando un acuerdo con OpenAI para impulsar algunas funciones de IA generativa, como un chatbot, para el nuevo iOS de este año. Las conversaciones con Google para integrar Gemini están en curso, pero no se ha llegado a ningún acuerdo. https://t.co/8CqoiLM2uO Es demasiado pronto para decirlo, pero parece muy probable que OpenAI pueda potenciar algunas funciones de iOS 18. Mientras tanto, continúan las negociaciones con Google. Por lo tanto, es posible que haya funciones de iOS impulsadas por ambas compañías, lo que sin duda sería interesante. En todo esto falta el propio LLM de Apple. Sabemos que Apple tiene algo en proceso en este ámbito, cuyo nombre en código interno es «Ajax». Sin embargo, es posible que la compañía esté retrasada en el desarrollo, al menos lo suficiente como para tener algo sustancial listo para iOS 18. Si ese es el caso, eso explicaría el cortejo de Apple tanto por OpenAI como por Google: no tiene nada de su propio, y no puede arriesgarse a esperar a que Ajax esté listo porque para entonces estará muy por detrás de la competencia. Apple anunciará oficialmente iOS 18 en su Conferencia Mundial de Desarrolladores (WWDC) en junio, así que lo sabremos entonces. con certeza cómo resultaron estos acuerdos. ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección. Te puede gustarComentarios

El asistente digital multimodal OpenAI podría lanzarse pronto

Edgar Cervantes / Android AuthorityTL;DR El lunes, OpenAI llevará a cabo un evento en el que podría verse un anuncio sobre un nuevo asistente digital multimodal. Ser multimodal permitiría al asistente utilizar imágenes para indicaciones, como identificar y traducir una señal en el mundo real. Esto sería una amenaza directa contra los asistentes digitales de Google, concretamente Google Assistant y el nuevo Gemini. En las últimas semanas, los rumores se han agitado, sugiriendo que OpenAI, la compañía responsable de ChatGPT, pronto podría lanzar un motor de búsqueda impulsado por inteligencia artificial, lo que sería una amenaza directa para el negocio principal de Google. Dado lo prominente que se ha vuelto ChatGPT en tan poco tiempo, esto representaría la primera amenaza real para la Búsqueda de Google en décadas. Sin embargo, parece menos probable que OpenAI tenga un motor de búsqueda en camino (a través de The Information). En cambio, nuevos rumores sugieren que en el evento programado de OpenAI para el lunes la compañía podría anunciar un asistente digital multimodal. Si bien no es un motor de búsqueda tradicional, aún permitiría a las personas buscar cosas utilizando el poder de la IA, por lo que seguiría siendo una amenaza significativa para Google. Multimodal significa que la IA puede manejar múltiples formas de entrada, no solo texto. En el caso de este rumoreado asistente digital, podría conectarse a una cámara, procesar información del mundo real y luego responderle con más información sobre lo que ve. Por ejemplo, podría apuntar una cámara a un letrero en un idioma diferente y pedirle a ChatGPT que identifique y traduzca el letrero por usted, y la IA le responderá. Si esto le suena familiar, es porque es algo de Google Lens. El Asistente de Google y, más recientemente, Google Gemini ya lo hacen. De hecho, ChatGPT también puede hacer esto, pero no a través de una sola interfaz. En otras palabras, el lanzamiento del lunes podría hacer que la compañía anuncie un modelo GPT actualizado que ofrece respuestas más rápidas y precisas con entrada de imágenes y respuestas audibles empaquetadas en una aplicación. En otras palabras, un competidor directo de Gemini (y, posteriormente, de Google Assistant y Siri de Apple). Para ser claros, es casi seguro que este no sería GPT-5, el tan esperado seguimiento de GPT-4 y GPT-4. Turbo. La compañía ha indicado que GPT-5 no asistirá a este evento. La información sugiere que aterrizará recién a finales de 2024. ¿Tienes algún consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección. Te puede gustarComentarios

Los creadores del corto impulsado por Sora explican las fortalezas y limitaciones del video generado por IA

La herramienta de generación de vídeo de OpenAI, Sora, tomó por sorpresa a la comunidad de IA en febrero con un vídeo fluido y realista que parece estar muy por delante de la competencia. Pero el debut cuidadosamente organizado omitió muchos detalles, detalles que fueron completados por un cineasta al que se le dio acceso temprano para crear un corto con Sora. Shy Kids es un equipo de producción digital con sede en Toronto que fue elegido por OpenAI como uno de los pocos para producir cortometrajes esencialmente con fines promocionales de OpenAI, aunque se les dio una considerable libertad creativa para crear «cabeza de aire». En una entrevista con el medio de noticias de efectos visuales fxguide, el artista de postproducción Patrick Cederberg describió “realmente usar a Sora” como parte de su trabajo. Quizás la conclusión más importante para la mayoría es simplemente esta: si bien la publicación de OpenAI que destaca los cortos permite al lector asumir que surgieron más o menos completamente formados de Sora, la realidad es que se trataba de producciones profesionales, completas con un guión gráfico sólido, edición, corrección de color, y trabajos posteriores como rotoscopia y VFX. Así como Apple dice «filmado con iPhone» pero no muestra la configuración del estudio, la iluminación profesional y el trabajo de color después del hecho, la publicación de Sora solo habla de lo que permite hacer a las personas, no de cómo lo hicieron realmente. La entrevista de Cederberg es interesante y nada técnica, así que si estás interesado en algo, dirígete a fxguide y léela. Pero aquí hay algunas cosas interesantes sobre el uso de Sora que nos dicen que, por muy impresionante que sea, el modelo quizás sea un paso de gigante menor de lo que pensábamos. El control sigue siendo lo más deseable y también lo más difícil de alcanzar en este momento. … Lo más cerca que pudimos llegar fue simplemente ser hiperdescriptivos en nuestras indicaciones. Explicar el vestuario de los personajes, así como el tipo de globo, fue nuestra forma de lograr la coherencia porque, plano a plano/generación en generación, todavía no existe la característica establecida para un control total sobre la coherencia. En otras palabras, cuestiones que son simples en el cine tradicional, como elegir el color de la ropa de un personaje, requieren soluciones y controles elaborados en un sistema generativo, porque cada plano se crea independientemente de los demás. Obviamente, eso podría cambiar, pero ciertamente es mucho más laborioso en este momento. También había que vigilar las salidas de Sora para detectar elementos no deseados: Cederberg describió cómo el modelo generaba rutinariamente una cara en el globo que el personaje principal tiene como cabeza, o una cuerda colgando del frente. Estos debían eliminarse en la publicación, otro proceso que requería mucho tiempo, si no recibían el mensaje para excluirlos. La sincronización y los movimientos precisos de los personajes o de la cámara no son realmente posibles: «Hay un poco de control temporal sobre dónde ocurren estas diferentes acciones en la generación real, pero no es preciso… es una especie de toma en la oscuridad», dijo Cederberg. Por ejemplo, cronometrar un gesto como un saludo es un proceso muy aproximado basado en sugerencias, a diferencia de las animaciones manuales. Y una toma como una panorámica hacia arriba en el cuerpo del personaje puede reflejar o no lo que quiere el cineasta, por lo que en este caso el equipo renderizó una toma compuesta en orientación vertical y recortó una panorámica en la posproducción. Los clips generados también a menudo estaban en cámara lenta sin ningún motivo en particular. Ejemplo de un disparo como salió de Sora y cómo acabó en el corto. Créditos de imagen: Shy Kids De hecho, el uso del lenguaje cotidiano del cine, como “panorámica hacia la derecha” o “plano de seguimiento”, era inconsistente en general, dijo Cederberg, lo que el equipo encontró bastante sorprendente. «Los investigadores, antes de acercarse a los artistas para que jugaran con la herramienta, en realidad no habían pensado como cineastas», dijo. Como resultado, el equipo hizo cientos de generaciones, cada una de 10 a 20 segundos, y terminó usando solo unas pocas. Cederberg estimó la proporción en 300:1, pero, por supuesto, probablemente a todos nos sorprendería la proporción en una sesión normal. De hecho, el equipo hizo un pequeño video detrás de escena explicando algunos de los problemas que encontraron, si tiene curiosidad. Como gran parte del contenido adyacente a la IA, los comentarios son bastante críticos con todo el esfuerzo, aunque no tan vituperantes como el anuncio asistido por IA que vimos ridiculizado recientemente. El último aspecto interesante tiene que ver con los derechos de autor: si le pides a Sora que te dé un clip de “Star Wars”, se negará. Y si intentas eludirlo con “un hombre vestido con una espada láser en una nave espacial retrofuturista”, también se negará, ya que mediante algún mecanismo reconoce lo que estás tratando de hacer. También se negó a hacer un “plano tipo Aronofsky” o un “zoom de Hitchcock”. Por un lado, tiene mucho sentido. Pero sí plantea la pregunta: si Sora sabe cuáles son, ¿eso significa que el modelo fue entrenado en ese contenido para reconocer mejor que está infringiendo? OpenAI, que mantiene sus tarjetas de datos de entrenamiento en secreto (hasta el punto de lo absurdo, como en la entrevista de la CTO Mira Murati con Joanna Stern), es casi seguro que nunca nos lo dirá. En cuanto a Sora y su uso en la realización cinematográfica, es claramente una herramienta poderosa y útil en su lugar, pero su lugar no es «crear películas de la nada». Todavía. Como dijo una vez otro villano, «eso viene después».

El ex animador de Pixar da una gran razón por la que los videos con IA no funcionarán en Hollywood

El vídeo generado por IA ha recibido mucha publicidad últimamente como una herramienta que supuestamente revolucionará Hollywood. Pero Craig Good, ex animador de Pixar que trabajó en clásicos como Toy Story y Buscando a Nemo, no está convencido. Good cree que hay un gran problema con el software de vídeo con IA que frustrará inmediatamente a cualquiera que trabaje en una película: es imposible, en este punto, hacer pequeños cambios usando únicamente IA. Nos guste o no, su médico usará IA | AI desbloqueado Las herramientas de inteligencia artificial permiten a los usuarios crear imágenes y videos con nada más que algunas indicaciones de texto. Y eso es muy impresionante cuando quieres crear algo de “nada”, por así decirlo. Pero ninguna de estas herramientas permite realizar el tipo de cambios iterativos que son necesarios al hacer una película. Good lo señaló en un vídeo grabado por uno de sus estudiantes en la Facultad de Artes de California, donde actualmente es profesor asistente, como Los dos discutieron videos que se han publicado públicamente de Sora de OpenAI. “Si intento utilizar esto en un contexto de producción, mi primera pregunta será: ¿cómo reviso esto? Por ejemplo, si digo que odio lo que esté pasando en el fondo, ¿podemos hacer exactamente esto otra vez, pero con un fondo bloqueado o uno diferente? Good dice en el video.Open AI Sora真的能拍电影吗(第一集)¿Puede Sora de Open AI realmente hacer películas?Sora aún no se ha lanzado públicamente, lo que significa que solo hemos visto ejemplos de artistas que han ganado temprano acceso a la herramienta. Y, francamente, no sabemos mucho en este momento sobre las opciones que Sora puede ofrecer a los artistas. Pero no hay indicios en este momento de que sean posibles cambios más pequeños y Good parece tener un punto muy válido. Uno de los videos de Sora que Good y su alumno vieron es una animación de un lindo monstruo peludo que parece estar enamorado de una vela. Good elogió el video, pero señaló que el encuadre era un poco ajustado y que “la llama realmente no hace nada allí”. ¿Qué se necesitaría para obtener exactamente la misma escena pero con la cámara retirada y más parpadeo de la vela? Ese parece ser el mayor obstáculo en este momento. “Hacer una película se trata de iterar. Es una iteración. Y si no puedes iterar sobre uno de estos, no sé cómo podrías usarlo en producción”, dice Good. “Quiero decir, pasé décadas en Pixar haciendo pequeños ajustes en las tomas. El director dará algunas notas bastante específicas que el animador, el artista, tendrá que interpretar y luego mostrar ese trabajo revisado al día siguiente y luego obtener más notas al respecto. No sé cómo lo usarías en producción si no puedes iterar de forma controlada”, continuó. Good no es el único que piensa así. Un tweet se volvió viral la semana pasada que pretende resaltar exactamente el mismo problema. Y aunque no podemos confirmar la veracidad de la historia, todo parece muy plausible. Básicamente, la publicación dice ser de un director de arte de un estudio importante. Dicen que los jefes de estudio contrataron a chicos de IA para trabajar en una película, y no funcionó. El director dice que los vídeos de IA que se produjeron no eran realmente malos, pero cada vez que pedían cambios, como una nueva perspectiva de la cámara o un color diferente en algún lugar de la escena, no podían hacerlo. De hecho, se enojan cuando les piden que cambien cosas porque no es así como funciona. “El que realmente sabe usar Photoshop no ha desarrollado el ojo para ver sus errores, termina enojándose conmigo por no entender que puede hacerlo”. No hacemos cambios específicos”, se lee en la publicación viral. “La chica cuyo fondo era un poco de fotografía me ha dado 40 imágenes cada vez peores, con errores cada vez más salvajes. Han pasado 4 días desde que comenzó el proyecto”. Nuevamente, es imposible verificar las afirmaciones hechas en esta publicación anónima. Pero son completamente consistentes con lo que sabemos sobre estas herramientas de IA. Y aunque Good parece pensar que este tipo de herramienta sería excelente para los videos de TikTok generados por los usuarios, no está lista para una producción cinematográfica seria. Sin embargo, Good se apresura a señalar en el video que las cosas podrían cambiar. Estas herramientas podrían mejorar mucho en el futuro, e incluso comparó las herramientas de IA generativa como Sora con las primeras demostraciones de animación por computadora de principios de la década de 1980 en SIGGRAPH, la conferencia de gráficos por computadora. “Esto me recuerda los primeros días en SIGGRAPH donde Mira, ya sabes, una película con, ya sabes, una hormiga mecánica andante”, dijo Good. “Y todos nos volvimos locos por eso. Porque, vaya, estamos viendo una hormiga mecánica andante, ¿verdad? Una gran hormiga robot, ya sabes, en 1984”. Siggraph 1984 – The Mechanical Universe Demo. Y Good tiene razón. Nadie sabe lo que depara el futuro. Pero estas herramientas no serán realmente útiles hasta que los directores puedan hacer los pequeños ajustes que realmente dan vida a sus historias.

El chatbot ChatGPT AI ya no requiere una cuenta para su uso

ChatGPT, el chatbot impulsado por IA que se volvió viral a principios del año pasado y desató una ola de interés en las herramientas de IA generativa, ya no necesita una cuenta para usarlo. Su creador, OpenAI, lanzó el lunes una página web que permite iniciar una conversación con el chatbot sin tener que registrarse o iniciar sesión primero. Significa que si aún no has interactuado con un chatbot impulsado por IA a pesar de haber escuchado muchas noticias sobre la tecnología durante el último año, realmente no hay excusa para esperar más. «Es fundamental para nuestra misión hacer que herramientas como ChatGPT estén ampliamente disponibles para que las personas puedan experimentar los beneficios de la IA», dijo OpenAI, respaldado por Microsoft, en una publicación de blog el lunes. “Más de 100 millones de personas en 185 países utilizan ChatGPT semanalmente para aprender algo nuevo, encontrar inspiración creativa y obtener respuestas a sus preguntas. A partir de hoy, puedes usar ChatGPT al instante, sin necesidad de registrarte”. La compañía está implementando la función de fácil acceso «gradualmente», así que haga clic en este enlace ahora para ver si funciona donde se encuentra. Pero tenga en cuenta: OpenAI puede utilizar cualquier cosa que ingrese durante sus conversaciones de texto para mejorar su tecnología de inteligencia artificial, aunque esto se puede desactivar a través de Configuración, ya sea que cree o no una cuenta. OpenAI señala que en realidad existen una serie de beneficios al crear una cuenta, como la capacidad de guardar y revisar su historial de chat, compartir chats y desbloquear funciones adicionales como conversaciones de voz e instrucciones personalizadas, así que si disfruta de su experiencia con ChatGPT y crees que quizás quieras usarlo nuevamente, vale la pena considerar configurar uno. Si vienes a ChatGPT por primera vez, Digital Trends ofrece algunos consejos sobre cómo aprovecharlo al máximo. OpenAI también ofrece algunas ideas sobre lo que quizás quieras preguntarle a ChatGPT, como 10 sugerencias de regalos para el cumpleaños de tu gato, cómo explicarle a un niño qué es una red neuronal e ideas divertidas para una fiesta en el patio trasero. Recomendaciones de los editores

Source link

IA en el iPhone: el movimiento revolucionario de Apple que revolucionará la industria mundial de los teléfonos inteligentes

En una medida que podría redefinir la industria de los teléfonos inteligentes, Apple ha insinuado un cambio significativo en su enfoque hacia la inteligencia artificial (IA). Según se informa, el gigante tecnológico está en conversaciones con Google para una colaboración innovadora que involucra a Gemini, la poderosa tecnología de inteligencia artificial de Google. Si este acuerdo Apple-Google se materializa, podría significar la integración del motor de inteligencia artificial de Gemini en el iPhone, marcando un momento crucial en la innovación de los teléfonos inteligentes. Apple ya ha adelantado que su próximo iOS 18 será la actualización “más grande” hasta la fecha, con un fuerte enfoque en las capacidades de inteligencia artificial del dispositivo. La compañía ha estado realizando pruebas rigurosas de sus propios modelos de lenguajes grandes en dispositivos comparándolos con puntos de referencia de la industria como OpenAI, lo que indica su compromiso de mantener una ventaja competitiva y al mismo tiempo priorizar la privacidad del usuario. Cabe destacar que Apple también ha explorado asociaciones con OpenAI para integrar chatbots de IA en iPhone y otros dispositivos iOS. IA en el iPhone: la estrategia híbrida de Apple Sin embargo, la decisión de Apple de colaborar con Google u OpenAI para funciones específicas de IA sugiere un cambio potencial hacia una estrategia de IA híbrida. Este enfoque reconoce las limitaciones inherentes de depender únicamente de las capacidades de IA del dispositivo. Al dividir sus ofertas de IA, Apple podría lograr un equilibrio entre rendimiento y privacidad. Las funciones centradas en la privacidad podrían manejarse en el dispositivo, posiblemente utilizando Gemini Nano. Mientras tanto, las tareas que requieren más recursos, como la redacción, el análisis de documentos extensos o la investigación en profundidad, podrían descargarse a la nube. Samsung, el mayor competidor de Apple, reveló recientemente planes para llevar la función Galaxy AI impulsada por Google Gemini a 100 millones de dispositivos Galaxy. Esta iniciativa abarca tanto la línea de productos de Samsung como otros dispositivos dentro del ecosistema Android de Google. Según el líder de MX de Samsung, la integración de la IA en los teléfonos significa una revolución significativa. Samsung reconoce la importancia de mejorar los estándares de seguridad y privacidad en la era actual de experiencias móviles con uso intensivo de datos. Por lo tanto, el gigante coreano ha adoptado un enfoque híbrido que combina funcionalidades de IA en el dispositivo y basadas en la nube. Esta estrategia garantiza una usabilidad perfecta al tiempo que permite a los usuarios restringir ciertas funciones para que funcionen exclusivamente en sus dispositivos, brindándoles un mayor control sobre su uso de datos. Apple, Samsung y otros fabricantes de equipos originales de Android han introducido constantemente en sus teléfonos inteligentes funciones innovadoras y especificaciones de vanguardia, como diseños plegables y compatibilidad con 5G. Apple y Samsung, en particular, se han convertido en líderes y en conjunto poseen casi el 90% del mercado de teléfonos inteligentes premium en todo el mundo. Con diferencias mínimas de rendimiento entre sus buques insignia de gama alta, la batalla por la atención del consumidor se ha intensificado. Ahora, con la integración de la IA en los dispositivos iPhone y Samsung Galaxy, sus dispositivos se volverán más atractivos, lo que generará una mayor competencia entre los dos gigantes tecnológicos. El debate entre la IA en la nube y en el dispositivo La IA se está convirtiendo en el próximo campo de batalla por la privacidad. Ya están apareciendo informes que indican que las indicaciones generativas de IA son susceptibles de piratería, y que las infracciones importantes se consideran inevitables. Apple destacó esta preocupación el mes pasado, enfatizando su postura sobre la privacidad. La empresa afirmó que algunas empresas escanean habitualmente datos personales en la nube para monetizar la información del usuario. Sin embargo, Apple no participa en tales prácticas. En cambio, Apple prioriza la seguridad y privacidad de sus usuarios, contrastando su enfoque con el de Google y sus ofertas en la nube. El debate sobre si los procesos de IA deberían ocurrir en la nube o en el dispositivo tiene importantes implicaciones para la privacidad. Los datos enviados a sistemas de inteligencia artificial en la nube carecen de cifrado de extremo a extremo, lo que los hace vulnerables al almacenamiento, la recuperación y una posible intervención gubernamental. Esta distinción tiene implicaciones sobre cómo las empresas manejan los datos y la privacidad de los usuarios. A medida que Apple, Samsung y otros competidores naveguen por la dinámica cambiante de la inteligencia artificial y la privacidad, sus enfoques serán cada vez más críticos. El equilibrio entre los procesos de IA en el dispositivo y basados ​​en la nube dará forma a las experiencias de los usuarios y a las percepciones de privacidad. Si se materializa una asociación entre Apple y Google, tiene el potencial de remodelar la experiencia del usuario al incorporar capacidades avanzadas de inteligencia artificial directamente a los dispositivos iOS.

Source link

Observe al robot humanoide participar en conversaciones similares a las humanas

Una demostración reciente realizada por la startup de robótica Figure muestra el potencial de la tecnología ChatGPT de OpenAI para impulsar conversaciones similares a las humanas para robots humanoides. Este desarrollo nos acerca a un futuro en el que los robots puedan integrarse perfectamente en nuestras vidas a través de la interacción del lenguaje natural. Los robots humanoides se acercan un paso más a la interacción natural con el procesamiento del lenguaje de OpenAI. Figure está construyendo un robot de propósito general, Figura 01, diseñado para automatizar tareas que actualmente se consideran indeseables o inseguras para los humanos. Al asociarse con OpenAI en enero de 2024, su objetivo era mejorar las capacidades del robot en percepción, razonamiento e interacción. El vídeo recién publicado ofrece un vistazo a estos avances. A través de los modelos de lenguaje de OpenAI, la Figura 01 ahora puede interpretar su entorno y entablar una conversación. El vídeo demuestra la capacidad del robot para identificar objetos, comprender comandos generales y responder en consecuencia. Cuando se le presenta una manzana y se le pide comida, la Figura 01 reconoce la manzana como comestible y cumple la solicitud. En particular, el robot explica su razonamiento, destacando su capacidad no sólo de reaccionar sino también de contextualizar sus acciones. La Figura 01 demuestra aún más su comprensión de situaciones más amplias. Recoge la basura cercana con una simple orden e incluso reconoce la necesidad de mover los platos vacíos a una rejilla para secar. Si bien el robot se toma un momento para procesar cada instrucción, su capacidad para captar la intención detrás de los comandos generales significa un paso significativo hacia la interacción intuitiva entre humanos y robots. La fecha oficial de lanzamiento de la Figura 01 sigue sin revelarse. Sin embargo, la colaboración con OpenAI subraya su compromiso de acelerar el despliegue comercial de estos robots. Este desarrollo tiene el potencial de revolucionar varias industrias mediante la introducción de robots que no sólo pueden realizar tareas sino también colaborar eficazmente con trabajadores humanos a través del lenguaje natural. El futuro de los robots humanoides con procesamiento del lenguaje natural El futuro de los robots humanoides con procesamiento del lenguaje natural (PLN) encierra una inmensa promesa para revolucionar la interacción entre humanos y robots. Estas son algunas áreas potenciales de crecimiento: Colaboración mejorada: imagine robots integrándose perfectamente en los lugares de trabajo, comprendiendo instrucciones habladas e incluso ofreciendo sugerencias para mejorar los flujos de trabajo. La PNL puede capacitar a los robots para que se conviertan en socios colaborativos, no sólo en reemplazos, de los trabajadores humanos. Cuidado mejorado: los robots humanoides equipados con PNL podrían brindar compañía y asistencia a personas mayores o con limitaciones físicas. Podrían comprender y responder solicitudes, ofrecer recordatorios e incluso entablar conversaciones para combatir la soledad. Educación y formación avanzadas: los robots impulsados ​​por PNL podrían personalizar las experiencias de aprendizaje adaptando su estilo de comunicación a cada estudiante. Podrían responder preguntas, brindar comentarios y actuar como tutores incansables, haciendo que la educación sea más accesible y atractiva. Servicio al cliente de siguiente nivel: las interacciones del servicio al cliente podrían transformarse mediante robots que puedan comprender el lenguaje natural, responder preguntas complejas e incluso navegar por los matices emocionales. Esto agilizaría los procesos, mejoraría la satisfacción del cliente y liberaría a los agentes humanos para tareas más complejas. Accesibilidad universal: la PNL puede cerrar la brecha de comunicación para las personas con discapacidad. Los robots podrían traducir el lenguaje de señas, convertir voz en texto y viceversa, fomentando una mayor inclusión social. Desafíos a abordar: Si bien el futuro es brillante, hay desafíos a considerar: Preocupaciones éticas: a medida que los robots se vuelven más sofisticados, será necesario abordar cuestiones relacionadas con el tratamiento ético y el posible desplazamiento laboral. Noticias de la semana de Gizchina Seguridad y protección: Se deben implementar salvaguardias sólidas para garantizar que los robots funcionen de manera segura, mitigando los riesgos potenciales asociados con la IA avanzada. Sesgo y equidad: los algoritmos de PNL pueden heredar sesgos sociales. Abordar estos sesgos es crucial para garantizar que los robots interactúen con todos de manera justa y sin prejuicios. Revolucionando los lugares de trabajo: la PNL puede marcar el comienzo de una nueva era de colaboración entre humanos y robots. Los robots no se limitarán a realizar tareas; entenderán instrucciones habladas, se adaptarán a situaciones cambiantes e incluso ofrecerán sugerencias para mejorar la eficiencia. Imagine una línea de montaje de una fábrica donde los robots no solo manipulan piezas sino que también se coordinan verbalmente con los trabajadores humanos, ajustando dinámicamente el flujo de trabajo para obtener resultados óptimos. Este enfoque colaborativo podría mejorar significativamente la productividad y la seguridad en diversas industrias. La delicada danza del cuidado: los robots humanoides con PNL tienen el potencial de transformar el cuidado de personas mayores y la vida asistida. Imagine un robot compañero que no sólo pueda comprender las solicitudes de ayuda sino también entablar una conversación, reduciendo los sentimientos de aislamiento y soledad. Sin embargo, surgen consideraciones éticas. ¿Podrán los robots reemplazar realmente la conexión y la empatía humanas, especialmente para aquellos en estados vulnerables? Será crucial lograr el equilibrio adecuado entre la asistencia tecnológica y la auténtica atención humana. La democratización de la educación: los robots impulsados ​​por PNL tienen el potencial de personalizar las experiencias de aprendizaje a gran escala. Un robot tutor equipado con PNL podría adaptar sus explicaciones y estilo de comunicación a las necesidades de cada estudiante, brindando retroalimentación inmediata y abordando las brechas de aprendizaje en tiempo real. Esto podría revolucionar la educación, haciéndola más accesible y atractiva para estudiantes de todos los orígenes y estilos de aprendizaje. Sin embargo, garantizar la igualdad de acceso a dicha tecnología será vital para evitar mayores disparidades educativas. Más allá del servicio al cliente: la PNL puede elevar las interacciones de servicio al cliente mucho más allá de las respuestas escritas. Los robots que comprendan el lenguaje natural, incluidos el humor, el sarcasmo y la frustración, podrían agilizar los procesos y mejorar la satisfacción del cliente. Imagine a un cliente explicando un problema complejo a un robot, y el robot no sólo comprende el problema sino que también sugiere soluciones de una manera que resulta natural y útil. Esto liberaría a los agentes humanos para tareas más complejas y crearía una experiencia de cliente más positiva. Cerrar la brecha de comunicación: la PNL puede ser una herramienta poderosa para la inclusión. Los robots que traducen el lenguaje de señas, convierten la voz en texto y viceversa, pueden cerrar la brecha de comunicación para las personas con discapacidad. Esta tecnología tiene el potencial de derribar barreras y fomentar una sociedad más inclusiva. Sin embargo, garantizar que estos robots estén disponibles y accesibles para todos sigue siendo un desafío. Desafíos en el horizonte: si bien el futuro es prometedor, es necesario superar importantes obstáculos. Deben considerarse cuidadosamente las consideraciones éticas en torno al desplazamiento de empleos y el potencial de los robots para exacerbar las desigualdades sociales. Las medidas sólidas de seguridad y protección serán cruciales para mitigar los riesgos potenciales asociados con la IA avanzada. Además, abordar los sesgos inherentes a los algoritmos de PNL es esencial para garantizar que los robots interactúen de manera justa y sin prejuicios. El camino por delante: Los robots humanoides con PNL representan una poderosa tecnología próxima. Si abordamos cuidadosamente los desafíos y priorizamos el desarrollo ético, podemos aprovechar esta tecnología para crear un futuro en el que los robots trabajen a nuestro lado, no en nuestra contra. Este futuro tiene el potencial de mejorar nuestras vidas de innumerables maneras, desde revolucionar los lugares de trabajo hasta fomentar una sociedad más inclusiva. La clave está en el desarrollo responsable, asegurando que estos avances beneficien a toda la humanidad. En general, el futuro de los robots humanoides con PNL está lleno de posibilidades. Al afrontar cuidadosamente los desafíos, podemos aprovechar esta tecnología para crear un futuro en el que los robots trabajen junto a nosotros, mejorando nuestras vidas de muchas maneras. El futuro de los robots humanoides con procesamiento del lenguaje natural (PNL) presenta un panorama fascinante repleto de inmenso potencial y obstáculos cruciales que superar. Aquí hay una inmersión más profunda en este campo en evolución: Descargo de responsabilidad: es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

OpenAI presenta Sora: un modelo de IA de texto a video

OpenAI, la reconocida organización de investigación detrás de GPT-3 y DALL-E 2, presentó recientemente su última innovación: Sora, un modelo de conversión de texto a video capaz de generar videos de alta calidad de hasta un minuto de duración según las indicaciones del usuario. Esta tecnología innovadora promete revolucionar la creación de contenido y la narración de historias, pero, como ocurre con cualquier herramienta poderosa, conlleva limitaciones inherentes y consideraciones éticas. Sora del modelo de texto a video de OpenAI: una herramienta prometedora con optimismo medido Sora de OpenAI: capacidades y complejidades: Sora cuenta con un impresionante conjunto de habilidades. Puede crear escenas intrincadas con múltiples personajes, detalles intrincados y movimientos precisos. A diferencia de sus predecesores, Sora no se limita a seguir instrucciones textuales al pie de la letra; aplica su comprensión del mundo físico para interpretar órdenes de manera realista. Esto permite interacciones matizadas entre personajes y objetos, y la generación de escenas diversas y dinámicas. Sin embargo, OpenAI reconoce que Sora aún está en desarrollo y enfrenta ciertos obstáculos. Si bien es capaz de transmitir emociones y expresiones, generar simulaciones físicas complejas y comprender relaciones intrincadas de causa y efecto siguen siendo desafíos. Además, el manejo de detalles espaciales y secuencias temporales puede generar imprecisiones ocasionales en sus resultados. La seguridad es lo primero: consciente del potencial de uso indebido, OpenAI enfatiza medidas de seguridad integrales antes de integrar Sora en las aplicaciones principales. La compañía planea probar rigurosamente el modelo con expertos en el dominio, desarrollar herramientas para detectar contenido engañoso y aprovechar las técnicas de seguridad existentes de modelos anteriores. También pretenden incorporar estándares de metadatos e interactuar con partes interesadas de todo el mundo para abordar inquietudes y explorar aplicaciones positivas de la tecnología. Bajo el capó: el funcionamiento interno de Sora es tan notable como sus capacidades. Adopta un modelo de difusión, transformando gradualmente el ruido en fotogramas de vídeo realistas. Además, aprovecha una arquitectura de transformador similar a los modelos GPT, lo que permite escalabilidad y aprendizaje eficiente. Los vídeos y las imágenes se representan como parches de datos, lo que facilita la formación sobre diversos datos visuales. Aprovechando los avances en los modelos DALL-E y GPT, Sora emplea técnicas de recaptación para seguir estrictamente las instrucciones del usuario e incluso animar imágenes fijas o ampliar vídeos existentes. Perspectivas e implicaciones: Investigadores como Bill Peebles aprecian la comprensión emergente de la gramática cinematográfica de Sora, lo que le permite crear narrativas convincentes de forma autónoma. Sin embargo, Aditya Ramesh, investigador principal y jefe del equipo DALL-E, advierte sobre un posible uso indebido, particularmente en la generación de deepfakes y la difusión de información errónea. Mitigar estos riesgos requiere comprensión social y una adaptación proactiva de las plataformas de redes sociales. OpenAI subraya aún más su compromiso con las preocupaciones éticas al garantizar el uso de datos de capacitación con licencia o disponibles públicamente, evitando la infracción de derechos de autor. Etapa actual y visión futura: actualmente, OpenAI proporciona Sora a los miembros del equipo rojo para que evalúen los riesgos y busquen comentarios de creativos como artistas visuales, diseñadores y cineastas. Este acceso abierto al progreso de la investigación refleja la intención de OpenAI de interactuar con partes interesadas externas y ofrecer una visión del futuro de la creación de contenido impulsada por IA. Si bien Sora representa un importante avance en los videos generados por IA, es crucial recordar que no es una varita mágica. Comprender sus capacidades y limitaciones, priorizar las medidas de seguridad y fomentar el diálogo abierto son claves para aprovechar su potencial de impacto positivo. Al afrontar estos desafíos de manera responsable, Sora tiene el potencial de marcar el comienzo de una nueva era de narración y expresión visual, enriqueciendo nuestra comprensión del mundo y de nosotros mismos. Gizchina Noticias de la semana Modelo Sora de texto a video de OpenAI: desatando la creatividad con un optimismo cauteloso Más allá de las exageraciones: una inmersión profunda en el potencial de Sora Sora de OpenAI no es solo otro modelo de texto a video; es un potencial cambio de juego para la creación de contenido. Pero detrás de los impresionantes titulares se esconde una tecnología compleja con matices que desentrañar. Profundicemos en sus capacidades, limitaciones y cómo aprovecharlo de manera responsable. Desbloqueando la magia de la narración: imagina crear una escena dinámica con detalles intrincados, personajes expresivos y transiciones fluidas, todo a través de comandos textuales. Sora te permite hacer precisamente eso. Su capacidad para interpretar el mundo físico imbuye a sus creaciones de realismo, permitiendo interacciones creíbles entre los personajes y escenarios diversos. Consejos profesionales para dominar el guión: La especificidad es clave: Sea claro y conciso en sus indicaciones. En lugar de “una escena feliz”, describe en detalle el escenario, los personajes y las acciones. Cuanto más específico sea, más preciso y atractivo será el resultado. Piense en términos cinematográficos: considere los ángulos de la cámara, el ritmo y las transiciones de tomas al elaborar sus indicaciones. Utilice palabras clave como «primer plano», «panorámica» o «desvanecimiento» para guiar la narración visual del modelo. Adopte la iteración: refine sus indicaciones según el vídeo generado. Experimente con diferentes redacciones y detalles para lograr el resultado visual deseado. Navegando por las áreas grises: si bien Sora brilla con sus capacidades, es crucial reconocer sus limitaciones y peligros potenciales. Las simulaciones físicas y las complejas relaciones causa-efecto siguen siendo obstáculos, y ocasionalmente pueden ocurrir imprecisiones en las secuencias espaciales y temporales. Consideraciones éticas: una responsabilidad compartida El potencial de uso indebido, particularmente en la creación de deepfakes y la difusión de información errónea, es una preocupación que OpenAI aborda activamente. Abordar esto requiere un enfoque múltiple: Transparencia y educación: la comunicación abierta sobre las capacidades y limitaciones de Sora es clave para crear conciencia y fomentar el uso responsable. Colaboración con las partes interesadas: la colaboración con investigadores, formuladores de políticas y plataformas de redes sociales es crucial para desarrollar estrategias de mitigación y directrices éticas. Responsabilidad del usuario: los usuarios deben comprender las implicaciones éticas de sus creaciones y emplear la tecnología de manera responsable. Beyond Hype: Embracing the Future El lanzamiento de Sora no es un punto final; es una invitación a explorar las posibilidades de la narración impulsada por la IA. Al comprender sus fortalezas y debilidades, adoptar prácticas responsables y entablar un diálogo abierto, podemos desbloquear su potencial para enriquecer nuestro panorama creativo y potenciar nuevas formas de expresión. Recuerda: Sora es una herramienta poderosa, pero no es mágica. Dominarlo requiere práctica y comprensión de sus limitaciones. Las consideraciones éticas son primordiales. Utilice la tecnología de manera responsable y tenga en cuenta el potencial de uso indebido. El futuro de la creación de contenido impulsado por IA es brillante, pero requiere colaboración e innovación responsable. Al adoptar estos enfoques, podemos garantizar que Sora se convierta en una fuerza para el cambio positivo, dando forma a las historias del mañana con creatividad y responsabilidad. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

Página 1 de 2

Funciona con WordPress & Tema de Anders Norén