Todo lo que necesitas saber sobre tecnología

Etiqueta: ai Página 2 de 20

El chatbot GPT2 se vuelve viral en Twitter: ¿Es ChatGPT GPT-5?

ChatGPT es fácilmente el chatbot de IA generativa más conocido del mundo, pero ofrece diferentes experiencias dependiendo de si pagas o no por un LLM premium. El ChatGPT gratuito se ejecuta en el modelo GPT-3.5, mientras que ChatGPT Plus y las suscripciones empresariales tienen acceso a GPT-4. Incluso se habla de que GPT-4.5 saldrá pronto, y muchas personas esperan que OpenAI lance una actualización de GPT-5 a finales de este año. Con eso en mente, un misterioso GPT2-Chatbot aparentemente está disponible. Algunos evaluadores ya están publicando resultados impresionantes de sus experimentos. No está claro de dónde viene ni cómo llegó a Internet, pero parece ser muy capaz. Lo que está claro es que está explotando en Twitter/X, con gente tratando de explicar su origen. ¿Estamos ante una versión inédita de ChatGPT? Esta podría ser una versión de prueba temprana de GPT-5 que OpenAI está probando antes de su lanzamiento. El director ejecutivo de OpenAI, Sam Altman, dijo en una entrevista reciente que no sabía cuándo se lanzará GPT-5. La compañía tiene otros anuncios interesantes que hacer y ya hemos visto algunos de ellos. Tecnología. Entretenimiento. Ciencia. Tu bandeja de entrada. Suscríbete para recibir las noticias de tecnología y entretenimiento más interesantes que existen. Al registrarme, acepto los Términos de uso y he revisado el Aviso de privacidad. Llevo unos días probando gpt2-chatbot. Hoy parece haber recibido mucha más atención. Superó todos nuestros puntos de referencia de ChatGPT-4. Hipótesis: algunos de nosotros hemos llegado a la conclusión de que es una forma de ChatGPT-4 prelobotomizado o hemos entrenado mucho en él. https://t.co/KKLHmPVYnf— Brian Roemmele (@BrianRoemmele) 29 de abril de 2024 Por ejemplo, OpenAI hizo que ChatGPT estuviera disponible sin una cuenta, discutió el lanzamiento público de Sora, mostró su herramienta de clonación de voz e implementó la memoria ChatGPT de manera más amplia. . Curiosamente, Altman insinuó que la próxima actualización de ChatGPT podría no llamarse GPT-5, y eso es comprensible. Pero GPT-5 recibió mucha atención el año pasado. Algunos dijeron que GPT-5 sería el punto en el que alcanzaríamos AGI, o una IA potencialmente peligrosa que podría razonar tan bien como los humanos. GPT-5 también surgió como una posible razón para el despido de Altman el otoño pasado. Quizás se necesitaría un nombre diferente para limpiar la imagen de GPT-5. Tal vez OpenAI opte por una actualización de ChatGPT 2, omitiendo por lo tanto el nombre del modelo GPT-5 por completo. Teniendo esto en cuenta, ¿podría GPT2-Chatbot ser el precursor de una futura evolución OpenAI de ChatGPT? Es demasiado pronto para saberlo. Le pedí a gpt2-chatbot que generara un programa simple para convertir garabatos en arte. Todos los demás modelos que he probado fallan en esto. Tienen una función de garabato, pero el botón no hace nada de valor artístico. Intento de gpt2-chat: pic.twitter.com/oPhc5ob0Ow— Ippi (@Coolzippity) 30 de abril de 2024 Lo que parece claro aquí es que GPT2-Chatbot es bastante avanzado. Según algunas de las personas que lo probaron, aparentemente supera o iguala a GPT-4 (ChatGPT Plus) en los puntos de referencia. Otros ofrecieron ejemplos de problemas en los que GPT2-Chatbot respondió correctamente a las indicaciones, incluidos problemas matemáticos difíciles, mientras que GPT-4 y otros modelos de IA no pudieron. Siqi Chen llegó incluso a llamar a GPT2-Chatbot «un poco aterrador» en un tweet ahora eliminado porque fue capaz de resolver un acertijo que otros GPT no pudieron resolver. Chen también dijo que GPT2-Chatbot parece tener un mejor razonamiento. que GPT-4 y Claude 3 Opus. Pero especuló que el misterioso LLM no es GPT-4.5 o GPT-5. así que no creo que sea un accidente que esto no se llame gpt4.5 o gpt5; no lo es. Es un banco de pruebas para q* (o como quieras llamar árbol de pensamiento + prm en estos días). Es probable que gpt5 continúe basándose en la hipótesis de escala, además de un impulso de razonamiento a partir de esto: Siqi Chen (@blader) 30 de abril de 2024. Puede probar GPT2-Chatbot usted mismo ahora mismo accediendo a este enlace. Seleccione Chat directo y busque el modelo. Al momento de escribir este artículo, se había alcanzado el límite de tarifa para el modelo. Es una prueba de que se volvió viral en las redes sociales. Intenté preguntarle sobre sus orígenes. Aparentemente, el modelo misterioso les dijo a otros que es GPT-4 de OpenAI, pero una versión V2. Large Model Systems Organization (lmsys.org) comentó sobre el origen del modelo GPT2-Chatbot que alojan en su sitio web, diciendo que este modelo es en pruebas, y no divulgarán más detalles al respecto hasta que se haga público: solo para aclarar, siguiendo nuestra política, nos hemos asociado con varios desarrolladores de modelos para traer sus nuevos modelos a nuestra plataforma para pruebas preliminares de la comunidad. Estos modelos son estrictamente para pruebas y no aparecerán en la tabla de clasificación hasta que se hagan públicos. Ya sea que GPT2-Chatbot sea GPT-5, una actualización diferente de ChatGPT o algo más, todavía espero que OpenAI haga algún tipo de anuncio importante de GPT-5 a finales de este año, incluso si el modelo subyacente recibe un nombre diferente. Recuerde que Google llamó la atención de todos hace unos meses cuando lanzó la gran actualización Gemini 1.5. Luego, Meta lanzó sus propios modelos de IA generativa, que se están implementando lentamente en Facebook, Messenger, WhatsApp e Instagram. A la luz de esa mayor competencia, las actualizaciones a ChatGPT deben ser inminentes. En ese sentido, será interesante ver qué entidad reclama el nuevo y misterioso GPT2-Chatbot. Si el GPT2-Chatbot no es de OpenAI, podría ser simplemente otro rival de GPT que ejerce aún más presión sobre la empresa para mejorar ChatGPT.

La barra de direcciones en Chrome está recibiendo ayuda de la IA

La barra de direcciones en Chrome está recibiendo ayuda de la IA – Phandroid Este sitio web utiliza cookies para mejorar su experiencia. Asumiremos que está de acuerdo con esto, pero puede optar por no participar si lo desea. Configuración de cookiesACEPTARPolítica de Privacidad y Cookies

Samsung apuesta el futuro de sus ventas de smartphones por la Galaxy AI

Lanh Nguyen / Android AuthorityTL;DR Samsung ha revelado sus resultados financieros del primer trimestre de 2024, y la división móvil se vio impulsada por las ventas del Galaxy S24. El fabricante dijo que continuará invirtiendo en investigación y desarrollo para ampliar y perfeccionar las funciones de Galaxy AI. Samsung lanzó la serie Galaxy S24 en enero, incorporando una gran cantidad de funciones Galaxy AI a los teléfonos y dispositivos insignia más antiguos. La compañía acaba de publicar sus resultados financieros del primer trimestre de 2024 y parece que está apostando fuerte por Galaxy AI en el futuro. La división de redes y móviles de Samsung reportó 3,51 billones de wones (~2,54 mil millones de dólares) de ganancias operativas en el primer trimestre de 2024, citando fuertes ventas de la serie Galaxy S24. El fabricante también señaló que las funciones Galaxy AI de la línea contribuyen al crecimiento de las ventas. La compañía dice que llevará estas funciones AI a otros teléfonos emblemáticos en el segundo trimestre de 2024, pero también confirmó que “continuará invirtiendo en investigación y desarrollo para ampliar y perfeccionar aún más Galaxy AI”. Samsung también insinuó planes futuros de dispositivos para el resto del año en su informe de ganancias: el negocio MX buscará un crecimiento anual en las ventas de teléfonos inteligentes y apunta a mantener el impulso de las ventas a través de la expansión de Galaxy AI a los existentes. y nuevos productos emblemáticos en dispositivos plegables y tabletas. Para los dispositivos portátiles, fortalecerá la experiencia del ecosistema Galaxy mediante la expansión de nuevos modelos y factores de forma como el Galaxy Ring. Para los relojes inteligentes, MX Business se esforzará por satisfacer la demanda de actualizaciones mediante el lanzamiento de nuevos modelos premium. En otras palabras, la compañía todavía tiene muchos productos que lanzar a finales de este año. Esperamos el Galaxy Z Fold 6, el Galaxy Z Flip 6, la serie Galaxy Tab S10, la línea Galaxy Watch 7 y el Galaxy Ring antes mencionado. IA generativa: un nuevo campo de batalla para los teléfonos inteligentes La continua inversión de Samsung en IA generativa no es una sorpresa, ya que se ha vuelto cada vez más importante en la industria de los teléfonos inteligentes. Además de los teléfonos Galaxy de Samsung, hemos visto funciones de IA generativa que aparecen o están programadas para aparecer en dispositivos de Google, Xiaomi, OnePlus, OPPO y más. Por lo tanto, tiene sentido que Samsung invierta más recursos en descubrir nuevos usos para esta tecnología. El aumento de la inversión también se produce después de un informe de que la serie Galaxy S25 ejecutaría el modelo de aprendizaje automático Gemini Nano 2 de Google. La versión actual de Gemini Nano habilita funciones de IA en el dispositivo, como resúmenes de la grabadora y Respuesta inteligente en Gboard. Por lo tanto, estamos ansiosos por ver qué podrían aportar Samsung y Google con un modelo muy mejorado. Te puede gustarComentarios

Gemini ahora soporta versiones anteriores de Android

Gemini ahora admite versiones anteriores de Android – Phandroid Este sitio web utiliza cookies para mejorar su experiencia. Asumiremos que está de acuerdo con esto, pero puede optar por no participar si lo desea. Configuración de cookiesACEPTARPolítica de Privacidad y Cookies

Con OpenAI sumido en el caos, los reclutadores tecnológicos apuntan al talento

Para OpenAI, que se ha convertido en la cara de la floreciente industria de la IA gracias a productos de consumo populares como ChatGPT y DALL-E, los últimos días han sido una crisis sin un final claro a la vista. Pero para los competidores en el espumoso sector de la IA, es una oportunidad. Más de 700 empleados de la potencia de inteligencia artificial OpenAI amenazaron el lunes con dejar el desarrollador de software a menos que los miembros de su junta directiva, que a fines de la semana pasada despidieron abruptamente al director ejecutivo Sam Altman, renunciaran y reintegraran al ex director ejecutivo. “Cualquier reclutador experimentado Lo sabremos, cada vez que se anuncia un despido, cada vez que hay este tipo de cambio o cambio dramático, lo primero que se hace es iniciar la conversación”, dijo Andrew Esguerra, director general de la agencia de contratación Coda Search. «Intentas llegar allí primero». Esguerra ya ha comenzado a comunicarse con los empleados de OpenAI para ver si están buscando nuevos trabajos, dijo, y es casi seguro que no está solo: «Cada uno de estos OpenAI [employees]específicamente los ingenieros… No me sorprendería si cada uno ya hubiera sido contratado por 100, 200, 300 personas”. No es inmediatamente obvio que las empresas rivales de IA serían las mayores beneficiarias de un éxodo. Los más de 700 empleados de OpenAI que firmaron una carta el lunes amenazando con abandonar el barco dijeron que se dirigirían a Microsoft, donde Altman aterrizó después de ser despedido. El gigante tecnológico con sede en Redmond, Washington, que ha invertido y trabajado estrechamente con OpenAI, “ «Nos aseguró que hay puestos para todos los empleados de OpenAI», dijeron los firmantes. Altman tuiteó el lunes: «Todos vamos a trabajar juntos de una manera u otra». También podría, según algunos informes, regresar a OpenAI como parte de un proceso de transición. junta directiva o incluso como director ejecutivo. Incluso si Altman regresara de alguna manera, muchos empleados de OpenAI podrían cuestionar la estabilidad de la empresa en el futuro. Y eso podría dar a otras empresas de IA la oportunidad de hacerles mejores ofertas. Con la mayoría de los 770 empleados de OpenAI aparentemente disponibles, los competidores grandes y pequeños podrían hacerse con parte del valioso capital humano que hace girar el mundo de la tecnología. “Salesforce, Slack y Tableau TODOS igualarán a cualquier investigador de OpenAI que haya ofertado. su renuncia OTE completa en efectivo y capital para unirse inmediatamente a nuestros equipos de investigación de IA confiable de Salesforce Einstein”, tuiteó el lunes el director ejecutivo de Salesforce Inc., Marc Benioff. «Únase a nuestra revolución empresarial de IA confiable». DeepMind de Google experimentó un aumento en los currículums entrantes de OpenAI después de la partida de Altman, informó The Information el domingo, mientras que los actores más pequeños de IA se movilizaron para reclutar de manera proactiva personal de OpenAI. Esguerra, el empleado de la agencia de reclutamiento, dijo que no ha Sin embargo, he visto LinkedIn inundado de solicitantes de empleo (la situación todavía está cambiando, enfatizó, y muchos empleados quieren arreglar OpenAI en lugar de darse por vencido), pero ya ha visto «algunas respuestas aquí y allá». Seguro que vamos a perder gente”, dijo. “La gente ya está mirando hacia otra parte. La gente ahora está abriendo sus oídos a lo que los reclutadores tienen que decir: qué proyectos existen, qué tipo de trabajo podrían estar haciendo en otros lugares”. Muchos de los mayores competidores de OpenAI en el sector de la inteligencia artificial, incluidos Amazon, Anthropic, Apple, Google , Hugging Face, IBM, Meta, Midjourney, Runway y xAI – declinaron o no respondieron a una solicitud de comentarios sobre si habían intentado reclutar o si habían sido contactados por personal descontento de OpenAI.“El laboratorio de investigación de IA dentro de Microsoft «Se ha quedado atrás con respecto a sus pares en el desarrollo de modelos básicos hasta la fecha… y no será instantáneamente tan efectivo como OpenAI con una infusión de talento», dijo Brendan Burke, analista senior de investigación de tecnologías emergentes en la firma de investigación de mercado PitchBook, en un correo electrónico. «Los competidores tienen una ventana para buscar avances fundamentales que puedan superar los esfuerzos de Microsoft-OpenAI». Un informe publicado por PitchBook el viernes encontró que se habían comprometido 23.200 millones de dólares en financiación para nuevas empresas de IA generativa este año hasta mediados de octubre, aunque esa cifra era una cifra relativamente menos impresionante de 7.900 millones de dólares cuando se excluyeron del total las asociaciones corporativas atípicas. Las circunstancias exactas en las que OpenAI despidió a Altman siguen sin estar claras, pero se cree que su despido se debió a desacuerdos sobre la velocidad y seguridad con las que debería trabajar el desarrollador. sobre IA. Aunque OpenAI tiene algunos componentes con fines de lucro, en última instancia está dirigido por una junta sin fines de lucro cuyo objetivo es desarrollar la IA de manera segura y teniendo en cuenta los mejores intereses de la humanidad. En una declaración, la junta de OpenAI atribuyó el despido de Altman a una falta de franqueza constante en sus comunicaciones con miembros de la Junta. Desde entonces, la junta nombró al ex director ejecutivo de Twitch, Emmett Shear, director ejecutivo interino de OpenAI. Las empresas tecnológicas son conocidas por hacer todo lo posible en una carrera para contratar desarrolladores talentosos y otro personal antes que sus competidores. Es una cultura que dio lugar a la imagen de las oficinas tecnológicas como campus universitarios exuberantes llenos de mesas de pingpong, comodidades en el lugar y abundantes beneficios. Cuando se adquiere una startup tecnológica, a veces tiene menos que ver con el producto que la empresa ha creado que con el personal que ha reunido, una táctica conocida como «adquisición». OpenAI no respondió a una solicitud de comentarios sobre si ha tenido problemas. retener personal desde que despidieron a Altman, o cómo planea responder a la carta del empleado. Aludiendo a la capacidad de ChatGPT para ayudar a los solicitantes de empleo a agilizar el proceso de solicitud, Esguerra dijo: «Estoy seguro de que todos [at OpenAI]utilizaron el software que crearon para crear sus propios currículums durante el fin de semana”.

Samsung y Google adelantan una mayor colaboración en IA para el futuro

Con el lanzamiento de la serie Samsung Galaxy S24, Samsung también presentó su conjunto de herramientas de inteligencia artificial Galaxy AI. Una de esas herramientas llegó en forma de Circle to Search, que es de Google. Ahora parece que tanto Samsung como Google están impulsando sus esfuerzos de colaboración en IA entre sí. La cuenta oficial de Samsung X ha publicado una imagen de TM Roh, director de dispositivos móviles de Samsung, y Rick Osterloh de Google, quien ahora lidera un equipo centrado en IA. Si bien la publicación no revela nada específico, sugiere que ambas compañías continuarán trabajando juntas para llevar más (y nuevas) experiencias de IA a los dispositivos móviles. Esto no debería sorprender demasiado. Tanto Samsung como Google tienen una relación muy estrecha. Por lo tanto, tiene sentido que ambas empresas sigan trabajando juntas en el frente de la IA. Es posible que con la próxima Google I/O 2024, tanto Google como Samsung puedan presentar algunas funciones nuevas de IA juntos. Sin embargo, eso es sólo nuestra especulación, pero tendremos que esperar y ver. Mientras tanto, Samsung ha comenzado a implementar su conjunto de herramientas de inteligencia artificial Galaxy AI en más teléfonos. Anteriormente, su IA se limitaba a los Galaxy S23 y S24, pero recientemente la compañía comenzó a implementarla también en su serie Galaxy S22.

En esta temporada electoral, esté atento a las noticias falsas generadas por IA

Ha llegado otra vez esa época del año: ¡temporada de elecciones! Ya sabes qué esperar cuando enciendes el televisor. Prepárese para una avalancha de comerciales, en los que cada candidato dice lo suficiente como para agradarle, pero nada lo suficientemente específico como para estar en deuda si gana. Lo que no se puede esperar es que “noticias” electorales sensacionalistas irrumpan en sus pantallas sin ser invitadas. Las noticias falsas (o artículos exagerados o completamente falsificados que afirman ser periodismo imparcial y fáctico, a menudo difundidos a través de las redes sociales) pueden aparecer en cualquier momento y en cualquier lugar. La máquina de noticias falsas de esta temporada electoral será diferente a la de años anteriores debido a la aparición de herramientas de inteligencia artificial convencionales. El papel de la IA en la generación de noticias falsas A continuación se muestran algunas formas en que los fanáticos desesperados pueden utilizar diversas herramientas de IA para provocar malestar y difundir información errónea sobre las próximas elecciones. Deepfake Hemos tenido tiempo de aprender y operar según el dicho de «No creas todo lo que lees en Internet». Pero ahora, gracias al deepfake, esa lección debe extenderse a «No creas todo lo que VE en Internet». Deepfake es la manipulación digital de un vídeo o una fotografía. El resultado suele representar una escena que nunca sucedió. ¡A simple vista, los deepfakes pueden parecer muy reales! Algunos todavía parecen reales después de estudiarlos durante unos minutos. Las personas pueden utilizar deepfake para mostrar a un candidato con mala imagen o para difundir noticias falsas sensacionalistas. Por ejemplo, un deepfake podría hacer que parezca que un candidato hizo un gesto grosero con la mano o mostrar a un candidato de fiesta con figuras públicas controvertidas. Sintetizadores de voz con IA Según el informe Beware the Artificial Imposter de McAfee, solo se necesitan tres segundos de audio auténtico y un esfuerzo mínimo para crear una voz imitada con un 85% de precisión. Cuando alguien se lo propone y se toma el tiempo para perfeccionar el clon de voz, puede lograr una coincidencia de voz del 95% con la voz real. Políticos conocidos tienen miles de segundos de clips de audio disponibles para cualquiera en Internet, lo que brinda a los clonadores de voz muchas muestras para elegir. Los propagadores de noticias falsas podrían emplear generadores de voz de inteligencia artificial para agregar una pista de conversación que suene auténtica a un video deepfake o para fabricar un clip ágil y sórdido de “micrófono caliente” para compartir en todas partes en línea. Los programas generadores de texto con IA como ChatGPT y Bard pueden hacer que cualquiera parezca inteligente y elocuente. En manos de agitadores, las herramientas de generación de texto de IA pueden crear artículos que suenan casi lo suficientemente profesionales como para ser reales. Además, la IA permite a las personas producir contenido rápidamente, lo que significa que podrían difundir docenas de noticias falsas diariamente. El número de artículos falsos sólo está limitado por la ligera imaginación necesaria para escribir un breve mensaje. Cómo detectar noticias falsas asistidas por IA Antes de dejarse engañar por un informe de noticias falsas, aquí hay algunas formas de detectar un uso malicioso de la IA destinado a engañar a sus inclinaciones políticas: Imágenes distorsionadas. Las imágenes y los vídeos fabricados no son perfectos. Si miras de cerca, a menudo puedes ver la diferencia entre lo real y lo falso. Por ejemplo, el arte creado por IA a menudo agrega dedos adicionales o crea caras que se ven borrosas. Voces robóticas. Cuando alguien afirma que un clip de audio es legítimo, escuche atentamente la voz, ya que podría ser generada por IA. Los sintetizadores de voz con IA se delatan no cuando escuchas la grabación en su totalidad, sino cuando la divides sílaba por sílaba. Por lo general, se requiere mucha edición para ajustar un clon de voz. Las voces de IA a menudo hacen pausas incómodas, acortan palabras o ponen énfasis poco natural en los lugares equivocados. Recuerde, la mayoría de los políticos son oradores públicos expertos, por lo que es probable que los discursos genuinos suenen profesionales y ensayados. Emociones fuertes. No hay duda de que la política toca algunos nervios sensibles; sin embargo, si ve una publicación o un “informe de noticias” que lo enoja muchísimo o lo entristece mucho, aléjese. Al igual que los correos electrónicos de phishing que instan a los lectores a actuar sin pensar, los informes de noticias falsas provocan un frenesí (manipulan sus emociones en lugar de utilizar hechos) para influir en su forma de pensar. Comparta responsablemente y cuestione todo ¿Lo que está leyendo, viendo o escuchando es demasiado extraño para ser verdad? Eso significa que probablemente no lo sea. Si estás interesado en aprender más sobre un tema político que encontraste en las redes sociales, haz una búsqueda rápida para corroborar una historia. Tenga una lista de establecimientos de noticias respetados marcados como favoritos para que sea rápido y fácil garantizar la autenticidad de un informe. Si encuentra noticias falsas, la mejor manera de interactuar con ellas es ignorarlas. O, en los casos en que el contenido sea ofensivo o incendiario, deberá denunciarlo. Incluso si las noticias falsas están ridículamente fuera de lugar, es mejor no compartirlas con su red, porque eso es exactamente lo que quiere el autor original: que la mayor cantidad posible de personas vean sus historias inventadas. Todo lo que se necesita es que alguien dentro de su red lo vea demasiado rápido, lo crea y luego perpetúe las mentiras. Es fantástico si te apasiona la política y los diversos temas que figuran en la boleta electoral. La pasión es un poderoso impulsor del cambio. Pero en esta temporada electoral, tratemos de centrarnos en lo que nos une, no en lo que nos divide. Presentamos McAfee+ Protección contra robo de identidad y privacidad para su vida digital Descargue McAfee+ ahora \x3Cimg height=»1″ width=»1″ style=»display:none» src=»https://www.facebook.com/tr?id= 766537420057144&ev=PageView&noscript=1″ />\x3C/noscript>’);

Cómo detectar arte falso y deepfakes

La inteligencia artificial (IA) está pasando de los laboratorios de alta tecnología y las tramas de Hollywood a las manos de la población en general. ChatGPT, la herramienta de generación de texto, apenas necesita presentación y los generadores de arte con IA (como Midjourney y DALL-E) le pisan los talones en popularidad. Introducir indicaciones sin sentido y recibir clips artísticos ridículos a cambio es una forma divertida de pasar la tarde. Sin embargo, mientras usted usa generadores artísticos de inteligencia artificial para reírse, los ciberdelincuentes usan la tecnología para engañar a las personas haciéndoles creer en noticias falsas sensacionalistas, perfiles de citas de bagres y suplantaciones dañinas. El arte sofisticado generado por IA puede ser difícil de detectar, pero aquí hay algunas señales de que puede estar viendo una imagen dudosa o interactuando con un delincuente detrás de un perfil generado por IA. ¿Qué son los generadores de arte con IA y los deepfakes? Para comprender mejor las ciberamenazas que plantea cada una, aquí hay algunas definiciones rápidas: Generadores de arte con IA. La IA generativa suele ser el tipo específico de IA detrás de los generadores de arte. Este tipo de IA está cargado con miles de millones de ejemplos de arte. Cuando alguien le da una indicación, la IA hojea su vasta biblioteca y selecciona una combinación de obras de arte que cree que cumplirán mejor la indicación. El arte con IA es un tema candente de debate en el mundo del arte porque ninguna de las obras que crea es técnicamente original. Su producto final deriva de varios artistas, la mayoría de los cuales no han dado permiso al programa informático para utilizar sus creaciones. Profundamente falso. Un deepfake es una manipulación de fotografías y vídeos existentes de personas reales. La manipulación resultante convierte a una persona completamente nueva a partir de una recopilación de personas reales, o se manipula al sujeto original para que parezca que está haciendo algo que nunca hizo. El arte de la IA y los deepfake no son tecnologías que se encuentran en la web oscura. Cualquiera puede descargar una aplicación de arte de IA o deepfake, como FaceStealer y Fleeceware. Como la tecnología no es ilegal y tiene muchos usos inocentes, es difícil regularla. ¿Cómo utiliza la gente el arte con IA de forma maliciosa? Es perfectamente inocente utilizar arte de IA para crear una foto de portada para su perfil de redes sociales o para combinarla con una publicación de blog. Sin embargo, es mejor ser transparente con su audiencia e incluir un descargo de responsabilidad o un título que indique que no es una obra de arte original. El arte de la IA se vuelve malicioso cuando las personas usan imágenes para engañar intencionalmente a otros y ganar dinero con el engaño. Catfish puede utilizar imágenes de perfil y vídeos deepfake para convencer a sus objetivos de que realmente están buscando el amor. Revelar su verdadero rostro e identidad podría poner a un bagre criminal en riesgo de ser descubierto, por lo que usan las imágenes de otra persona o falsifican una biblioteca completa de imágenes. Los propagadores de noticias falsas también pueden recurrir a la ayuda del arte de la inteligencia artificial o un deepfake para agregar “credibilidad” a sus teorías de conspiración. Cuando combinan sus titulares sensacionalistas con una fotografía que, a primera vista, demuestra su legitimidad, es más probable que la gente comparta y difunda la historia. Las noticias falsas son perjudiciales para la sociedad debido a las emociones extremadamente negativas que pueden generar en grandes multitudes. La histeria o la indignación resultantes pueden conducir a la violencia en algunos casos. Por último, algunos delincuentes pueden utilizar deepfake para engañar a la identificación facial y acceder a cuentas confidenciales en línea. Para evitar que alguien acceda a sus cuentas mediante una falsificación profunda, proteja sus cuentas con autenticación multifactor. Eso significa que es necesario más de un método de identificación para abrir la cuenta. Estos métodos pueden ser códigos únicos enviados a su teléfono celular, contraseñas, respuestas a preguntas de seguridad o identificación de huellas dactilares además de identificación facial. Tres formas de detectar imágenes falsas Antes de iniciar una relación en línea o compartir una aparente noticia en las redes sociales, analice las imágenes utilizando estos tres consejos para detectar arte malicioso generado por IA y deepfake. 1. Inspeccione el contexto alrededor de la imagen. Las imágenes falsas no suelen aparecer solas. A menudo hay texto o un artículo más extenso a su alrededor. Inspeccione el texto en busca de errores tipográficos, mala gramática y mala composición general. Los phishers son conocidos por sus escasas habilidades de escritura. El texto generado por IA es más difícil de detectar porque su gramática y ortografía suelen ser correctas; sin embargo, las frases pueden parecer entrecortadas. 2. Evaluar el reclamo. ¿La imagen parece demasiado extraña para ser real? ¿Demasiado bueno para ser verdad? Extienda la regla general de esta generación de «No creas en todo lo que lees en Internet» para incluir «No creas en todo lo que ves en Internet». Si una noticia falsa dice ser real, busque el titular en otro lugar. Si es realmente digno de mención, al menos otro sitio informará sobre el evento. 3. Verifique si hay distorsiones. La tecnología de inteligencia artificial a menudo genera uno o dos dedos de más en las manos, y un deepfake crea ojos que pueden tener una apariencia sin alma o muerta. Además, puede haber sombras en lugares donde no serían naturales y el tono de la piel puede verse desigual. En los vídeos deepfake, es posible que la voz y las expresiones faciales no se alineen exactamente, lo que hace que el sujeto parezca robótico y rígido. Aumente su seguridad en línea con McAfee Las imágenes falsas son difíciles de detectar y probablemente se volverán más realistas cuanto más mejore la tecnología. El conocimiento de las amenazas emergentes de la IA lo prepara mejor para tomar el control de su vida en línea. Hay cuestionarios en línea que comparan el arte deepfake y de IA con personas y obras de arte genuinas creadas por humanos. Cuando tenga diez minutos libres, considere realizar una prueba y reconocer sus errores para identificar arte falso malicioso en el futuro. Para brindarle más confianza en la seguridad de su vida en línea, asóciese con McAfee. McAfee+ Ultimate es el servicio todo en uno de privacidad, identidad y seguridad de dispositivos. Proteja hasta seis miembros de su familia con el plan familiar y reciba hasta $2 millones en cobertura contra robo de identidad. Asóciese con McAfee para detener cualquier amenaza que se cuele bajo su atenta mirada. Presentamos McAfee+ Ultimate Protección contra robo de identidad y privacidad para su vida digital Descargue McAfee+ Ultimate ahora \x3Cimg height=»1″ width=»1″ style=»display:none» src=»https://www.facebook.com/tr? id=766537420057144&ev=PageView&noscript=1″ />\x3C/noscript>’);

Ver: Entre el R1 de Rabbit y el Ai Pin de Humane, ¿cuál tuvo el mejor lanzamiento?

Después de una presentación exitosa en CES, Rabbit permite a los periodistas probar el R1, un pequeño dispositivo naranja con una interfaz de voz impulsada por IA. Esto se produce apenas unas semanas después del lanzamiento de Humane Ai Pin, que también se presenta como un nuevo tipo de dispositivo móvil con IA en su centro. Si bien todavía estamos esperando revisiones en profundidad (a diferencia de una práctica inicial) del R1, existen algunas diferencias bastante claras entre los dos dispositivos. Lo más notable es que el Ai Pin no tiene pantalla y se basa en una interfaz de voz y un proyector, mientras que el R1 tiene una pantalla de 2,88 pulgadas (aunque está destinado a usarse para mucho más que escribir su contraseña de WiFi). Y mientras que el pin AI cuesta $699, más una suscripción mensual de $24, el R1 cuesta solo $199. Ambos, según Brian Heater de TechCrunch, muestran el valor de un buen diseño industrial. Parece que ni el Ai Pin (que recibió algunas críticas realmente mordaces) ni el R1 son argumentos completamente convincentes de que es hora de reemplazar nuestros teléfonos inteligentes, o que los chatbots de IA son la mejor manera de obtener información de Internet. Pero al menos es emocionante que la industria del hardware vuelva a sentirse abierta de par en par. ¡Presiona reproducir y luego cuéntanos si estás jugando para probar el R1 o el Ai Pin!

California examina los beneficios y riesgos del uso de inteligencia artificial en el gobierno estatal

La inteligencia artificial que puede generar texto, imágenes y otros contenidos podría ayudar a mejorar los programas estatales, pero también plantea riesgos, según un informe publicado por la oficina del gobernador el martes. La IA generativa podría ayudar a traducir rápidamente materiales gubernamentales a varios idiomas y analizar declaraciones fiscales para detectar fraude, resumir comentarios públicos y responder preguntas sobre servicios estatales. Aún así, el análisis advirtió que la implementación de la tecnología también conlleva preocupaciones en torno a la privacidad de los datos, la desinformación, la equidad y el sesgo. “Cuando se usa de manera ética y transparente, GenAI tiene el potencial de mejorar drásticamente los resultados de la prestación de servicios y aumentar el acceso y la utilización de los programas gubernamentales. ”, afirma el informe. El informe de 34 páginas, encargado por el gobernador Gavin Newsom, ofrece una idea de cómo California podría aplicar la tecnología a programas estatales incluso cuando los legisladores luchan por cómo proteger a las personas sin obstaculizar la innovación. Las preocupaciones sobre la seguridad de la IA han dividido a los ejecutivos de tecnología. Líderes como el multimillonario Elon Musk han hecho sonar la alarma de que la tecnología podría conducir a la destrucción de la civilización, señalando que si los humanos se vuelven demasiado dependientes de la automatización, eventualmente podrían olvidar cómo funcionan las máquinas. Otros ejecutivos de tecnología tienen una visión más optimista sobre el potencial de la IA para ayudar a salvar a la humanidad al facilitar la lucha contra el cambio climático y las enfermedades. Al mismo tiempo, las principales empresas de tecnología, incluidas Google, Facebook y OpenAI, respaldada por Microsoft, están compitiendo entre sí para desarrollar y lanzar nuevas herramientas de IA que puedan producir contenido. El informe también llega en un momento en que la IA generativa está alcanzando otro punto de inflexión importante. La semana pasada, la junta directiva del fabricante de ChatGPT OpenAI despidió al director ejecutivo Sam Altman por no ser “consistentemente sincero en sus comunicaciones con la junta directiva”, lo que sumió a la empresa y al sector de la IA en el caos. El martes por la noche, OpenAI dijo que había llegado a “un acuerdo de principio” para que Altman regresara como director ejecutivo y la empresa nombrara miembros de una nueva junta directiva. La empresa enfrentó presiones para reintegrar a Altman por parte de inversores, ejecutivos de tecnología y empleados, que amenazaron con renunciar. OpenAI no ha proporcionado detalles públicamente sobre lo que llevó al sorpresivo derrocamiento de Altman, pero, según se informa, la compañía tuvo desacuerdos sobre mantener segura la IA y al mismo tiempo ganar dinero. Una junta sin fines de lucro controla OpenAI, una estructura de gobierno inusual que hizo posible expulsar al CEO. Newsom calificó el informe de IA como un “primer paso importante” mientras el estado sopesa algunas de las preocupaciones de seguridad que conlleva la IA. «Estamos adoptando un enfoque mesurado y matizado: comprender los riesgos que plantea esta tecnología transformadora y al mismo tiempo examinar cómo aprovechar sus beneficios», dijo en un comunicado. Los avances en la IA podrían beneficiar a la economía de California. El estado alberga a 35 de las 50 principales empresas de IA del mundo y los datos de Pitchbook dicen que el mercado de GenAI podría alcanzar los 42.600 millones de dólares en 2023, según el informe. Algunos de los riesgos descritos en el informe incluyen la difusión de información falsa y dar a los consumidores consejos médicos peligrosos. y permitir la creación de sustancias químicas nocivas y armas nucleares. Las filtraciones de datos, la privacidad y los prejuicios también son las principales preocupaciones, además de si la IA eliminará puestos de trabajo. “Dados estos riesgos, el uso de la tecnología GenAI siempre debe evaluarse para determinar si esta herramienta es necesaria y beneficiosa para resolver un problema en comparación con el estado actual. quo”, dice el informe. Mientras el estado trabaja en pautas para el uso de IA generativa, el informe dice que, mientras tanto, los empleados estatales deben cumplir con ciertos principios para salvaguardar los datos de los californianos. Por ejemplo, los empleados estatales no deberían proporcionar datos de los californianos a herramientas de IA generativa como ChatGPT o Bard de Google ni utilizar herramientas no aprobadas en dispositivos estatales, según el informe. El uso potencial de la IA va más allá del gobierno estatal. Los organismos encargados de hacer cumplir la ley, como la policía de Los Ángeles, planean utilizar inteligencia artificial para analizar el tono y la elección de palabras de los agentes en los videos de las cámaras corporales. Los esfuerzos de California para regular algunas de las preocupaciones de seguridad, como los prejuicios que rodean a la IA, no ganaron mucho impulso durante la última sesión legislativa. Pero los legisladores han presentado nuevos proyectos de ley para abordar algunos de los riesgos de la IA cuando regresen en enero, como proteger a los trabajadores del entretenimiento de ser reemplazados por clones digitales. Mientras tanto, los reguladores de todo el mundo todavía están descubriendo cómo proteger a las personas de los riesgos potenciales de la IA. En octubre, el presidente Biden emitió una orden ejecutiva que describía estándares en materia de seguridad a medida que los desarrolladores crean nuevas herramientas de inteligencia artificial. La regulación de la IA fue un tema importante de discusión en la reunión de Cooperación Económica Asia-Pacífico en San Francisco la semana pasada. Durante un panel de discusión con ejecutivos de Google y la empresa matriz de Facebook, Meta, Altman dijo que pensaba que la orden ejecutiva de Biden era un «buen comienzo». “Aunque había áreas de mejora. Los modelos actuales de IA, dijo, están «buenos» y no se necesita una «regulación estricta», pero expresó preocupación por el futuro. «En algún momento, cuando el modelo pueda generar la producción equivalente a toda una empresa y luego a todo un país y luego a todo el mundo, tal vez queramos algún tipo de supervisión global colectiva de eso», dijo, un día antes de ser despedido como director ejecutivo de OpenAI.

Página 2 de 20

Funciona con WordPress & Tema de Anders Norén