Todo lo que necesitas saber sobre tecnología

Etiqueta: ai Página 16 de 17

Explorando el ecosistema de tecnología profunda de Sydney


BESydney le presenta este artículo patrocinado. En el panorama dinámico de la tecnología australiana, los avances del mercado a menudo se atribuyen a productos centrados en el consumidor como Canva y Afterpay. Estas, junto con otras empresas globales como Atlassian, Facebook y Apple, han captado titulares y atención con sus reconocidas historias de éxito y se han convertido en la cara de la industria tecnológica. Los logros de estas empresas son notables. Generan una inmensa riqueza para las partes interesadas y los empleados y cuentan con un valor de mercado asombroso. Pero este lado destacado de la industria es sólo la punta del iceberg. La tecnología profunda, caracterizada por innovaciones científicas revolucionarias, es donde tienen lugar los impactos ocultos. Debajo de la superficie de estos gigantes tecnológicos se encuentra una industria próspera dedicada a la investigación y el desarrollo de soluciones que abordan problemas a gran escala, con un profundo efecto en la sociedad. El poder de la tecnología profunda La industria tecnológica en Australia es una potencia, que emplea a uno de cada 16 australianos y ubicándose como la tercera industria más grande del país. En 2021, representó el 8,5 por ciento del PIB, una contribución innegablemente significativa a la economía del país. Durante casi dos décadas, Sydney también ha nutrido una próspera comunidad de solucionadores de problemas resilientes, traspasando silenciosamente los límites del descubrimiento científico. Si bien los gigantes tecnológicos centrados en el consumidor a menudo acaparan la atención, es imperativo reconocer el profundo impacto de las soluciones de tecnología profunda que operan entre bastidores. Desde la fabricación de tejidos ecológicos y el almacenamiento de hidrógeno hasta el diagnóstico molecular y las alternativas sostenibles a los plásticos, las mentes más brillantes de Sydney están abordando algunos de los desafíos más apremiantes del mundo. La transformación de las nuevas empresas de tecnología profunda Navegar por el panorama de la tecnología profunda no es una tarea fácil. Estas empresas ofrecen soluciones a largo plazo a desafíos globales apremiantes –un beneficio que no se puede ignorar–, pero las innovaciones tecnológicas profundas requieren mucho tiempo para investigación y desarrollo, y a menudo se incuban durante años antes de llegar al mercado. Exigen una inversión sustancial y un enfoque inquebrantable. Encontrar el camino correcto hacia la comercialización es primordial. Afortunadamente, las incubadoras se están convirtiendo en campeonas en la transformación exitosa de nuevas empresas de tecnología profunda en negocios prósperos. “El ADN de Sydney exige una visión profundamente arraigada, una creencia inquebrantable en la resolución de problemas y la determinación de perseverar a pesar de los desafíos”. —Sally-Ann Williams, Cicada InnovationsCicada Innovations es la incubadora de tecnología profunda más grande y antigua de Australia. Sabe mejor que nadie hasta qué punto la profunda evolución tecnológica de Australia depende del poder de las nuevas empresas. Con más de 365 empresas residentes incubadas, más de $1700 millones recaudados, más de $1400 millones de salidas y más de 900 patentes presentadas, estas empresas dinámicas ya están encabezando avances innovadores. Está creando robots inteligentes y siendo pionero en entregas a escala con drones para minimizar los impactos ambientales en el transporte. Está reduciendo drásticamente el costo de los medicamentos contra el cáncer, ofreciendo esperanzas de prolongar la vida y aliviando el sufrimiento. Y está creando herramientas agrícolas innovadoras para mejorar los rendimientos agrícolas y contribuir a la seguridad alimentaria mundial. La directora ejecutiva de Cicada Innovations, Sally-Ann Williams, cree que Sydney es un lugar ideal para la incubación de tecnología profunda. Cicada Innovations Un centro próspero para la innovación tecnológica profunda Con su vibrante ecosistema, Sydney emerge como un centro ideal para revelar y seguir desarrollando innovaciones tecnológicas profundas. El espíritu australiano, moldeado por la resiliencia y la resolución de problemas, prospera en esta ciudad. Sally-Ann Williams, directora ejecutiva de Cicada Innovations, afirma que «el ADN de Sydney exige una visión profundamente arraigada, una creencia inquebrantable en la resolución de problemas y la determinación de perseverar a pesar de los desafíos». La ciudad ofrece una comunidad solidaria, que facilita conexiones y acceso al talento necesario para que los emprendedores persigan sus sueños. Es esta combinación única de ingredientes la que impulsa el crecimiento de las empresas de tecnología profunda, impulsándolas hacia el éxito. Diagnóstico molecular SpeeDX, profesora Alison Todd AM y Dra. Elisa Mokany. BESydney Descubra la tecnología profunda en Tech Central La tecnología profunda es solo una faceta de lo que está sucediendo en Tech Central. Si bien arrojamos luz sobre estos logros de la industria y avances celebrados, es crucial apoyar y fomentar el crecimiento de una industria más amplia: una que prospera gracias a la resiliencia, la resolución de problemas y el espíritu empresarial visionario. Sídney, con su combinación única de comunidad, talento, y recursos: está a la vanguardia de esta revolución transformadora, lista para impulsar la innovación tecnológica en beneficio de todos. Para obtener más información sobre la industria tecnológica de Sydney y cómo organizar su próxima conferencia en Sydney, visite besydney.com.au.

Source link

iOS 18 es demasiado problemático y obliga a Apple a pausar la adición de funciones

Apple lanzó iOS 17 para iPhone no hace mucho. Y si bien la actualización agregó mejoras monumentales, desde el principio también estuvo plagada de muchos errores y problemas que continúan solucionándose. Como resultado, Apple aparentemente dejó de agregar nuevas funciones con el iOS 18 del próximo año y se centró en mejorar el rendimiento del próximo software. Aunque todavía faltan varios meses para la vista previa de iOS 18, eso no significa que no recibamos actualizaciones relevantes sobre el software. El prolífico Mark Gurman de Bloomberg ahora informa que Apple ha dado prioridad a corregir los errores en la primera versión desarrollada de iOS 18 que comenzó la semana pasada. Agregó que se suponía que el fabricante de iPhone comenzaría con la siguiente etapa de desarrollo de iOS 18, donde debería introducir más funciones. Sin embargo, en su revisión reciente se descubrió que la primera versión generaba numerosos errores que afectaban la calidad general del firmware. El A16 Bionic, junto con 6 GB de RAM LPDDR5, ofrece un rendimiento constante. / © nextpit En consecuencia, esta fue razón suficiente para que los ejecutivos de software de Apple decidieran e implementaran una semana para eliminar únicamente los problemas molestos y limpiar todo. Se dijo que la firma tecnológica de Cupertino planea levantar el paro esta semana y continuar con su segunda etapa de desarrollo al mismo tiempo. Además de iOS 18, tanto watchOS 11 como macOS 15, que son actualizaciones de watchOS 10 y macOS Sonoma, respectivamente, también se ven afectados por una cantidad comparable de problemas preocupantes. Sin embargo, se cree que el trabajo para las dos plataformas será en paralelo con iOS 18 y debería continuar en cualquier momento de esta semana. No está claro si el obstáculo actual retrasará la fecha de lanzamiento de iOS 18. Se espera que Apple anuncie el software en la próxima WWDC en junio de 2024, mientras que los próximos iPhone 16 y iPhone 16 Pro deberían arrancar según él. Aparte de las capacidades de IA generativa o tipo ChatGPT, se sabe muy poco sobre las nuevas características de iOS 18. Oferta de afiliado ¿Crees que Apple no ha hecho el suficiente esfuerzo para preparar completamente su software recientemente? ¿Y cómo ha sido tu experiencia con iOS 17 hasta ahora? Dispáranos con tus respuestas en la sección de comentarios.

Source link

Las funciones de inteligencia artificial del Samsung Galaxy S24 podrían venir como un servicio pago

Con el iPhone 15 (revisión) ya dominando el podio de los teléfonos inteligentes premium, Samsung podría necesitar más que un buen hardware con el Galaxy S24 para contrarrestar el dominio de Apple. Es por eso que se rumorea que traerán características de software prometedoras, como el uso de IA, a sus próximos buques insignia. Sin embargo, parece que esta incorporación podría tener un precio adicional. Anteriormente se informó que el Galaxy S24 y el Galaxy S24 Ultra podrían debutar con funciones de IA generativa en el dispositivo, como la creación de texto a imagen y la entrada de comandos de voz complejos, entre otras. Esto es posible gracias al SoC Snapdragon 8 Gen 3 que incorpora grandes capacidades de aprendizaje automático. También se dice que el chip Exynos 2400 que alimenta algunas otras variantes de dispositivos regionales tiene una potencia informática de IA comparable. En X (anteriormente Twitter), el filtrador frecuente Tech_Reve especula que Samsung podría estar planeando lanzar funciones de inteligencia artificial en el Galaxy S24 detrás de un muro de pago. Si se materializa, eso significa que la función solo será accesible para suscriptores de pago y no para usuarios habituales del Galaxy S24. ¿Más funciones exclusivas del Samsung Galaxy S24 Ultra? En cuanto a la autenticidad del reclamo, no hay otra información actual que lo respalde. Sin embargo, podemos hacer referencia a que Google actualmente está limitando algunas habilidades de IA generativa en el Pixel 8 Pro (revisión) y no con los otros modelos de Pixel. Además, el gigante de las búsquedas también utiliza la nube e Internet para procesar los datos en lugar del procesamiento en el dispositivo. El renderizado del Samsung Galaxy S24 Ultra muestra un módulo de cámara avanzado. / © On Leaks Es posible que la generación en el dispositivo del Galaxy S24 sea una ventaja clave de por qué los coreanos apuestan por el servicio de IA basado en suscripción. Pero nuevamente, esto parece ser un movimiento contraproducente por parte de Samsung. Alternativamente, Samsung podría hacer que las funciones de IA sean exclusivas de su modelo de gama alta Galaxy S24 Ultra, reflejando la estrategia de Google. Además del uso de IA, el Samsung Galaxy S24 tiene lados planos y el Ultra aprovecha el marco de titanio. También hay cámaras actualizadas y mensajería satelital bidireccional para el trío junto con baterías más grandes en los modelos estándar Galaxy S24. Oferta de afiliado ¿Espera que la IA generativa sea una adición notable al Galaxy S24? ¿Estás dispuesto a pagar por usarlo? Comparte con nosotros tus pensamientos en los comentarios.

Source link

Las funciones de inteligencia artificial del Samsung Galaxy S24 podrían bloquearse detrás de un muro de pago

Cuando se utilizan servicios en línea gratuitos, generalmente existe la opción de pagar por una versión más premium de ese servicio que viene con ventajas adicionales que algunos usuarios podrían apreciar. Pero, ¿qué pasaría si pagaras por un producto y luego te dijeran que tienes que pagar más para utilizar algunas de sus funciones? Eso es lo que Samsung podría estar planeando hacer con su próxima serie de teléfonos Galaxy S24, donde una publicación en X de @Tech_Reve afirma que Samsung está jugando con la idea de cobrar a los usuarios una tarifa de suscripción para usar las funciones de IA del dispositivo. Samsung está buscando activamente la opción de ofrecer las funciones de IA en el dispositivo del S24 como un servicio de «suscripción». – Revegnus (@Tech_Reve) 6 de noviembre de 2023 Ahora, anteriormente se rumoreaba que la IA podría ser una gran característica nueva de los teléfonos Galaxy S24. Se suponía que esto sería algo bueno, ya que finalmente podría traer algunas características que lo pondrían a la par con la serie de teléfonos Pixel de Google, pero si este rumor es cierto, no estamos seguros de que sea una buena idea. No está claro por qué Samsung podría querer cobrar por esto. Sabemos que empresas como Apple y Google ofrecen servicios de suscripción para cosas como almacenamiento en la nube, música y vídeos, pero es justo porque son cosas adicionales que no necesariamente restan valor a la experiencia del usuario si los usuarios deciden no pagar por ellas. En este caso, si Samsung va a darle mucha importancia a la IA en sus teléfonos Galaxy S24, bloquear esas funciones detrás de un muro de pago parece completamente tonto. Esperemos que no sea cierto, pero tendremos que esperar y ver cómo llega enero de 2024.

Source link

El festival de cine AI da una idea del posible futuro de la realización de películas


Los blazers rozaron la ropa de calle. Cámaras en miniatura colgaban de los pendientes de una mujer. En la sudadera con capucha de un hombre se leía: “Rendered With Love”. Enviados de dos planetas paralelos, el software y el mundo del espectáculo, se mezclaron en el Teatro Cary Grant el jueves por la noche mientras esperaban que comenzara el espectáculo. Algunos recordaron historias del Festival de Cine de Cannes; otros debatieron los méritos de diferentes plataformas de inteligencia artificial y pontificaron sobre el futuro de la «IA portátil». Todos se habían reunido, varios cientos de ellos, en el lote de Sony Pictures para un festival de cine destinado a resaltar el naciente mundo de la IA asistida. cine. Y aunque el ambiente en el lugar era de entusiasmo y curiosidad, llegó en un momento excepcionalmente tenso para las dos industrias entrelazadas. Después de todo, hace solo unas pocas semanas los guionistas de Hollywood concluyeron una huelga prolongada que los encontró formando piquetes. afuera de Sony y otros estudios importantes en protesta por, entre otras cosas, la amenaza que la IA representa para sus medios de vida. El sindicato de escritores finalmente consiguió un contrato que incluía regulaciones sustanciales sobre el uso de la tecnología para escribir guiones de programas y películas, pero sus homólogos en pantalla en el Screen Actors Guild siguen en huelga por sus propias preocupaciones sobre la automatización. Sin embargo, en Emergent Properties, En el festival respaldado por Adobe que presentó seis cortometrajes realizados con una gran cantidad de módulos y técnicas de IA, esa discordia fue en gran medida ruido de fondo. En cambio, la atención se centró en las puertas que la IA puede abrir para cineastas independientes y aficionados. Vamos a escuchar mucho sobre la IA”, dijo Mike Gioia, uno de los organizadores del evento y cofundador de la startup de flujo de trabajo de IA Pickaxe, durante sus comentarios introductorios. “Pero en realidad, esta noche se trata de personas. Se trata de los cineastas. Y para cualquiera que sea cineasta en Los Ángeles, la realidad con la que se enfrenta es que hay tantos obstáculos que debe superar para sacar una idea de su cabeza y llevarla a la pantalla”. Continuó: “En el mejor de los casos En este escenario, lo que hace la IA es simplemente crear [that] mucho más simple”. Muchos de los cineastas participantes enfatizaron lo que significa el software de inteligencia artificial para los creativos de menor tiempo: personas cuyos proyectos apasionantes generalmente existen fuera del ecosistema de Hollywood sujeto a las recientes huelgas. Una escena de “/Imagine” de la cineasta francesa Anna Apter, proyectada durante el festival Emergent Properties. (Jay L. Clendenin / Los Angeles Times) “Quería hacer algo en mi habitación y no tener que esperar dos o tres semanas para que alguien dijera: ‘Está bien, hagamos esto o aquello’”, dijo Anna Apter, directora. que utilizó imágenes generadas por IA de fiestas de cumpleaños infantiles para un monólogo sobre la soledad en su cortometraje «/Imagine». Hablando desde París antes del evento, al que no pudo asistir en persona, añadió: «Sé cómo todos Estos trabajos pueden verse amenazados por la IA. Pero siento que le da a la gente que no tiene grandes presupuestos: ya no tenemos excusas, ¿sabes? Podemos hacer cualquier cosa”. “La idea es… ¿cómo podemos tomar este modelo tradicional y no tener miedo de estas herramientas de inteligencia artificial, sino encontrar una manera estratégica de permitirles trabajar con todos los artistas involucrados”, dijo Quinn Halleck, quien utilizó IA durante el desarrollo de «Sigma_001», un cortometraje que se inspiró en la historia de la vida real de un ingeniero de Google que pensó que el chatbot de IA de la compañía podría haberse vuelto sensible. Pero no todos son tan optimistas sobre cómo estos dos sectores chocarán. se enfrentan entre sí a medida que la IA continúa desarrollándose. En los últimos meses, la producción de Hollywood se ha paralizado en medio de huelgas duales del sindicato de guionistas WGA y SAG-AFTRA, el sindicato de actores, los cuales han expresado su preocupación de que la IA pueda dejar a la gente sin trabajo o neutralizar su creatividad. La WGA finalmente consiguió un contrato que no cerró la puerta a la escritura de guiones con IA, pero sí dijo que no se puede obligar a los escritores a utilizar el software y bloqueó a los estudios para que no excluyeran por completo a los miembros del sindicato. Los actores, que siguen en huelga, han centrado sus preocupaciones en la simulación digital de actuaciones. La Alianza de Productores de Cine y Televisión, que representa a los principales estudios de Hollywood en las negociaciones laborales, ha sostenido que los actores conservarán el control sobre sus retratos. Incluso el festival cinematográfico «Propiedades emergentes» provocó cierta reacción. Después del evento, Gioia, una de las organizadoras, publicó una invitación a la exhibición en un foro de Reddit para cineastas de Los Ángeles. La respuesta, al menos públicamente, fue abrumadoramente negativa. “No estoy tratando de ser un ludita y darme cuenta de que la IA está llegando, lo quiera o no la industria en su conjunto, sino de mal gusto y mal momento”, se lee en el comentario principal. Otro crítico de alto rango agregó: “Especialmente con las huelgas en curso, estás bastante fuera de lugar”. En mensajes privados, la gente apoyó más el evento, dijo Gioia, y muchos terminaron asistiendo al festival. Sin embargo, dijo, entiende por qué muchos comentaristas fueron críticos. “Para las personas que trabajan en el cine por un sueldo haciendo trabajos calificados pero no creativos (como instalar luces), es bastante aterrador y no tiene ninguna ventaja”. (Sony, una empresa golpeada, no patrocinó el evento, dijo Gioia; los organizadores del festival simplemente alquilaron el lugar al estudio). La IA que se exhibió en el evento del jueves se utilizó en gran medida con fines de efectos especiales. en lugar de reemplazar a los actores con dobles digitales como lo han enfatizado las preocupaciones de SAG-AFTRA. Algunos de los cineastas utilizaron IA para escribir o desarrollar sus guiones, según un folleto del evento, y algunas películas presentaban rostros o voces generadas por IA. Algunos asistentes al evento admitieron sentir algunas dudas sobre el auge de la IA. Una escena de “Zebulon Five” de los cineastas Caleb Ward y Aminah Folli. Ward dirige la comunidad de narración de IA Curious Refuge con su esposa, Shelby. (Jay L. Clendenin / Los Angeles Times) Shelby Ward, cofundadora de Curious Refuge, una comunidad en línea para narradores de IA que ayudó a crear uno de los participantes de la noche, un “documental” de naturaleza sobre un planeta alienígena, preguntó a la audiencia durante en una sesión de preguntas y respuestas posterior a la proyección cuántas personas habían jugado con la IA. Muchos levantaron la mano. Ella continuó: “Yo también tengo curiosidad: ¿quién está un poco nervioso con estas herramientas? ¿Alguien un poco ansioso, un poco abrumado?” Se levantaron un puñado de manos, menos que antes, pero no ninguna. “Diría que caí en eso, lo hice”, dijo Ward. «Pasé por unos meses en los que mi paradigma estaba cambiando». Pero dedicar tiempo a explorarlo, continuó, hará que la gente se sienta más cómoda con el software. Los cineastas participantes advirtieron que esta tecnología todavía tiene sus límites. Mantener la apariencia de los personajes consistente entre tomas es difícil, dijeron; Los ojos siguen desconcertando al software. “En este momento, es imposible que cuente una buena historia”, dijo Paul Trillo, otro cineasta. Continuó, entre aplausos: “Creo que eso depende de la gente”. (La proyección de Trillo esa noche fue un video musical filmado en el Louvre que utilizó efectos de inteligencia artificial para distorsionar y desfigurar obras de arte clásicas. La presunción, dijo a The Times anterior es “un poco irónico”). Sin embargo, enfatizaron los realizadores, la tecnología de inteligencia artificial está mejorando rápidamente. Varios hablaron de tener que regresar y rehacer partes de sus películas durante la producción porque había aparecido una herramienta mejor y más nueva a mitad del proceso. En el mundo del cine con inteligencia artificial, dijo Trillo, «‘imposible’ es un término muy temporal».

Source link

La nueva supercomputadora de inteligencia artificial del Reino Unido, valorada en £225 millones, se encuentra entre las más rápidas del mundo

La nueva supercomputadora de IA será la más rápida del Reino Unido cuando se lance en 2024 y aprovechará la inteligencia artificial para impulsar avances en ciencia de vanguardia. La supercomputadora Isambard-AI estará alojada en el Centro Nacional de Composites en Bristol, Reino Unido. Imagen: NCC El gobierno del Reino Unido está gastando £225 millones ($280 millones) en un intento por construir una de las supercomputadoras más rápidas del mundo, capaz de entregar más de 200 petaflops. – unos 200 billones de cálculos – cada segundo. Isambard-AI, que lleva el nombre del ingeniero británico pionero Isambard Kingdom Brunel, será 10 veces más rápido que el actual superordenador más rápido del Reino Unido, ARCHER2, y es una de las dos nuevas máquinas que se están construyendo para impulsar avances en robótica, análisis de datos, energía de fusión, atención sanitaria y investigación climática. Saltar a: Construyendo la supercomputadora más poderosa de Gran Bretaña Construida por Hewlett Packard Enterprise y alojada en la Universidad de Bristol, Isambard-AI comprenderá casi 5000 superchips NVIDIA GH200 Grace Hopper y contribuirá con 21 exaflops de rendimiento de IA a los investigadores cuando se inaugure en el National Composites de Bristol. Centro a mediados de 2024 (Figura A). Figura A Una maqueta de la supercomputadora Isambard-AI, que será la más rápida del Reino Unido cuando se lance en el verano de 2024. Imagen: HPE Más cobertura de IA de lectura obligada Simon McIntosh-Smith, profesor de la Universidad de Bristol y director del Isambard National Research Facility, dijo en un comunicado de prensa de HPE que Isambard-AI representaba “un gran salto adelante para el poder computacional de la IA” para el Reino Unido. «Hoy en día, Isambard-AI estaría entre las 10 supercomputadoras más rápidas del mundo y, cuando entre en funcionamiento a finales de 2024, será uno de los sistemas de IA para ciencia abierta más poderosos del mundo», dijo McIntosh-Smith en el comunicado de prensa. . Y añadió: «Es inmensamente emocionante estar a la vanguardia de la revolución de la IA y asociarnos con los líderes de la industria HPE y NVIDIA para construir e implementar rápidamente una infraestructura informática de investigación a gran escala para crear una de las supercomputadoras más poderosas del mundo». El Reino Unido se propone convertirse en el líder mundial en IA Isambard-AI se anunció por primera vez en septiembre de 2023 como parte de los planes del gobierno del Reino Unido para establecer un nuevo recurso de investigación de IA, o AIRR, para “impulsar la investigación y la innovación pioneras en IA en el Reino Unido”. y convertir al país en líder mundial en inteligencia artificial. La inyección de fondos para la nueva supercomputadora fue anunciada por el Departamento de Ciencia, Innovación y Tecnología del Reino Unido durante la Cumbre de Seguridad de IA de la semana pasada, donde también reveló planes para triplicar la inversión en AIRR de £100 millones (£124 millones) a £300 millones ( 372 millones de dólares). Isambard-AI se conectará a otra supercomputadora llamada Dawn, que está siendo construida por Dell, Intel y la consultora informática británica StackHPC en asociación con la Universidad de Cambridge, y que comenzará a funcionar en los próximos meses. Juntos, Isambard-AI y Dawn proporcionarán a investigadores y científicos «más de 30 veces la capacidad de las actuales herramientas informáticas públicas de IA del Reino Unido», según DIST. Apoyar la investigación del gobierno del Reino Unido sobre los riesgos y la seguridad de la IA. Las instalaciones de supercomputación de Bristol serán accesibles para una serie de organizaciones británicas con fines de investigación de la IA. Se dará acceso prioritario al Frontier AI Taskforce del gobierno del Reino Unido «para apoyar su trabajo para mitigar los riesgos planteados por las formas más avanzadas de IA, incluida la seguridad nacional frente al desarrollo de armas biológicas y ciberataques», como se indica en el comunicado de prensa del gobierno del Reino Unido. sobre Isambard-AI. La instalación también apoyará el trabajo realizado por el AI Safety Institute, el organismo gubernamental recientemente formado encargado de probar la seguridad y viabilidad de nuevos modelos de IA antes y después de su implementación para ayudar a informar la política gubernamental. ¿Qué tamaño tiene la industria de la IA en el Reino Unido? Según el gobierno del Reino Unido, en marzo de 2023, la inteligencia artificial ya aporta más de 3.700 millones de libras esterlinas (4.600 millones de dólares) a la economía del Reino Unido y emplea a más de 50.000 personas. Afirma que el país alberga el doble de empresas de inteligencia artificial que cualquier otra nación europea, y que «cientos más» se instalan en el Reino Unido cada año. Justin Hotard, vicepresidente ejecutivo y director general de HPC, IA y laboratorios de HPE, dijo en el comunicado de prensa de HPE que la reciente inversión del Reino Unido en supercomputación de IA subraya «su compromiso de tomar una posición de liderazgo global en IA». Hotard añadió: «El sistema Isambard-AI aprovechará la supercomputación líder en el mundo, incluidas las redes de alto rendimiento desarrolladas conjuntamente en los laboratorios de HPE en Bristol, para proporcionar el rendimiento y la escala necesarios para proyectos de IA con uso intensivo de computación». Y añadió: «Estamos orgullosos de asociarnos con el gobierno del Reino Unido y la Universidad de Bristol para brindar a los investigadores y a la industria del Reino Unido acceso al sistema de inteligencia artificial para ciencia abierta más grande de Europa». VER: Financiamiento inicial de IA del Reino Unido: el Instituto Alan Turing identifica una enorme disparidad de género Detalles técnicos sobre la supercomputadora Isambard-AI Isambard-AI se construirá utilizando el marco de supercomputación HPE Cray EX y contará con el marco de interconexión HPE Slingshot 11, que está diseñado para manejar el rendimiento masivo de datos necesario para simulaciones complejas y cargas de trabajo de IA. Cuando se active, se espera que la supercomputadora alcance más de 200 petaflops de rendimiento informático según el punto de referencia Top500 LINPACK, el estándar para medir la velocidad de procesamiento de un sistema informático. Esta potencia informática permitirá 21 exaflops de rendimiento de IA, siendo un exaflop una medida de quintillones de operaciones de punto flotante por segundo utilizadas para medir tareas computacionales especializadas de IA. En perspectiva, los últimos teléfonos inteligentes del mercado “sólo” son capaces de realizar billones de cálculos por segundo. La supercomputadora estará alojada en un centro de datos autónomo y refrigerado por sí mismo en NCC, con sede en Bristol & Bath Science Park. NCC es uno de los siete centros de investigación en todo el Reino Unido que forman High Value Manufacturing Catapult, que ofrece acceso a instalaciones y experiencia de investigación y desarrollo que de otro modo serían inaccesibles para las empresas del Reino Unido. Según NVIDIA, una segunda supercomputadora basada en Arm que llegará al NCC el próximo año, llamada Isambard 3, ofrecerá aproximadamente 2,7 petaflops de rendimiento informático y consumirá menos de 270 kilovatios de energía, lo que la ubicará «entre las tres supercomputadoras no aceleradas más ecológicas del mundo». .” Ian Buck, vicepresidente de hiperescala y HPC de NVIDIA, dijo en el comunicado de HPE: “Al construir una de las supercomputadoras de IA más rápidas del mundo, el Reino Unido está demostrando la importancia de que las naciones creen su propia infraestructura. Isambard-AI proporcionará a los investigadores los mismos recursos informáticos de IA y HPC de última generación utilizados por los principales pioneros de la IA del mundo, lo que permitirá al Reino Unido introducir la próxima ola de IA y avances científicos”.

Source link

ChatGPT ahora se puede personalizar en su propio chatbot único

Calvin Wankhede / Android AuthorityTL;DR OpenAI ha introducido versiones personalizables de ChatGPT llamadas GPT. Si es usuario de ChatGPT Plus o Enterprise, puede comenzar a probar GPT de ejemplo hoy. OpenAI planea lanzar una tienda GPT a finales de este mes. Hoy, OpenAI celebró su conferencia de desarrolladores, donde hizo varios anuncios de ChatGPT. Entre esos anuncios, reveló que está lanzando versiones personalizables de su chatbot llamadas GPT. Según OpenAI, los GPT son una forma para que los usuarios creen sus propias versiones personalizadas del popular chatbot. La empresa dice que no es necesario codificar; Han creado GPT para que cualquiera pueda construirlos. Las personas también pueden compartir los GPT que crean con otros. Según se informa, los GPT se pueden utilizar para una variedad de tareas, ya sea para el trabajo o la vida diaria. Algunos ejemplos que ofrece la compañía incluyen el uso de GPT para “aprender las reglas de cualquier juego de mesa, ayudar a enseñar matemáticas a sus hijos o diseñar pegatinas”. En cuanto a la privacidad, OpenAI afirma que los usuarios tendrán el control de sus datos. Según se informa, los chats no se comparten con el creador de GPT y, si un GPT tiene API de terceros, podrá elegir qué datos se envían a la API. Además, parece que la compañía está implementando un nuevo sistema de revisión destinado a evitar el intercambio de GPT dañinos. A finales de este mes, OpenAI dice que planea lanzar una tienda de GPT donde las personas pueden buscar el GPT que desean. Contendrá creaciones de desarrolladores verificados y destacará los «GPT más útiles y encantadores». La compañía no revela exactamente cuándo, pero dice que en los próximos meses los creadores podrán ganar dinero en función de cuántas personas estén usando su GPT. Si quieres probar un GPT de ejemplo ahora mismo, tendrás que ser ChatGPT Plus. o suscriptor empresarial. Sin embargo, OpenAI dice que pronto implementará GPT para más usuarios. Comentarios

Source link

El primer LLM verdaderamente abierto y adaptado a instrucciones del mundo por menos de 30 $

Free Dolly 2.0: el primer LLM verdaderamente abierto y ajustado a instrucciones del mundo por menos de 30 $ Dolly 2.0 es un popular modelo de aprendizaje profundo utilizado en el campo de la visión por computadora para tareas de segmentación de imágenes y detección de objetos. El modelo es de código abierto y se puede descargar y configurar de forma gratuita. En este artículo, recorreremos el proceso de instalación y configuración del modelo Free Dolly 2.0. Paso 1: Requisitos Antes de comenzar el proceso de instalación, asegúrese de que su sistema cumpla con los siguientes requisitos: GPU NVIDIA con un mínimo de 4 GB de memoria. CUDA 10.0 o superior. CUDNN 7.5 o superior. Python 3.6 o superior. TensorFlow 2.3 o superior. Paso 2: descargue el modelo Free Dolly 2.0. El modelo Free Dolly 2.0 se puede descargar desde el repositorio oficial de GitHub. Navegue hasta el repositorio y haga clic en el botón «Clonar o descargar». Puede descargar el archivo ZIP o clonar el repositorio usando el siguiente comando: git clone https://github.com/thtrieu/darkflow.git Paso 3: Instalar dependencias Una vez que haya descargado el modelo Free Dolly 2.0, deberá instalarlo. sus dependencias. Abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para instalar las dependencias: pip install -r requisitos.txt Paso 4: Compile el modelo Free Dolly 2.0 Después de instalar las dependencias, debe compilar el modelo Free Dolly 2.0. Este paso es necesario para convertir el modelo del formato TensorFlow al formato Darkflow. Ejecute el siguiente comando en la ventana de terminal: python setup.py build_ext –inplace Paso 5: Descargue los pesos previamente entrenados El modelo Free Dolly 2.0 requiere pesos previamente entrenados para realizar tareas de detección de objetos. Puede descargar las pesas previamente entrenadas desde el siguiente enlace: https://pjreddie.com/media/files/yolov2.weights Una vez que haya descargado las pesas previamente entrenadas, colóquelas en el mismo directorio donde descargó el software gratuito. Modelo Dolly 2.0. Paso 6: Configurar el modelo Free Dolly 2.0 Ahora que ha descargado y compilado el modelo Free Dolly 2.0, necesita configurarlo. Abra el archivo de configuración cfg/yolo.cfg en un editor de texto. Este archivo contiene los parámetros de configuración del modelo. Puede modificar los siguientes parámetros para personalizar el modelo: lote: el número de imágenes a procesar a la vez. subdivisiones: el número de subdivisiones por lote. ancho: El ancho de la imagen de entrada. altura: la altura de la imagen de entrada. canales: el número de canales de color en la imagen de entrada. impulso: El impulso del optimizador. decaimiento: El decaimiento del optimizador. learning_rate: la tasa de aprendizaje del optimizador. Asegúrese de guardar los cambios después de modificar el archivo de configuración. Paso 7: Pruebe el modelo Free Dolly 2.0 Para probar el modelo Free Dolly 2.0, abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para probar el modelo: python flow –model cfg/yolo.cfg –load yolov2.weights –imgdir sample_img/ Este comando ejecutará el modelo Free Dolly 2.0 en las imágenes de muestra proporcionadas en el directorio sample_img. Si todo está configurado correctamente, debería ver el resultado del modelo en la ventana de la terminal. Paso 8: Utilice el modelo Free Dolly 2.0 Ahora que ha instalado y probado el modelo Free Dolly 2.0, puede utilizarlo para realizar tareas de detección de objetos en sus propias imágenes o vídeos. Para hacerlo, siga estos pasos: Paso 8: Prepare los datos de entrada El modelo Free Dolly 2.0 requiere datos de entrada en forma de imágenes o videos. Asegúrese de que sus datos de entrada estén en un formato que sea compatible con el modelo. Puede utilizar cualquier software de edición de imágenes o vídeos para preparar los datos de entrada. Paso 9: Ejecute el modelo Dolly 2.0 gratuito Abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para ejecutar el modelo en sus datos de entrada: Paso 10: Analizar la salida Una vez que el modelo haya terminado de ejecutarse, puede analizar la salida para identificar objetos en los datos de entrada. La salida del modelo se guardará en el directorio de salida. Puede utilizar cualquier software de edición de imágenes o vídeos para ver el resultado. La salida consistirá en cuadros delimitadores alrededor de los objetos que se detectaron en los datos de entrada. Las casillas estarán etiquetadas con el nombre del objeto y la puntuación de confianza. Puede utilizar el resultado para realizar análisis adicionales o crear visualizaciones. Conclusión El modelo Free Dolly 2.0 es una poderosa herramienta para realizar tareas de detección de objetos en visión por computadora. Siguiendo los pasos descritos en este artículo, puede instalar y configurar el modelo en su propio sistema y utilizarlo para analizar imágenes o vídeos. Con un poco de personalización, puede adaptar el modelo para que se adapte a sus necesidades específicas y realizar tareas más complejas.

Source link

El rival de Musk en ChatGPT, ‘Grok’, puede complacer sus solicitudes de recetas de medicamentos

La empresa de inteligencia artificial de TL;DR Elon Musk, xAI, ha presentado su nuevo chatbot conversacional llamado Grok. La compañía dice que sigue el modelo de La Guía del autoestopista galáctico y que tiene «una racha rebelde». La IA está disponible para seleccionar usuarios X verificados que se registren en el programa de acceso temprano. La empresa de inteligencia artificial de Elon Musk, xAI, ha lanzado un nuevo chatbot llamado Grok para rivalizar con ChatGPT y Google Bard. Según la compañía, Grok sigue el modelo de la franquicia de ciencia ficción de Douglas Adams «La guía del autoestopista galáctico». También se dice que el chatbot tiene «un poco de ingenio» y «una racha rebelde». xAI recomienda que los usuarios no utilicen Grok si no tienen sentido del humor. Los creadores del chatbot también afirman que tiene una ventaja fundamental sobre otras IA conversacionales del mercado gracias a su «conocimiento del mundo en tiempo real a través de la plataforma X». Eso significa que Grok aprende de las publicaciones publicadas en X (anteriormente Twitter). «También responderá preguntas interesantes rechazadas por la mayoría de los otros sistemas de inteligencia artificial», escribió xAI en su publicación introductoria para Grok. Musk publicó un ejemplo de esto con una respuesta de Grok sobre la consulta de un usuario que solicitaba instrucciones paso a paso para producir cocaína. Por supuesto, la IA no se limitó a ofrecer una receta para el medicamento, sino que de todos modos consideró la pregunta. Si le pregunta lo mismo a ChatGPT, simplemente responderá con un rechazo robótico a la solicitud. En este momento, Grok solo está disponible para usuarios X verificados seleccionados que se registren en el programa de acceso temprano de xAI. El chatbot es un producto beta muy temprano y solo ha sido entrenado durante dos meses. Sin embargo, el equipo espera que mejore cada semana que pasa. Cuando se lance ampliamente, el asistente Grok AI se proporcionará como parte de la membresía X Premium a $16 al mes. Comentarios

Source link

Los senadores redactan una política dirigida a las falsificaciones profundas de Drake y Tom Hanks

A fines del mes pasado, Tom Hanks advirtió a sus fanáticos que un video en el que parecía ser cómplice del cuidado dental era en realidad una falsificación generada por IA. Y en abril, una canción que presentaba una imitación artificial de Drake y The Weeknd se volvió viral. Ambos casos ilustran la creciente amenaza que los clones de voz y vídeo generados por máquinas representan para los artistas conscientes de las marcas. Ahora, también están siendo citados por un grupo bipartidista de senadores que están presentando un proyecto de política que buscaría frenar las llamadas falsificaciones profundas. El proyecto de ley, llamado Ley de Fomentar los Originales, Fomentar el Arte y Mantener el Entretenimiento Seguro, o NO FALSIFICACIONES: daría tanto a las celebridades como a la gente común un recurso legal para la replicación no autorizada de IA de su imagen, según un borrador de discusión de la ley. Las personas cuya voz o imagen hayan sido replicadas sin su consentimiento mediante software de inteligencia artificial podrían, bajo la actuar, demandar por daños y perjuicios tanto contra el creador del clon de IA como contra cualquier plataforma que lo haya alojado, publicado o distribuido a sabiendas, según el borrador de discusión. El borrador también incluye una serie de excepciones relacionadas con la Primera Enmienda, incluido el uso de clones digitales para noticias, retransmisiones deportivas y documentales, así como en casos de “comentarios, críticas, erudición, sátira o parodia”. “La inteligencia artificial generativa ha abierto puertas a nuevas e interesantes posibilidades artísticas, pero también presenta desafíos únicos que hacen «Es más fácil que nunca utilizar la voz, la imagen o la semejanza de alguien sin su consentimiento», dijo el senador Chris Coons (demócrata por Delaware), uno de los copatrocinadores del borrador, en una declaración escrita. «Los creadores de todo el país están pidiendo al Congreso que establezca políticas claras que regulen el uso y el impacto de la IA generativa, y el Congreso debe lograr el equilibrio adecuado para defender los derechos individuales, cumplir con la Primera Enmienda y fomentar la innovación y la creatividad en la IA». A su patrocinio se unen los senadores Marsha Blackburn (R-Tenn.), Thom Tillis (RN.C.) y Amy Klobuchar (D-Minn.). El borrador de discusión está destinado a establecer principios generales de lo que piensan los legisladores. cómo debería ser la legislación sobre el tema, al mismo tiempo que sirve como un llamado a recibir comentarios, dijo una persona con conocimiento del borrador del texto que no estaba autorizada a hablar públicamente. El individuo agregó que los legisladores pretenden presentar un proyecto de ley basado en el borrador en los próximos meses. Aunque en la propuesta de los senadores se hace hincapié en nombres conocidos como Hanks, Drake y The Weeknd, el recurso legal en cuestión se extendería también a personas que no son celebridades.“No queremos que los estudios de cine puedan reemplazar a un actor vivo con una IA. versión generada de ese actor”, dijo el experto. “No queremos que la gente sentada en sus sótanos pueda crear canciones que suenen como Drake… y luego enviarlas a plataformas de streaming. … Pero al mismo tiempo, tampoco creemos que esto deba ser exclusivo de personas famosas”. Según el borrador propuesto actualmente, los creadores de clones de IA no podrían defenderse simplemente etiquetando su trabajo como no autorizado. Preocupaciones Los rumores sobre la replicación no autorizada de imágenes de individuos han existido durante años, centrados en gran medida en el uso de la IA para crear imitaciones «profundamente falsas» de políticos y celebridades. Pero una reciente explosión en la calidad y accesibilidad del software de inteligencia artificial ha hecho que el problema sea más inmediato, lo que ha llevado a individuos y grupos laborales a contraatacar. SAG-AFTRA, un sindicato que representa a actores y otros artistas, está actualmente en huelga por una variedad de industrias. cuestiones, incluidas preocupaciones sobre la forma en que los estudios de cine y televisión implementarán clones de IA. El gremio ha estado presionando para que se regule cómo y cuándo se puede utilizar la tecnología, lo que se ha convertido en un punto conflictivo. Los estudios, por su parte, han propuesto nuevas regulaciones que exigen que los artistas den su consentimiento a la creación y el uso de dobles de IA en pantalla. Sin embargo, los negociadores sindicales quedaron insatisfechos. El sindicato y los estudios recientemente retomaron las negociaciones, aunque las conversaciones se interrumpieron nuevamente el miércoles. En un comunicado el jueves por la mañana, SAG-AFTRA dijo que la Ley NO FAKES “proporciona una herramienta invaluable para los artistas”. y el presidente del gremio, Fran Drescher, expresó su gratitud a los firmantes por “trabajar para brindar a los artistas recursos y proporcionar herramientas para eliminar material dañino”. también comentó sobre el borrador de discusión, y el grupo de presión del estudio dijo que anticipaba trabajar con el Congreso para equilibrar las libertades creativas con las protecciones en torno a la IA. Hasta cierto punto, esta tecnología ya ha llegado a la pantalla grande. La última entrega de la franquicia “Indiana Jones”, por ejemplo, presentaba de manera destacada un Harrison Ford envejecido, fabricado en parte mediante inteligencia artificial. Varias nuevas empresas y empresas ya están apuntando a aprovechar el poder de procesamiento de la IA en todo, desde el trabajo de efectos visuales hasta el doblaje de diálogos. «Los compositores, actores y nuestra increíblemente talentosa comunidad creativa merecen el derecho a poseer su nombre, imagen y semejanza», dijo Blackburn. en una oracion. «Esta legislación es un buen primer paso para proteger a nuestra comunidad creativa».

Source link

Página 16 de 17

Funciona con WordPress & Tema de Anders Norén