Todo lo que necesitas saber sobre tecnología

Etiqueta: EE.UU

Hong Kong lanza los primeros ETF deportivos de Bitcoin y Ethereum de Asia

Hong Kong lanzó seis fondos cotizados en bolsa (ETF) de bitcoin y ether el martes (30 de abril) en un movimiento histórico para el mercado asiático de criptomonedas. Los ETF, emitidos por China Asset Management (ChinaAMC), Bosera Asset Management y Harvest Global Investments, permiten a los principales inversores exponerse a Bitcoin y Ethereum en sus carteras sin tener que comprar las monedas ellos mismos. Los datos de la Bolsa de Valores de Hong Kong (HKEX) mostraron que los seis ETF registraron un volumen de negociación combinado de 49,4 millones de dólares de Hong Kong (6,3 millones de dólares estadounidenses) durante la sesión de la mañana de su primer día de negociación. El ETF Bitcoin de ChinaAMC lideró el grupo con una facturación de 22,97 millones de dólares de Hong Kong, seguido por su ETF de Ether con 10,47 millones de dólares de Hong Kong. Cuando los ETF de bitcoin al contado comenzaron a cotizar en Estados Unidos en enero, su facturación diaria alcanzó los 4.600 millones de dólares en el primer día de negociación. En comparación, ChinaAMC dijo que el tamaño de su suscripción durante el período de oferta inicial ascendió a 1.100 millones de dólares de Hong Kong (140,5 millones de dólares), con 950 millones de dólares de Hong Kong para su producto Bitcoin y 160 millones de dólares de Hong Kong para el ETF de ether, informa The Block. El ETF de Ethereum de Hong Kong lo distingue de los EE. UU. La aprobación de los ETF de Ethereum por parte de Hong Kong lo distingue de los EE. UU., donde la Comisión de Bolsa y Valores (SEC) aún no ha aprobado uno debido a las dudas actuales sobre si Ethereum debe considerarse un valor o no. . Aún es temprano para los ETF más nuevos de Hong Kong y los expertos afirman que el potencial de crecimiento es significativo. El director ejecutivo de Harvest Global Investments, Tongli Han, dijo a CNBC: “El potencial del mercado es el doble que el de nuestras contrapartes estadounidenses”, y agregó que espera un crecimiento lento inicialmente, ya que muchos inversores asiáticos prefieren observar desde el margen antes de invertir. Mientras tanto, los precios de Bitcoin experimentaron una caída significativa el mismo día, cayendo de más de $68,000 a $61,900 en 24 horas: una caída del 9% y la caída más pronunciada desde el colapso del intercambio FTX en noviembre de 2022. Los factores que contribuyen a la caída de los precios incluyen salidas de capital de ETF al contado que siguen a Bitcoin, con una salida neta récord de 326 millones de dólares de ETF al contado el martes.

Ocho tendencias empresariales de IA en 2024, según investigadores de Stanford

La IA hace que los trabajadores sean más productivos, pero todavía nos faltan regulaciones, según una nueva investigación. El Informe del Índice de IA 2024, publicado por el instituto de Inteligencia Artificial Centrada en las Personas de la Universidad de Stanford, ha descubierto las ocho principales tendencias de IA para las empresas, incluido cómo la tecnología aún no supera al cerebro humano en todas las tareas. TechRepublic profundiza en las implicaciones comerciales de estas conclusiones, con la información de los coautores del informe Robi Rahman y Anka Reuel. VER: Las 5 principales tendencias de IA a tener en cuenta en 2024 1. Los humanos aún superan a la IA en muchas tareas Según la investigación, la IA todavía no es tan buena como los humanos en las tareas complejas de resolución de problemas matemáticos de nivel avanzado, razonamiento visual de sentido común y planificación ( Figura A). Para llegar a esta conclusión, se compararon los modelos con puntos de referencia humanos en muchas funciones empresariales diferentes, incluida la codificación, el comportamiento basado en agentes, el razonamiento y el aprendizaje por refuerzo. Figura A Rendimiento de los modelos de IA en diferentes tareas en relación con los humanos. Imagen: Informe del índice de IA 2024/HAI de la Universidad de Stanford. Si bien la IA superó las capacidades humanas en clasificación de imágenes, razonamiento visual y comprensión del inglés, el resultado muestra que existe potencial para que las empresas utilicen la IA para tareas en las que el personal humano realmente se desempeñaría mejor. Muchas empresas ya están preocupadas por las consecuencias de una dependencia excesiva de los productos de IA. 2. Los modelos de IA de última generación se están volviendo más caros El Índice de IA informa que entrenar GPT-4 de OpenAI y Gemini Ultra de Google costará aproximadamente 78 millones de dólares y 191 millones de dólares en 2023, respectivamente (Figura B). El científico de datos Rahman dijo a TechRepublic en un correo electrónico: «Con las tasas de crecimiento actuales, los modelos de IA de vanguardia costarán entre 5.000 y 10.000 millones de dólares en 2026, momento en el que muy pocas empresas podrán permitirse estos ciclos de formación». Figura B Costos de capacitación de los modelos de IA, 2017 a 2023. Imagen: AI Index Report 2024/Stanford University HAI/Epoch, 2023 En octubre de 2023, el Wall Street Journal publicó que Google, Microsoft y otros grandes actores tecnológicos estaban luchando por monetizar su capacidad generativa. Productos de IA debido a los enormes costos asociados con su funcionamiento. Existe el riesgo de que, si las mejores tecnologías se vuelven tan caras que sólo son accesibles para las grandes corporaciones, su ventaja sobre las PYMES podría aumentar desproporcionadamente. Esto fue señalado por el Foro Económico Mundial en 2018. Sin embargo, Rahman destacó que muchos de los mejores modelos de IA son de código abierto y, por lo tanto, están disponibles para empresas de todos los presupuestos, por lo que la tecnología no debería ampliar ninguna brecha. Le dijo a TechRepublic: “Los modelos de IA de código abierto y cerrado están creciendo al mismo ritmo. Una de las empresas de tecnología más grandes, Meta, está utilizando código abierto para todos sus modelos, por lo que las personas que no pueden darse el lujo de entrenar ellos mismos los modelos más grandes pueden simplemente descargar los suyos”. 3. La IA aumenta la productividad y la calidad del trabajo Al evaluar una serie de estudios existentes, los investigadores de Stanford concluyeron que la IA permite a los trabajadores completar tareas más rápidamente y mejora la calidad de su producción. Las profesiones en las que esto se observó incluyen programadores informáticos, donde el 32,8% informó un aumento de productividad, consultores, agentes de soporte (Figura C) y reclutadores. Figura C Impacto de la IA en la productividad de los agentes de atención al cliente. Imagen: AI Index Report 2024/Stanford University HAI/Brynjolfsson et al., 2023 En el caso de los consultores, el uso de GPT-4 cerró la brecha entre los profesionales poco calificados y los altamente calificados, y el grupo poco calificado experimentó más de un aumento del rendimiento (Figura D). Otras investigaciones también han indicado cómo la IA generativa en particular podría actuar como un igualador, ya que los trabajadores menos experimentados y menos calificados obtienen más provecho de ella. Figura D Mejora del desempeño laboral de consultores poco y altamente calificados cuando se utiliza IA. Imagen: Informe del índice de IA 2024/HAI de la Universidad de Stanford Sin embargo, otros estudios sugirieron que “el uso de IA sin la supervisión adecuada puede conducir a una disminución del rendimiento”, escribieron los investigadores. Por ejemplo, existen informes generalizados de que las alucinaciones prevalecen en modelos de lenguaje grandes que realizan tareas legales. Otras investigaciones han descubierto que es posible que no alcancemos todo el potencial de las ganancias de productividad impulsadas por la IA hasta dentro de una década, ya que los resultados insatisfactorios, las directrices complicadas y la falta de competencia siguen frenando a los trabajadores. 4. Las regulaciones de IA en los EE. UU. van en aumento El Informe del Índice de IA encontró que, en 2023, había 25 regulaciones relacionadas con la IA activas en los EE. UU., mientras que en 2016 solo había una (Figura E). Sin embargo, esta no ha sido una tendencia constante, ya que el número total de regulaciones relacionadas con la IA creció un 56,3% solo entre 2022 y 2023. Con el tiempo, estas regulaciones también han pasado de ser expansivas con respecto al progreso de la IA a restrictivas, y el tema más frecuente que abordan es el comercio exterior y las finanzas internacionales. Figura E Número de regulaciones relacionadas con la IA activas en los EE. UU. entre 2016 y 2023. Imagen: Informe del índice AI 2024/Universidad de Stanford HAI La legislación relacionada con la IA también está aumentando en la UE, con 46, 22 y 32 nuevas regulaciones aprobadas en 2021. , 2022 y 2023, respectivamente. En esta región, las regulaciones tienden a adoptar un enfoque más amplio y, en la mayoría de los casos, cubren la ciencia, la tecnología y las comunicaciones. VER: NIST establece un consorcio de seguridad de IA Es esencial que las empresas interesadas en la IA se mantengan actualizadas sobre las regulaciones que las afectan, o corren el riesgo de sufrir fuertes sanciones por incumplimiento y daños a su reputación. Una investigación publicada en marzo de 2024 encontró que solo el 2% de las grandes empresas del Reino Unido y la UE conocían la próxima Ley de IA de la UE. Más cobertura de IA de lectura obligada 5. La inversión en IA generativa está aumentando La financiación para productos de IA generativa que generan contenido en respuesta a un mensaje casi se octuplicó de 2022 a 2023, alcanzando los 25.200 millones de dólares (Figura F). OpenAI, Anthropic, Hugging Face e Inflection, entre otros, recibieron importantes rondas de recaudación de fondos. Figura F Inversión privada global total en IA generativa de 2019 a 2023. Imagen: AI Index Report 2024/Stanford University HAI/Quid, 2023 Es probable que el desarrollo de capacidades de IA generativa satisfaga la demanda de las empresas que buscan adoptarlas en sus procesos. En 2023, la IA generativa se citó en el 19,7 % de todas las llamadas sobre resultados de las empresas Fortune 500, y un informe de McKinsey reveló que el 55 % de las organizaciones utilizan ahora la IA, incluida la IA generativa, en al menos una unidad de negocio o función. El conocimiento de la IA generativa aumentó después del lanzamiento de ChatGPT el 30 de noviembre de 2022 y, desde entonces, las organizaciones han estado compitiendo para incorporar sus capacidades en sus productos o servicios. Una encuesta reciente de 300 empresas globales realizada por MIT Technology Review Insights, en asociación con Telstra International, encontró que los encuestados esperan que su número de funciones que implementan IA generativa se duplique en 2024. VER: Definición de IA generativa: cómo funciona, beneficios y Peligros Sin embargo, hay algunas pruebas de que el auge de la IA generativa “podría llegar a un final bastante rápido”, según Gary Marcus, destacado portavoz de la IA, y las empresas deberían tener cuidado. Esto se debe principalmente a las limitaciones de las tecnologías actuales, como la posibilidad de sesgos, problemas de derechos de autor e imprecisiones. Según el informe de Stanford, la cantidad finita de datos en línea disponibles para entrenar modelos podría exacerbar los problemas existentes, poniendo un límite a las mejoras y la escalabilidad. Afirma que las empresas de IA podrían quedarse sin datos lingüísticos de alta calidad para 2026, datos lingüísticos de baja calidad en dos décadas y datos de imágenes entre finales de la década de 2030 y mediados de la década de 2040. 6. Los puntos de referencia para la responsabilidad de LLM varían ampliamente Existe una variación significativa en los puntos de referencia con los que las empresas de tecnología evalúan sus LLM en lo que respecta a confiabilidad o responsabilidad, según el informe (Figura G). Los investigadores escribieron que esto «complica los esfuerzos para comparar sistemáticamente los riesgos y limitaciones de los mejores modelos de IA». Estos riesgos incluyen resultados sesgados y la filtración de información privada de conjuntos de datos de entrenamiento e historiales de conversaciones. Figura G Los puntos de referencia de IA responsable utilizados en el desarrollo de modelos de IA populares. Imagen: Informe del índice AI 2024/Universidad de Stanford HAI Reuel, estudiante de doctorado en el Laboratorio de Sistemas Inteligentes de Stanford, dijo a TechRepublic en un correo electrónico: “Actualmente no existen requisitos de informes, ni tenemos evaluaciones sólidas que nos permitan decir con confianza que un modelo es seguro si pasa esas evaluaciones en primer lugar”. Sin una estandarización en esta área, aumenta el riesgo de que algunos modelos de IA no confiables pasen desapercibidos y sean integrados por las empresas. «Los desarrolladores podrían informar selectivamente puntos de referencia que resalten positivamente el rendimiento de su modelo», añade el informe. Reuel dijo a TechRepublic: “Hay múltiples razones por las que un modelo dañino puede pasar desapercibido. En primer lugar, no hay evaluaciones estandarizadas o requeridas que dificulten la comparación de modelos y sus riesgos (relativos), y en segundo lugar, no hay evaluaciones sólidas, específicamente de los modelos básicos, que permitan una comprensión sólida y completa del riesgo absoluto de un modelo”. 7. Los empleados están nerviosos y preocupados por la IA. El informe también rastrea cómo las actitudes hacia la IA están cambiando a medida que aumenta la conciencia. Una encuesta encontró que el 52% expresa nerviosismo hacia los productos y servicios de IA, y que esta cifra había aumentado un 13% en 18 meses. También encontró que solo el 54% de los adultos está de acuerdo en que los productos y servicios que utilizan IA tienen más beneficios que inconvenientes, mientras que el 36% teme que pueda quitarles el trabajo en los próximos cinco años (Figura H). Figura H Opiniones globales sobre el impacto que la IA tendrá en los empleos actuales en 2023. Imagen: AI Index Report 2024/Stanford University HAI/Ipsos, 2023 Otras encuestas a las que se hace referencia en el AI Index Report encontraron que el 53 % de los estadounidenses actualmente se sienten más preocupados por la IA. que emocionados, y que la preocupación más común que comparten es su impacto en el empleo. Estas preocupaciones podrían tener un impacto particular en la salud mental de los empleados cuando las tecnologías de inteligencia artificial comiencen a integrarse en una organización, algo que los líderes empresariales deberían monitorear. VER: Los 10 mejores cursos de IA en 2024 8. EE. UU. y China están creando la mayoría de los LLM más populares de la actualidad. Ben Abbott de TechRepublic cubrió esta tendencia del informe de Stanford en su artículo sobre la construcción de modelos básicos de IA en la región APAC. Escribió, en parte: “El dominio de EE. UU. en IA continuó a lo largo de 2023. El informe del índice de IA de Stanford publicado en 2024 encontró que se habían lanzado 61 modelos notables en EE. UU. en 2023; esto estuvo por delante de los 15 nuevos modelos de China y de Francia, el mayor contribuyente de Europa con ocho modelos (Figura I). El Reino Unido y la Unión Europea como región produjeron 25 modelos notables, superando a China por primera vez desde 2019, mientras que Singapur, con tres modelos, fue el único otro productor de modelos lingüísticos grandes notables en APAC”. Figura I Estados Unidos está superando a China y otros países en el desarrollo de modelos de IA. Imagen: Época

Reino Unido y EE. UU. acuerdan colaborar en el desarrollo de pruebas de seguridad para modelos de IA

El gobierno del Reino Unido acordó formalmente trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de inteligencia artificial. El 1 de abril de 2024, la Secretaria de Tecnología del Reino Unido, Michelle Donelan, y la Secretaria de Comercio de los Estados Unidos, Gina Raimondo, firmaron un Memorando de Entendimiento, que es un acuerdo no vinculante legalmente (Figura A). Figura A La secretaria de Comercio de Estados Unidos, Gina Raimondo (izquierda), y la secretaria de Tecnología del Reino Unido, Michelle Donelan (derecha). Fuente: Gobierno del Reino Unido. Imagen: Gobierno del Reino Unido Ambos países ahora “alinearán sus enfoques científicos” y trabajarán juntos para “acelerar e iterar rápidamente conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA”. Esta medida se está tomando para mantener los compromisos establecidos en la primera Cumbre mundial sobre seguridad de la IA en noviembre pasado, donde gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. ¿Qué iniciativas de IA han acordado el Reino Unido y Estados Unidos? Con el MoU, el Reino Unido y los EE. UU. acordaron cómo construirán un enfoque común para las pruebas de seguridad de la IA y compartirán sus desarrollos entre sí. Específicamente, esto implicará: Desarrollar un proceso compartido para evaluar la seguridad de los modelos de IA. Realizar al menos un ejercicio de prueba conjunto sobre un modelo de acceso público. Colaborar en la investigación técnica de seguridad de la IA, tanto para avanzar en el conocimiento colectivo de los modelos de IA como para garantizar que las nuevas políticas estén alineadas. Intercambio de personal entre respectivos institutos. Compartir información sobre todas las actividades realizadas en los respectivos institutos. Trabajar con otros gobiernos en el desarrollo de estándares de IA, incluida la seguridad. «Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia artificial, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas», dijo el secretario Raimondo en un comunicado. VER: Aprenda a utilizar la IA para su negocio (Academia TechRepublic) El MoU se relaciona principalmente con el avance de los planes elaborados por los Institutos de Seguridad de IA en el Reino Unido y EE. UU. Las instalaciones de investigación del Reino Unido se lanzaron en la Cumbre de Seguridad de IA con los tres objetivos principales. de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Empresas como OpenAI, Meta y Microsoft han acordado que el AISI del Reino Unido revise de forma independiente sus últimos modelos de IA generativa. De manera similar, el AISI de EE. UU., establecido formalmente por el NIST en febrero de 2024, fue creado para trabajar en las acciones prioritarias descritas en la Orden Ejecutiva de AI emitida en octubre de 2023; Estas acciones incluyen el desarrollo de estándares para la seguridad de los sistemas de IA. El AISI de EE. UU. cuenta con el apoyo de un consorcio del AI Safety Institute, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. ¿Conducirá esto a la regulación de las empresas de IA? Si bien ni el AISI del Reino Unido ni el de los EE. UU. son un organismo regulador, es probable que los resultados de su investigación combinada sirvan de base para futuros cambios de políticas. Según el gobierno del Reino Unido, su AISI «proporcionará conocimientos fundamentales para nuestro régimen de gobernanza», mientras que la instalación estadounidense «desarrollará directrices técnicas que serán utilizadas por los reguladores». Podría decirse que la Unión Europea todavía está un paso por delante, ya que su histórica Ley de IA se convirtió en ley el 13 de marzo de 2024. La legislación describe medidas diseñadas para garantizar que la IA se utilice de forma segura y ética, entre otras normas relativas a la IA para el reconocimiento facial y la transparencia. . VER: La mayoría de los profesionales de la ciberseguridad esperan que la IA afecte sus trabajos La mayoría de los grandes actores tecnológicos, incluidos OpenAI, Google, Microsoft y Anthropic, tienen su sede en EE. UU., donde actualmente no existen regulaciones estrictas que puedan restringir sus actividades de IA. La EO de octubre proporciona orientación sobre el uso y la regulación de la IA, y se han tomado medidas positivas desde su firma; sin embargo, esta legislación no es ley. El Marco de Gestión de Riesgos de IA finalizado por el NIST en enero de 2023 también es voluntario. De hecho, estas grandes empresas tecnológicas son en su mayoría responsables de regularse a sí mismas y el año pasado lanzaron el Foro Modelo Frontier para establecer sus propias “barandillas” para mitigar el riesgo de la IA. ¿Qué piensan la IA y los expertos legales sobre las pruebas de seguridad? La regulación de la IA debería ser una prioridad La formación del AISI del Reino Unido no fue una forma universalmente popular de controlar la IA en el país. En febrero, el director ejecutivo de Faculty AI, una empresa involucrada con el instituto, dijo que desarrollar estándares sólidos puede ser un uso más prudente de los recursos gubernamentales en lugar de intentar examinar cada modelo de IA. «Creo que es importante que establezca estándares para el resto del mundo, en lugar de intentar hacerlo todo por sí mismo», dijo Marc Warner a The Guardian. Más cobertura de IA de lectura obligada Los expertos en derecho tecnológico tienen un punto de vista similar cuando se trata del MoU de esta semana. «Idealmente, los esfuerzos de los países se gastarían mucho mejor en desarrollar regulaciones estrictas en lugar de investigación», dijo a TechRepublic en un correo electrónico Aron Solomon, analista legal y director de estrategia de la agencia de marketing legal Amplify. “Pero el problema es este: pocos legisladores (yo diría, especialmente en el Congreso de Estados Unidos) tienen un conocimiento tan profundo de la IA como para regularla. Solomon añadió: “Deberíamos salir en lugar de entrar en un período de estudio profundo necesario, en el que los legisladores realmente entiendan colectivamente cómo funciona la IA y cómo se utilizará en el futuro. Pero, como lo puso de relieve la reciente debacle estadounidense en la que los legisladores intentan prohibir TikTok, ellos, como grupo, no entienden la tecnología, por lo que no están bien posicionados para regularla de manera inteligente. “Esto nos deja en la situación difícil en la que nos encontramos hoy. La IA está evolucionando mucho más rápido de lo que los reguladores pueden regular. Pero aplazar la regulación en favor de cualquier otra cosa en este momento es retrasar lo inevitable”. De hecho, dado que las capacidades de los modelos de IA cambian y se expanden constantemente, las pruebas de seguridad realizadas por los dos institutos deberán hacer lo mismo. «Algunos malos actores pueden intentar eludir las pruebas o aplicar incorrectamente las capacidades de IA de doble uso», dijo a TechRepublic en un correo electrónico Christoph Cemper, director ejecutivo de la plataforma de gestión rápida AIPRM. El doble uso se refiere a tecnologías que pueden utilizarse tanto con fines pacíficos como hostiles. Cemper dijo: “Si bien las pruebas pueden señalar problemas de seguridad técnica, no reemplazan la necesidad de directrices sobre cuestiones éticas, políticas y de gobernanza… Idealmente, los dos gobiernos considerarán las pruebas como la fase inicial de un proceso colaborativo continuo”. VER: La IA generativa puede aumentar la amenaza global de ransomware, según un estudio del Centro Nacional de Seguridad Cibernética Se necesita investigación para una regulación eficaz de la IA Si bien las directrices voluntarias pueden no resultar suficientes para incitar un cambio real en las actividades de los gigantes tecnológicos, una legislación de línea dura podría sofocar Según el Dr. Kjell Carlsson, el progreso en IA si no se considera adecuadamente. El ex analista de ML/AI y actual jefe de estrategia de Domino Data Lab dijo a TechRepublic en un correo electrónico: “Hoy en día, hay áreas relacionadas con la IA donde el daño es una amenaza real y creciente. Se trata de áreas como el fraude y el cibercrimen, donde normalmente existe regulación pero es ineficaz. “Desafortunadamente, pocas de las regulaciones de IA propuestas, como la Ley de IA de la UE, están diseñadas para abordar eficazmente estas amenazas, ya que se centran principalmente en ofertas comerciales de IA que los delincuentes no utilizan. Como tal, muchos de estos esfuerzos regulatorios dañarán la innovación y aumentarán los costos, al tiempo que harán poco para mejorar la seguridad real”. Por lo tanto, muchos expertos piensan que priorizar la investigación y la colaboración es más eficaz que apresurarse con las regulaciones en el Reino Unido y los EE. UU. El Dr. Carlsson dijo: “La regulación funciona cuando se trata de prevenir daños establecidos en casos de uso conocidos. Hoy en día, sin embargo, la mayoría de los casos de uso de la IA aún no se han descubierto y casi todo el daño es hipotético. Por el contrario, existe una increíble necesidad de investigar cómo probar, mitigar el riesgo y garantizar la seguridad de los modelos de IA de forma eficaz. «Como tal, el establecimiento y la financiación de estos nuevos Institutos de Seguridad de IA y estos esfuerzos de colaboración internacional son una excelente inversión pública, no sólo para garantizar la seguridad, sino también para fomentar la competitividad de las empresas en los EE.UU. y el Reino Unido».

Source link

EE Google Pixel 8 ofrece Pixel Buds Pro gratuitos

Ofertas de EE Google Pixel 8 con Pixel Buds Pro gratis Por tiempo limitado, puede reclamar un par de Pixel Buds Pro gratis por valor de £ 199 con ofertas de Google Pixel 8 en EE. Simplemente solicite ofertas de EE Pixel 8 antes del 2 de abril de 2024 para calificar para sus Pixel Buds gratuitos. EE ofrece fantásticas ofertas de pago mensual y, como incentivo adicional, también puede obtener un 10 % adicional además del valor de su teléfono intercambiado. Elija extras inclusivos con los planes EE All Rounder y Full Works Cómo reclamar sus Pixel Buds Pro gratuitos Para reclamar sus Pixel Buds Pro gratuitos, compre un Google Pixel 8 en EE antes del 2 de abril de 2024. Simplemente espere 14 días después de la compra y a más tardar en junio 1 de 2024, luego dirígete al sitio web de reclamos, aquí >>> Reclama aquí Recibirás la confirmación de tu reclamo dentro de los 5 días y te enviaremos tus Pixel Buds Pro gratuitos entre 30 y 60 días después.

Source link

Plantas genéticamente modificadas que brillan en la oscuridad salen a la venta en EE. UU. por primera vez

Plantas genéticamente modificadas que brillan en la oscuridad salen a la venta en EE. UU. por primera vez | Daily Telegraph Reproduciendo ahora

Source link

Los entusiastas de los pies descalzos se quitan la suela de todos los zapatos

Una pareja descalza se quita la parte inferior de una colección de zapatos de «$20.000» para caminar por las tiendas sin ser molestada. Cleveland Ohio.

Source link

Apple destrona a Samsung como principal vendedor mundial de teléfonos inteligentes en 2023

Nadie en Corea del Sur hubiera soñado esto: Apple desbancó a Samsung del primer lugar en ventas mundiales de teléfonos inteligentes en 2023, según las primeras cifras de International Data Corporation (IDC). Esta es la segunda vez para Samsung, después de que Huawei los desbancara brevemente del primer lugar. Nuevo rey de la colina Bueno, las cifras son sólo provisionales, pero oficiales al fin y al cabo. Apple es el nuevo número uno en cuanto a smartphones vendidos en todo el mundo. Al menos eso es lo que dice el titular de IDC en X (antes Twitter): «Apple se adelanta a Samsung para convertirse en el número uno del mercado global». Y si nos fijamos en las cifras preliminares para 2023, Apple es el único fabricante que realmente registra un crecimiento, contrariamente a la tendencia general a la baja (-3,2%). Apple se asegura el primer puesto en 2023 con una cuota de mercado récord. / © IDC Apple logró una cuota de mercado del 20,1 por ciento en 2023, frente a Samsung, que alcanzó el 19,4 por ciento. Esto supone una pérdida de 2,3 puntos en cuota de mercado de 2022 a 2023. Esta es una mala noticia que Samsung probablemente no necesitaba el día antes de la gran presentación de la serie Samsung Galaxy S24. ¡Pero viene más presión desde China! Nada menos que Xiaomi, en tercer lugar, se acerca a Samsung. Es de suponer que la compañía presentará su primer coche eléctrico, el Xiaomi SU7, en el MWC a finales de febrero, aumentando así su nivel de conocimiento y aceptación general. «El cambio general en la clasificación en la cima del mercado subraya aún más la intensidad de la competencia en el mercado de los teléfonos inteligentes. Apple ciertamente ha contribuido al descenso de Samsung, pero todo el sector Android se está diversificando en sí mismo. Huawei ha vuelto y está avanzando rápidamente en el mercado. China, marcas como Xiaomi, OnePlus, Honor y otras están lanzando dispositivos muy competitivos en el extremo inferior», dijo Ryan Reith, vicepresidente de grupo de IDC. Entonces, veamos hasta qué punto Samsung puede cambiar el rumbo mañana. Después de todo, los surcoreanos quieren ingresar mañana al negocio de la inteligencia artificial con Galaxy AI. Ésta es un área que Apple aún no ha abordado seriamente, aparte del diseño de su propio chip. En Cupertino, están más preocupados por la entrada VR-XR con los auriculares Apple Vision Pro. Oferta de afiliado ¿Y qué opinas de la sorprendente maniobra de adelantamiento de Cupertino? ¿El típico cliente potencial a corto plazo o algo más a largo plazo? Háganos saber lo que piensa en los comentarios a continuación.

Source link

Un giro en la saga del iPad perdido se vuelve viral

Esta guardiana del avión estaba preparando el avión para su próximo vuelo cuando descubrió un iPad Pro abandonado en uno de los asientos del avión, en un vídeo que obtuvo más de 6 millones de visitas en TikTok.

Source link

Cientos de arañas de patas largas en la tienda de campaña

Cientos de papás con piernas largas cubren la tienda de campaña de una caravana en un vídeo espeluznante

Source link

Funciona con WordPress & Tema de Anders Norén