¡La biblioteca bajo demanda de GamesBeat Next ya está disponible! Empiece a ponerse al día con las más de 30 sesiones que quizás se haya perdido. Ver ahora Trivia Crack, la popular plataforma de conocimiento interactivo basada en trivia, está celebrando una década de éxito desde su lanzamiento móvil inicial en 2013. Para conmemorar #10YearsOfTrivia, el desarrollador Etermax ha presentado una importante actualización de su juego insignia, introduciendo nuevas características y jugabilidad. modos y una interfaz más elegante. Todavía recuerdo la sensación de locura que causó este juego cuando salió y cómo puso a la industria de los juegos de Argentina en el mapa. La edición renovada de Trivia Crack no solo conserva los queridos elementos que los fanáticos aprecian, incluidas clasificaciones, misiones, eventos especiales, Triviathon, Triviatopics, Survival y más, sino que también introduce una variedad de mejoras. Estas mejoras tienen como objetivo brindar a los usuarios una experiencia de trivia más interactiva y atractiva desde el punto de vista social, ofreciendo contenido diverso y fomentando conversaciones. Evento GamesBeat Next On-Demand 2023 ¿Te perdiste GamesBeat Next? Dirígete a nuestra biblioteca bajo demanda para escuchar a las mentes más brillantes de la industria del juego hablar sobre los últimos desarrollos y su visión del futuro de los juegos. Ver ahora Sebastian Machado Malbran, director de producto de Etermax, dijo en un comunicado: “¡El nuevo Trivia Crack finalmente está aquí! A través de los esfuerzos de colaboración con nuestros millones de fanáticos apasionados, hemos creado una experiencia renovada y fluida que resalta lo que distingue a Trivia Crack: su contenido y su gente únicos”. Actualización del décimo aniversario Perfil de usuario en Trivia Crack. La compañía ofrece una nueva experiencia de juego impulsada por video. Los usuarios pueden responder, comentar y compartir sus temas de trivia favoritos a través de videos. Esta adición amplía las opciones para crear preguntas interesantes al incorporar contenido de video junto con los formatos de texto e imagen existentes. También hay un nuevo modo de juego de retador, que es un nuevo desafío grupal donde los jugadores pueden mostrar sus conocimientos de trivia invitando a amigos a través de iMessage y WhatsApp. Los participantes compiten en rondas y ganan puntos por precisión y velocidad. Las clasificaciones revelan al campeón definitivo de trivia. Tiene una experiencia social mejorada. Trivia Crack ahora ofrece herramientas adicionales para que los usuarios se conecten y socialicen dentro de la plataforma. Personalizar perfiles, dejar comentarios sobre preguntas, compartir trivias favoritas y enviar mensajes a otros jugadores contribuye a una experiencia social más atractiva. Y hay una experiencia de usuario más fluida. El querido Modo Clásico se ha revitalizado con una experiencia de usuario más fluida, menos interrupciones y ventanas emergentes. Esta actualización fomenta una competencia sana por el conocimiento y facilita el intercambio de experiencia. Trivia Crack se expande Trivia Crack está en 180 países. Más allá de sus raíces móviles, Trivia Crack se ha expandido a varias plataformas, incluidos juegos de mesa tradicionales, libros, transmisión interactiva, televisión conectada, dispositivos de voz, dispositivos portátiles, realidad aumentada (AR) y realidad virtual (VR). Como parte de las celebraciones del décimo aniversario, Etermax anunció el desarrollo de Trivia Crack VR, que lleva trivia y juegos de mesa al metaverso. Actualmente disponible en App Lab para Quest 2, Quest Pro y Quest 3, Trivia Crack VR ofrece una aventura de conocimiento inmersiva ambientada en un parque de diversiones. Los usuarios pueden participar en esta experiencia, brindar comentarios y contribuir a perfeccionar Trivia Crack VR antes de su lanzamiento completo en Meta Quest Store. Se puede acceder a la plataforma móvil de Trivia Crack en todo el mundo en App Store (iOS), Google Play (Android) y Galaxy Store (Samsung). Trivia Crack debutó en 2013 y ahora llega a millones de personas en 180 países y 34 idiomas. El credo de GamesBeat cuando cubre la industria de los juegos es «donde la pasión se encuentra con los negocios». ¿Qué quiere decir esto? Queremos contarte lo importantes que son las noticias para ti, no sólo como persona que toma decisiones en un estudio de juegos, sino también como fanático de los juegos. Ya sea que lea nuestros artículos, escuche nuestros podcasts o vea nuestros videos, GamesBeat lo ayudará a conocer la industria y a disfrutar interactuando con ella. Descubra nuestros Briefings.
Source link
Mes: noviembre 2023 Página 3 de 207
Las unidades de procesamiento de datos (DPU) se han convertido en una opción de implementación importante para los centros de datos que ejecutan cargas de trabajo pesadas centradas en datos, como inteligencia artificial (IA) y procesamiento de análisis, y para acelerar la entrada/salida (E/S) del almacenamiento. Las DPU se implementan en servidores y son lo último en una evolución de hardware de descarga que elimina la carga de trabajo de las unidades centrales de procesamiento (CPU), liberándolas para concentrarse en los ciclos de aplicaciones principales y aumentar el rendimiento allí. Mientras tanto, las DPU pueden manejar la transferencia de datos, la reducción de datos, la seguridad y el análisis. Quizás también sea esencial para el surgimiento de las DPU el grado en que pueden adaptarse a arquitecturas de infraestructura componibles que unen recursos de infraestructura a partir de componentes de hardware. Y, si bien las DPU son un componente central de hardware en crecimiento, la capacidad de DPU se está incorporando a los servicios en la nube, como los de Amazon Web Services (AWS) y Microsoft Azure. Además, los entornos centrales como VMware se han refactorizado para aprovechar la implementación de DPU por parte de los clientes. En este artículo, analizamos de dónde provienen las DPU, qué hacen y sus beneficios, las especificaciones clave y quiénes son los proveedores clave de DPU. ¿De dónde vienen las DPU? Aunque la idea de una unidad de procesamiento de datos es relativamente nueva, su evolución proviene de una larga línea de tarjetas de descarga, especialmente en aceleración de redes. Estos comenzaron con tarjetas de interfaz de red (NIC) básicas, para «descargar NIC» que liberaban ciclos de CPU mientras procesaban el tráfico de red, hasta «NIC inteligentes» que profundizaban en lo que se podía descargar e introducían un elemento de programabilidad. Las DPU son una evolución de las NIC inteligentes y brindan una programabilidad flexible como parte de arquitecturas componibles, así como mayores capacidades de descarga e incluyen redes de almacenamiento. ¿Qué es una DPU y cuáles son sus beneficios? Una forma útil de concebir las DPU (y las unidades de procesamiento gráfico (GPU) para el caso) es la idea de descentralización. Es decir, descargar tareas que anteriormente la CPU habría realizado de forma centralizada a hardware suplementario destinado a tareas específicas. Al hacerlo, las DPU compensan las ineficiencias de la CPU del servidor en cargas de trabajo de transferencia de datos y computación centrada en datos. Para aclarar las cosas, tal vez sea útil concebir cuán paralelizadas están cada una de las variantes de xPU. Las CPU tienen relativamente pocos núcleos destinados a ejecutar algunas operaciones a la vez, las GPU tienen más núcleos y pueden manejar más operaciones, y las DPU están hechas con muchos más núcleos y están diseñadas para manejar increíbles conjuntos de cargas de trabajo en paralelo. Mientras que una GPU está diseñada principalmente para ejecutar cálculos pesados en torno a la representación de gráficos (aunque se han utilizado para más), una DPU va un paso más allá para manejar tareas que requieren un gran uso de datos, como el movimiento de datos en torno al almacenamiento y las redes, pero también IA y análisis. Una DPU suele estar compuesta por una CPU de varios núcleos, memoria y controladores, zócalos PCIe e interfaces de estructura de red y almacenamiento. Las DPU están diseñadas con núcleos de procesador y bloques de aceleración de hardware. Las DPU vienen con su propio sistema operativo (SO) que les permite combinarse con el sistema operativo principal y realizar trabajos como cifrado, codificación de borrado y reducción de datos. Las DPU pueden conectarse de forma nativa al almacenamiento NVMe (y NVMe sobre tejido) para proporcionar un acceso rápido al almacenamiento de muy alta velocidad. También suelen venir con aceleración nativa para cargas de trabajo específicas como las criptomonedas. ¿Qué tipo de especificaciones ofrecen las DPU? El tipo de especificaciones que obtendría de una DPU se puede ver en BlueField 3 de Nvidia, que viene con hasta 400 Gbps de conectividad Ethernet o Infiniband, 32 carriles de PCIe Gen 5.0, hasta 16 núcleos de CPU ARM, 16 núcleos en un formato programable. acelerador de ruta de datos, 32 MB de DRAM DDR integrada, cifrado AES y conectividad NVMe sobre tejidos/sobre TCP. ¿Quién fabrica las DPU? El hardware de DPU está disponible a través de proveedores que incluyen: Intel, que anunció su DPU Mount Evans, desarrollada conjuntamente con Google, en agosto de 2021 y tiene una hoja de ruta que incluye iteraciones adicionales con una cadencia de dos años. Mount Evans se convirtió más tarde en la serie E2000, lanzada en 2022. Intel parece preferir las unidades de procesamiento de infraestructura (IPU) a las DPU. Nvidia, con sus DPU BlueField 3 y 2, así como los aceleradores convergentes híbridos GPU/DPU de la compañía. Marvell suministra sus DPU Octeon y Armada, que tienen una gran tendencia hacia su uso en aplicaciones de telecomunicaciones. AMD con sus aceleradores de infraestructura AMD Pensando. Fungible, adquirida por Microsoft este año, introdujo la DPU en el mercado cuando salió de forma oculta en 2020, con productos destinados a redes y almacenamiento. La compra de Microsoft se produjo después de que Fungible saltó a la fama como pionero de las DPU y luego tuvo problemas cuando la expansión en el mercado fracasó. Los comentarios del mercado en el momento de la adquisición señalaron que es probable que Microsoft incorpore Fungible IP en Azure y, al hacerlo, tenga en cuenta las capacidades de DPU de AWS. Las tarjetas Nitro de AWS incluyen los componentes básicos de hardware y software que proporcionan computación, almacenamiento, redes y memoria para sus servicios EC2, e incluyen opciones de DPU. Las DPU también figuran en AWS Glue, que es la plataforma informática sin servidor de la empresa destinada a extraer, transformar y cargar (ETL) y cargas de trabajo de almacenamiento de datos.
Source link
Se espera que la serie Asus ROG Phone 8 se lance en algún momento de 2024 y ahora tenemos una lista de certificación para el ROG Phone 8 Ultimate que revela que ofrecerá carga rápida de 65 W. La última lista de certificación de la agencia 3C de China muestra que el ROG Phone 8 Ultimate (ASUS_AI2401_A) ofrecerá las mismas velocidades de carga que sus predecesores. Los cargos incluidos admitirán el estándar PPS PD3.0 y el protocolo QC5. El ROG Phone 8 (ASUS_AI2401_A) y el ROG Phone 8 Pro (ASUS_AI2401_E) aparecieron recientemente en la base de datos IMEI. Listado de ROG Phone 8 Ultimate (ASUS_AI2401_A) en la base de datos 3C Se espera que la serie ROG Phone 8 se lance con el último chip Qualcomm Snapdragon 8 Gen 3, mucha RAM y una pantalla AMOLED de alta frecuencia de actualización. Se espera que el lado del software presente Android 14 con ROG UI en la parte superior. No tenemos más detalles por ahora, así que tendremos que esperar a que aparezcan más detalles. A través de
Source link
por Riesgo Calculado el 14/11/2023 11:25:00 AM La Fed de Cleveland publicó el IPC medio y el IPC medio recortado. Según el Banco de la Reserva Federal de Cleveland, el índice de precios al consumidor medio subió un 0,3% en octubre. El índice de precios al consumidor con una media recortada del 16% aumentó un 0,2% en octubre. «El IPC medio y el IPC medio recortado del 16% son medidas de la inflación subyacente calculadas por el Banco de la Reserva Federal de Cleveland con base en los datos publicados en el informe mensual del IPC de la Oficina de Estadísticas Laborales (BLS)». Haga clic en el gráfico para ampliar la imagen. Este gráfico muestra el cambio año tras año de estas cuatro medidas clave de inflación. Año tras año, el IPC medio aumentó un 5,3% (frente al 5,5% de septiembre), el IPC medio recortado aumentó un 4,1% (frente al 4,3%) y el IPC menos alimentos y energía aumentó un 4,0% ( frente al 4,1%). El PCE básico de septiembre aumentó un 3,7% interanual, frente al 3,8% de agosto. Nota: La Reserva Federal de Cleveland publicó los detalles del IPC medio. El «combustible para motores» disminuyó a una tasa anualizada del 45% en octubre. El alquiler y el alquiler equivalente al propietario siguen siendo altos, pero están disminuyendo.
Cuando desea trabajar con una base de datos relacional en Python, o en casi cualquier otro lenguaje de programación, es común escribir consultas a la base de datos «a mano», utilizando la sintaxis SQL compatible con la mayoría de las bases de datos. Sin embargo, este enfoque tiene sus desventajas. Las consultas SQL escritas manualmente pueden resultar complicadas de utilizar, ya que las bases de datos y las aplicaciones de software tienden a vivir en mundos conceptuales separados. Es difícil modelar cómo funcionan juntos su aplicación y sus datos. Otro enfoque es utilizar una biblioteca llamada ORM o herramienta de mapeo relacional de objetos. Los ORM le permiten describir cómo funciona su base de datos a través del código de su aplicación: cómo se ven las tablas, cómo funcionan las consultas y cómo mantener la base de datos durante su vida útil. El ORM maneja todo el trabajo pesado de su base de datos y usted puede concentrarse en cómo su aplicación usa los datos. Este artículo presenta seis ORM para el ecosistema Python. Todos proporcionan formas programáticas de crear, acceder y administrar bases de datos en sus aplicaciones, y cada una incorpora una filosofía ligeramente diferente de cómo debería funcionar un ORM. Además, todos los ORM descritos aquí le permitirán emitir instrucciones SQL manualmente si así lo desea, para aquellos momentos en los que necesite realizar una consulta sin la ayuda del ORM.6 de los mejores ORM para Python Django ORM Peewee PonyORM SQLAlchemy SQLObject Tortoise ORM Django El marco web Django viene con casi todo lo que necesita para crear sitios web de nivel profesional, incluido su propio ORM y herramientas de administración de bases de datos. La mayoría de la gente sólo utilizará el ORM de Django con Django, pero es posible utilizar el ORM por sí solo. Además, el ORM de Django ha influido enormemente en el diseño de otros ORM de Python, por lo que es un buen punto de partida para comprender los ORM de Python en general. Los modelos para una base de datos administrada por Django siguen un patrón similar a otros ORM en Python. Las tablas se describen con clases de Python y los tipos personalizados de Django se utilizan para describir los campos y sus comportamientos. Esto incluye cosas como referencias de uno a muchos o de muchos a muchos con otras tablas, pero también tipos que se encuentran comúnmente en aplicaciones web como archivos cargados. También es posible crear tipos de campos personalizados subclasificando los existentes y utilizando la biblioteca de métodos de clases de campos genéricos de Django para alterar sus comportamientos. Las herramientas de administración de línea de comandos de Django para trabajar con sitios incluyen herramientas poderosas para administrar la capa de datos de un proyecto. Los más útiles crean automáticamente scripts de migración para sus datos, cuando desea modificar sus modelos y migrar los datos subyacentes para usar los nuevos modelos. Cada conjunto de cambios se guarda como su propio script de migración, por lo que todas las migraciones de una base de datos se conservan durante toda la vida útil de su aplicación. Esto hace que sea más fácil mantener aplicaciones respaldadas por datos donde el esquema puede cambiar con el tiempo. PeeweePeewee tiene dos grandes reclamos de fama. Primero, es una biblioteca pequeña pero poderosa, alrededor de 6600 líneas de código en un solo módulo. Dos, es expresivo sin ser prolijo. Si bien Peewee maneja de forma nativa sólo unas pocas bases de datos, se encuentran entre las más comunes: SQLite, PostgreSQL, MySQL/MariaDB y CockroachDB. Definir modelos y relaciones en Peewee es mucho más sencillo que en otros ORM. Se utilizan clases de Python para crear tablas y sus campos, pero Peewee requiere un texto mínimo para hacer esto, y los resultados son muy legibles y fáciles de mantener. Peewee también tiene formas elegantes de manejar situaciones como referencias de claves externas a tablas que se definen más adelante en el código o claves externas autorreferenciales. Las consultas en Peewee utilizan una sintaxis que se remonta al propio SQL; por ejemplo, Persona.select(Persona.nombre, Persona.id).dónde(Persona.edad>20). Peewee también le permite devolver los resultados como objetos Python enriquecidos, como tuplas o diccionarios con nombre, o como una tupla simple para obtener el máximo rendimiento. Los resultados también se pueden devolver como un generador, para una iteración eficiente en un conjunto de filas grande. Las funciones de ventana y CTE (Expresiones de tabla comunes) también tienen soporte de primera clase. Peewee usa muchas metáforas comunes de Python más allá de las clases. Por ejemplo, las transacciones se pueden expresar mediante un administrador de contexto, como en db.atomic():. No puede usar palabras clave como y o no con consultas, pero Peewee le permite usar operadores como & y ~ en su lugar. Los comportamientos sofisticados como el bloqueo optimista y los n objetos principales por grupo no son compatibles de forma nativa, pero la documentación de Peewee tiene una colección útil de trucos para implementar tales cosas. La migración de esquemas no es compatible de forma nativa, pero Peewee incluye una API SchemaManager para crear migraciones junto con otras operaciones de administración de esquemas. La característica destacada de PonyORMPonyORM es la forma en que utiliza la sintaxis nativa y las características del lenguaje de Python para redactar consultas. Por ejemplo, PonyORM le permite expresar una consulta SELECT como una expresión generadora: consulta = seleccionar (u para u en Usuario si u.name == «Davis»).order_by(User.name). También puede utilizar lambdas como parte de consultas para filtrado, como en query.filter (usuario lambda: user.is_approved es True). El SQL generado también es siempre accesible. Cuando crea tablas de bases de datos con objetos Python, usa una clase para declarar primero el comportamiento de cada campo y luego su tipo. Por ejemplo, un campo de nombre distinto y obligatorio sería nombre = Requerido(cadena, único=Verdadero). Los tipos de campos más comunes se asignan directamente a los tipos de Python existentes, como int/float/Decimal, datetime, bytes (para datos BLOB), etc. Un posible punto de confusión es que los campos de texto grandes utilizan el tipo LongStr de PonyORM; el tipo str de Python es básicamente el CHAR de la base de datos subyacente. PonyORM admite automáticamente los tipos de datos Array de estilo JSON y PostgreSQL, ya que ahora más bases de datos admiten ambos tipos de forma nativa. Cuando no hay soporte nativo, PonyORM a menudo puede mejorar las cosas; por ejemplo, las versiones de SQLite anteriores a la 3.9 pueden usar TEXT para almacenar JSON, pero las versiones más recientes pueden funcionar de forma nativa a través de un módulo de extensión. Algunas partes de PonyORM se ajustan menos a Objetos y sintaxis de Python. Para describir relaciones de uno a muchos y de muchos a muchos en PonyORM, se utiliza Set(), un objeto PonyORM personalizado. Para relaciones uno a uno, existen objetos Opcionales() y Requeridos(). PonyORM tiene algunos comportamientos obstinados que vale la pena conocer antes de construir con él. Las consultas generadas generalmente tienen la palabra clave DISTINCT agregada automáticamente, bajo el argumento de que la mayoría de las consultas no deberían devolver duplicados de todos modos. Puedes anular este comportamiento con el método . without_distinct() en una consulta. Una omisión importante del núcleo de PonyORM es que todavía no hay herramientas para las migraciones de esquemas, aunque está planificada para una versión futura. Por otro lado, los creadores de PonyORM ofrecen un conveniente editor de esquemas de bases de datos en línea como servicio, con acceso básico gratuito y conjuntos de funciones más avanzadas por $9 al mes. SQLAlchemySQLAlchemy es uno de los ORM más conocidos y utilizados. Proporciona un control potente y explícito sobre casi todas las facetas de los modelos y el comportamiento de la base de datos. SQLAlchemy 2.0, lanzado a principios de 2023, introdujo una nueva API y un sistema de modelado de datos que funciona bien con los sistemas de clases de datos y linting de tipos de Python. SQLAlchemy utiliza una arquitectura interna de dos niveles que consta de Core y ORM. Core es para la interacción con las API de bases de datos y la representación de declaraciones SQL. ORM es la capa de abstracción y proporciona el modelo de objetos para sus bases de datos. Esta arquitectura desacoplada significa que SQLAlchemy puede, en teoría, usar cualquier número o variedad de capas de abstracción, aunque existe una ligera penalización en el rendimiento. Para contrarrestar esto, algunos de los componentes de SQLAlchemy están escritos en C (ahora Cython) para mayor velocidad. SQLAlchemy le permite describir esquemas de bases de datos de dos maneras, para que pueda elegir cuál es el más apropiado para su aplicación. Puede utilizar un sistema declarativo, donde crea objetos Table() y proporciona nombres y tipos de campos como argumentos. O puede declarar clases utilizando un sistema que recuerde la forma en que funcionan las clases de datos. El primero es más fácil, pero puede que no funcione tan bien con las herramientas quitapelusas. Este último es más explícito y correcto, pero requiere más ceremonia y repetición. SQLAlchemy valora la corrección por encima de la conveniencia. Por ejemplo, cuando se insertan valores de forma masiva desde un archivo, los valores de fecha deben representarse como objetos de fecha de Python para que se manejen de la forma más inequívoca posible. Las consultas con SQLAlchemy utilizan una sintaxis que recuerda a las consultas SQL reales, por ejemplo, seleccione(Usuario). donde (nombre de usuario == «Davis»). Las consultas de SQLachemy también se pueden representar como SQL sin formato para su inspección, junto con cualquier cambio necesario para un dialecto específico de SQL compatible con SQLAlchemy (por ejemplo, PostgreSQL versus MySQL). Las herramientas de construcción de expresiones también se pueden usar por sí solas para representar sentencias SQL para usarlas en otros lugares, no solo como parte del ORM. Para consultas de depuración, una práctica opción echo=True` le permite ver las declaraciones SQL en la consola a medida que se ejecutan. Varias extensiones de SQLAlchemy agregan funciones potentes que no se encuentran en el núcleo ni en el ORM. Por ejemplo, el complemento «fragmentación horizontal» distribuye de forma transparente las consultas entre varias instancias de una base de datos. Para las migraciones, el proyecto Alembic le permite generar scripts de cambios con mucha flexibilidad y configuración.
Source link
Rita El Khoury / Android AuthorityTL;DR Google ha revelado sus ofertas del Black Friday, con atractivos descuentos de $150 en el Pixel 8, $200 en el Pixel 8 Pro y $400 en el Pixel Fold. Las ventas del Black Friday de Google comienzan el 16 de noviembre en Google Store en EE. UU. También están a la venta varios otros productos de Google. Google fabrica teléfonos excelentes que traspasan los límites de la fotografía computacional. La compañía también ofrece descuentos periódicamente, lo que a menudo hace que sea una obviedad conseguir las mejores ofertas de Pixel. Pero si ha logrado evitar la tentación hasta ahora, Google acaba de anunciar sus ofertas del Black Friday en toda su cartera de dispositivos, y algunas de estas ofertas son bastante buenas. Las ventas del Black Friday de Google comienzan mañana, 16 de noviembre de 2023, a las 3:30 am ET, en Google Store en EE. UU. No hay una fecha de finalización, aunque sugerimos actuar rápidamente en caso de que los descuentos estén marcados en una cantidad limitada de cada producto. La serie Pixel 8 obtiene su primer descuento importante desde su lanzamiento hace unas semanas. El Pixel 8 tiene un precio inicial de $549 (con un descuento de $150), lo cual es increíble considerando su precio de lanzamiento de $699. El Pixel 8 Pro obtiene un descuento aún mayor de $ 200, lo que eleva su precio inicial de $ 999 a unos fantásticos $ 799 para el modelo insignia superior. ¿Tienes algo más de efectivo y quieres probar un modelo plegable? El Google Pixel Fold obtiene un enorme descuento de $400, bajando a $1,399 desde su precio habitual de $1,799. Esto lo hace aún más competitivo que el OnePlus Open, que recientemente superó al plegable con mejores especificaciones y un mejor precio. Por otro lado, si quieres un teléfono que haga el trabajo sin gastar un montón de dinero, entonces Me alegraría saber que el Pixel 7a recibió un descuento de $125, lo que reduce su precio de $499 a $374. El resto de la línea de Google también está obteniendo grandes descuentos: Tableta Pixel: precio de venta de $399, con un descuento de $100 de su precio de $ 499. Pixel Buds Pro: precio de oferta de $120, con un descuento de $80 de su precio de $200. Pixel Watch (primera generación): precio de venta de $200, con un descuento de $80 de su precio de $280. Chromecast con Google TV: precio de oferta de $38, con un descuento de $12 de su precio de $50. Nest Cam (batería): precio de venta de $120, con un descuento de $60 de su precio de $180. Pixel Buds Serie A: precio de venta de $59, con un descuento de $40 de su precio de $99. Nest Hub: precio de oferta de $50, con un descuento de $50 de su precio de $100. Paquete de 3 Nest Wi-Fi Pro: precio de oferta de $280, con un descuento de $120 de su precio de $400. La mejor oferta, en mi opinión, es el Pixel 8, que es un producto nuevo a un precio inmejorable de 549 dólares. ¿Qué oferta te gustó? ¿Comprarás algo de Google durante esta temporada de rebajas? Háganos saber en los comentarios a continuación. Comentarios
Source link
Pedro Sánchez buscará un nuevo mandato como primer ministro de España en el parlamento el miércoles, después de asegurarse el respaldo de los separatistas catalanes a cambio de una controvertida amnistía.
Source link
Durante los últimos años, Apple ha tomado la delantera en lo que respecta a dispositivos informáticos gracias a sus chips Apple Silicon de la serie M. La capacidad de personalizar estos chips en lugar de depender de Intel ha sido una ventaja clave. Sin embargo, lo que diferencia a estos nuevos conjuntos de chips, como el M1 y el M2, de su competencia es el uso de la tecnología ARM, que ofrece potencia y eficiencia energética superiores. Mientras tanto, Qualcomm ha estado desarrollando sus propias CPU Oryon para dispositivos Windows, también basadas en tecnología ARM (más o menos), prometiendo niveles similares de rendimiento y eficiencia energética para los usuarios de Windows. Junto con el chipset Snapdragon 8 Gen 3, Qualcomm presentó el chipset Snapdragon X Elite, que presenta la nueva CPU Oryon, capacidades de IA generativa y mucho más. Aquí encontrará todo lo que necesita saber sobre el nuevo chipset Snapdragon X Elite, que se adaptará a los chips de la serie M de Apple. Snapdragon X Elite: Especificaciones técnicas Característica Proceso de fabricación de Snapdragon X Elite CPU de 4 nm CPU Qualcomm Oryon: 64 bits, 12 núcleos a 3,8 GHz Aumento de núcleo simple y doble hasta 4,3 GHz GPU Adreno GPU (hasta 4,6 TFLOP) NPU Qualcomm Hexagon NPU (hasta 45 TOP) Memoria LPDDR5x hasta 64 GB, 136 GB/s de ancho de banda Wi-Fi y Bluetooth Wi-Fi 7 / 6E/ 6, Bluetooth 5.4 USB USB 4.0 Módem celular Módem Snapdragon X65 5G, velocidades de descarga de hasta 10 Gbps Qualcomm llama al Snapdragon X Elite el procesador más potente, inteligente y eficiente para Windows. Este procesador introduce tres actualizaciones significativas en comparación con las opciones existentes en el mercado, según Qualcomm, que incluyen un rendimiento y una eficiencia mejorados, mejores capacidades de inteligencia artificial y experiencias de usuario inteligentes. Fuente: Qualcomm En términos de rendimiento, el Snapdragon X Elite tiene un gran impacto con su CPU de 12 núcleos, con todos los núcleos funcionando a 3,78 GHz. Este conjunto de chips se basa en el proceso de nodo de 4 nm, la misma tecnología utilizada en el potente y eficiente Snapdragon 8 Gen 2. Incluso puede alcanzar velocidades de impulso de doble núcleo de hasta 4,3 GHz. En cuanto a la memoria, el Snapdragon X Elite cuenta con RAM de última generación, lo que permite un ancho de banda de hasta 136 GB/s y admite hasta 64 GB de memoria LPDDR5x. Qualcomm apuesta fuerte por el rendimiento del Snapdragon X Elite. En comparación con el procesador Intel i7-1360P, este chipset ofrece el doble de rendimiento con el mismo nivel de potencia y el mismo rendimiento con un 68 % menos de consumo de energía. Incluso en comparación con Apple M2, Qualcomm dice que el X Elite ofrece un rendimiento multiproceso un 50% más rápido. Y luego está la GPU. El Snapdragon X Elite cuenta con la misma GPU Adreno que impulsa las plataformas móviles Snapdragon. Qualcomm afirma tener un rendimiento de hasta 4,6 TOPS y compatibilidad con pantallas 4K HDR10 de hasta 120 Hz. Este chipset incluso admite hasta dos pantallas 5K y tres monitores externos UHD. En comparación con el i7-13800H de Intel, X Elite ofrece un rendimiento gráfico similar con un 75% menos de consumo de energía. Fuente: Qualcomm Al igual que el Snapdragon 8 Gen 3, Qualcomm se está centrando fuertemente en la IA en el dispositivo con el Snapdragon X Elite. El X Elite cuenta con una NPU Hexagon, que ofrece la friolera de 75 TOPS de potencia de procesamiento de IA. A modo de comparación, el último y mejor chip M2 Ultra de Apple solo ofrece hasta 31,6 TOPS. Qualcomm afirma que el Snapdragon X Elite puede manejar modelos LLM de IA generativa con más de 13 mil millones de parámetros a «velocidades ultrarrápidas». Este chip también viene con soporte integrado para varias aplicaciones aceleradas por IA, incluido Windows Studio Effects. Para la conectividad, Snapdragon X Elite ofrece capacidades de Wi-Fi 7 y Bluetooth 5.4. Un área en la que supera a Apple es que ofrece conectividad celular, una característica ausente en todas las Mac. El chip X Elite ofrece velocidades de hasta 10 Gbps gracias al módem Snapdragon X65 5G. Además, el chip Snapdragon X Elite proporciona audio sin pérdidas y una variedad de funciones de seguridad del chip a la nube. Se espera que las primeras PC y portátiles con Qualcomm Snapdragon X Elite lleguen el próximo año, alrededor de mediados de 2024. Estamos muy emocionados de ver cómo Qualcomm eleva Windows y desafía el dominio de Apple y Mac en este espacio. Dado que Microsoft también se centra en la IA, las nuevas características del Snapdragon X Elite parecen alinearse perfectamente, lo que señala una nueva era en la informática de Windows. ¿Cuál es su opinión sobre la plataforma Snapdragon X Elite? ¿Cree que los OEM de Windows, con el apoyo de Qualcomm, pueden desafiar la supremacía de Apple? En cuanto al futuro de Intel, es una pregunta que ronda la cabeza de muchas personas, pero sólo el tiempo dará las respuestas. Mientras tanto, comparta sus opiniones en la sección de comentarios a continuación.
Source link
Hay algunas opciones disponibles si desea un banco de energía de 140 W; prefiero el UGREEN 145 W, ya que tiene una batería de 25,000 mAh y alcanza 145 W divididos en dos puertos USB-C. El banco de energía 737 de 140 W de Anker hace lo mismo y ahora hay un nuevo participante en este segmento: INIU PowerNova. INIU es un fabricante chino que se enfoca en tecnología de carga, y sus productos tienen un valor bastante bueno, con el PowerNova debutando por solo $ 99. Hay muchas cosas que me gustan del PowerNova; obtienes dos puertos de carga USB-C junto con un puerto USB-A, la batería de 27000 mAh es más que adecuada para cargar todos tus dispositivos varias veces y la mejor parte es que obtienes una pantalla que muestra información de carga en tiempo real. No es tan detallado como el de Sharge Storm 2, pero hace un gran trabajo por sí solo. La pantalla es idéntica a la del Baseus Blade; muestra la velocidad de carga, el tiempo hasta la carga completa y la energía restante. (Crédito de la imagen: Harish Jonnalagadda / Android Central) A pesar de la batería más grande de 27.000 mAh, el PowerNova es más liviano que el UGREEN 145W, y eso se debe al diseño. El plástico suave al tacto se siente dorado y el diseño redondeado facilita su transporte. INIU dice que el banco de energía también es bueno para uso en vuelo, y aunque todavía no lo usé en la carretera, el diseño lo hace ideal para uso portátil. El plástico es propenso a mancharse, por lo que necesitarás Limpie el banco de energía con frecuencia para asegurarse de que luzca impecable. Obtienes un cable USB-C a USB-C y una bolsa de transporte para guardar el banco de energía y, aparte del hecho de que se ensucia un poco, no tengo ningún problema con el diseño del PowerNova. (Crédito de la imagen : Harish Jonnalagadda / Android Central)Obviamente, el mayor tema de conversación con PowerNova es la tecnología de carga de 140W. Lo interesante aquí es que PowerNova es capaz de entregar 140 W a través de un único puerto USB-C a través del estándar USB PD 3.1, y eso lo convierte en una opción mucho mejor para usar con las últimas MacBooks y portátiles con Windows. El otro puerto USB-C sube a 45 W y el puerto USB-A alcanza los 18 W, lo cual es bastante decente. El PowerNova también se carga a 100 W, y tarda poco menos de dos horas en cargar completamente la enorme batería de 27 000 mAh. (Crédito de la imagen: Harish Jonnalagadda / Android Central) En cuanto al uso diario, el PowerNova no tuvo problemas para ofrecer una velocidad de carga constante. Lo usé principalmente con el Xiaomi Notebook 120G y un Steam Deck, y logró cargar de manera confiable cualquiera de los dispositivos a los niveles de potencia requeridos. Al igual que otros bancos de energía, el PowerNova puede cargar hasta tres dispositivos a la vez, pero el potencial de carga disminuye cuando conecta más de un dispositivo. El puerto USB-C1 llega a 100 W, y el puerto USB-C2 y USB-A comparten un controlador de energía que limita su carga a 24 W combinados. Imagen 1 de 3 (Crédito de la imagen: Harish Jonnalagadda / Android Central) (Crédito de la imagen: Harish Jonnalagadda / Android Central) (Crédito de la imagen: Harish Jonnalagadda / Android Central) Con los tres puertos en uso, el banco de energía puede alcanzar los 124 W. Puede usar los puertos USB-C duales y aprovechar 145 W: 100 W a través de USB-C1 y 45 W a través de USB-C2, y ambos usan el protocolo PD 3.1. En general, PowerNova es una excelente opción si desea un banco de energía grande que pueda para llegar hasta 140W. Se las arregla para ofrecer una carga constante, no es demasiado voluminoso y puedes cargar fácilmente tres dispositivos a la vez. Teniendo en cuenta que estás pagando sólo $99, estás obteniendo un valor bastante bueno. PowerNova INIU PowerNova 27000mAh 140W Power Bank El PowerNova lo tiene todo: tres puertos de carga, una batería enorme y la capacidad de cargar hasta 140W.
Source link
OpenAI, un laboratorio líder de investigación en inteligencia artificial, ha confirmado recientemente el desarrollo de su modelo de IA de próxima generación, GPT-5. El director ejecutivo Sam Altman ha afirmado que GPT-5 podría poseer superinteligencia, superando el conocimiento y la capacidad de razonamiento humanos. OpenAI ha comenzado a construir el modelo de IA de próxima generación ChatGPT 5. El director ejecutivo de la compañía, Sam Altman, confirmó la noticia en una entrevista reciente. Afirmó que este modelo puede tener superinteligencia. Sin embargo, señaló que para alcanzar el objetivo, la empresa necesitará más financiación de su socio de largo plazo, Microsoft. Esto se produce después de que OpenAI obtuviera nueva financiación de Microsoft. En una entrevista con el Financial Times, Altman dijo que la asociación con Microsoft ha ido muy bien y que espera recaudar más fondos de Microsoft y otros inversores en el futuro. Altman mencionó que el proceso de entrenamiento para GPT-5 requerirá una mayor cantidad de datos. Estos datos procederán tanto de conjuntos de datos de acceso público en Internet como de conjuntos de datos exclusivos de empresas privadas. Altman también dijo que técnicamente hablando, es difícil predecir con precisión qué nuevas funciones y habilidades puede tener el modelo. «Es como un divertido juego de adivinanzas para nosotros antes de entrenar este modelo», dijo Altman. “Estamos tratando de mejorar porque creo que las capacidades predictivas son importantes desde una perspectiva de seguridad, pero no puedo estar seguro. Realmente te dice lo que GPT-4 no puede hacer y lo que sí puede hacer”. Con respecto a productos como GPT-4 Turbo lanzados en la conferencia de desarrolladores de la semana pasada, Altman dijo: «Estos no son nuestros productos reales, son solo nuestros canales, y nuestra visión final es construir AGI, garantizar su seguridad y beneficiarnos de él». Superinteligencia y desarrollo de GPT-5 El director ejecutivo de OpenAI, Sam Altman, ha expresado la visión de la compañía de avanzar hacia la construcción de inteligencia artificial general (AGI) y crear herramientas tecnológicas «superinteligentes». El desarrollo de GPT-5 representa un salto significativo en las capacidades de la IA, con el potencial de superar la inteligencia humana en conocimiento y comprensión. Altman ha enfatizado la necesidad de aumentar la potencia informática y los datos para lograr este objetivo, destacando los importantes recursos necesarios para el desarrollo de GPT-5. Respaldo financiero y asociaciones estratégicas OpenAI ha obtenido un respaldo financiero sustancial de Microsoft, con una inversión de más de $10 mil millones como parte de un acuerdo de varios años. La asociación con Microsoft ha sido fundamental para respaldar los esfuerzos de OpenAI para avanzar en la tecnología de IA, con un enfoque en la construcción de modelos de IA más sofisticados, incluido GPT-5. Altman ha expresado la intención de la compañía de recaudar fondos adicionales de Microsoft y otros inversores para cubrir los exigentes costos asociados con el desarrollo de modelos avanzados de IA. Gizchina Noticias de la semana La asociación de Microsoft con OpenAI es más que una simple inversión financiera. También es el proveedor exclusivo de potencia informática para la investigación, los productos y las interfaces de programación de OpenAI para desarrolladores. Las empresas emergentes y las marcas multinacionales, incluida Microsoft, se apresuran a integrar sus productos con OpenAI. Esto significa cargas de trabajo masivas que se ejecutan en los servidores en la nube de Microsoft. Según fuentes internas, Microsoft invirtió 10 mil millones de dólares en OpenAI a principios de este año. Esto es parte de un acuerdo “plurianual”. Cuando se le preguntó si Microsoft continuaría invirtiendo, Altman dijo: «Eso espero», y «Aún queda un largo camino por recorrer, hay mucha potencia informática que debe desarrollarse de aquí a AGI… El costo de la capacitación es muy alto.» Altman reveló que “el crecimiento de los ingresos ha sido bueno este año”, pero no proporcionó detalles financieros. Sin embargo, confirma que la empresa sigue funcionando con pérdidas debido a los costes de formación. También mencionó que la asociación con Microsoft garantizará que «todos nos beneficiemos del éxito de los demás y todos estén felices». Beneficios de la inversión La financiación permitirá a OpenAI continuar su investigación independiente y desarrollar una IA que sea cada vez más segura, útil y poderosa. En cumplimiento de su misión de garantizar que la IA avanzada beneficie a toda la humanidad, OpenAI sigue siendo una empresa con beneficios limitados y está regida por la organización sin fines de lucro OpenAI. Esta estructura permite a OpenAI recaudar el capital que necesita para cumplir su misión sin sacrificar sus creencias fundamentales sobre compartir ampliamente los beneficios y la necesidad de priorizar la seguridad. Microsoft aumentará sus inversiones en el desarrollo y despliegue de sistemas de supercomputación especializados para acelerar la investigación de IA de OpenAI e integrar los sistemas de IA de OpenAI con sus productos al tiempo que «introduce nuevas categorías de experiencias digitales». La plataforma en la nube Azure del gigante tecnológico seguirá siendo el proveedor de nube exclusivo de OpenAI, impulsando las cargas de trabajo de la startup en investigación, productos y servicios API. Implicaciones y perspectivas futuras El desarrollo de GPT-5 y la búsqueda de superinteligencia han planteado preguntas sobre el impacto potencial y las implicaciones de una tecnología de IA tan avanzada. La visión de Altman para AGI y superinteligencia subraya los ambiciosos objetivos de OpenAI y su compromiso de ampliar los límites de las capacidades de IA. El enfoque estratégico de la empresa en la inteligencia como producto principal refleja una visión a largo plazo para la integración de la IA en diversas industrias y aplicaciones. Conclusión La confirmación del desarrollo de GPT-5 por parte de OpenAI y el potencial de la superinteligencia representa un hito importante en el campo de la inteligencia artificial. A medida que la empresa continúa avanzando en la tecnología de IA, las implicaciones y aplicaciones de GPT-5 y los futuros modelos de IA están preparadas para dar forma al futuro de la investigación y la innovación en IA. La búsqueda de OpenAI de GPT-5 y el potencial de superinteligencia subraya el compromiso de la compañía de hacer avanzar la tecnología de IA y ampliar los límites de lo que es posible en el campo de la inteligencia artificial. Es probable que ambas marcas continúen cooperando en el futuro mientras Microsoft compite con otros peces gordos en el mercado de la inteligencia artificial. ChatGPT de OpenAI tomó la delantera en el mercado de la IA generativa. Sin embargo, tendrá que mejorar si quiere mantenerse en la cima.