Mientras que los teléfonos de la serie Pixel 8 de Google fueron inicialmente anunciados como campeones de teléfonos inteligentes con tecnología de inteligencia artificial gracias a su capacidad para usar funciones como Magic Editor, que hasta hoy han sido exclusivas de los teléfonos. Sin embargo, en un movimiento bastante sorprendente, Google anunció recientemente que llevará algunas de sus herramientas de edición de IA a dispositivos que no sean Pixel a través de su aplicación Google Photos. Las funciones de edición estarán disponibles para más usuarios a partir del 15 de mayo; por lo tanto, herramientas como Magic Eraser, Photo Unblur y Portrait Light estarán disponibles para cualquiera que use Google Photos, sin necesidad de una suscripción. Mientras tanto, Magic Editor se expandirá a todos los dispositivos Pixel, lo que debería ser una actualización muy bienvenida para los usuarios de Pixel en teléfonos más antiguos. Curiosamente, Magic Editor también estará disponible para los usuarios de Google Photos en otros dispositivos Android, e incluso para los usuarios de dispositivos iOS. Sin embargo, hay un límite, ya que los usuarios que no son de Pixel solo obtienen hasta 10 ahorros de Magic Editor por mes, aunque puedes evitar este límite suscribiéndote a un plan Premium de Google One (o comprando un teléfono Pixel). Quizás sea seguro decir que esto es algo bueno y algo “malo”: por un lado, ahora más usuarios podrán acceder a las impresionantes herramientas de edición de Google. Sin embargo, desmiente las afirmaciones de la compañía de que dichas funciones necesitan hardware «especial» como Tensor para ejecutarse, lo que aparentemente confirma los primeros rumores de que herramientas como Magic Editor podían funcionar únicamente a través de la nube y no en el hardware de Google. Teniendo esto en cuenta, Google tiene algunos requisitos mínimos en juego. Por ejemplo, los teléfonos Android necesitarán al menos 3 GB de RAM para admitir estas funciones, además de la versión 8 de Android en adelante. Además, las herramientas de edición no podrán funcionar en teléfonos inteligentes de 32 bits; los mismos requisitos son los mismos para los dispositivos iOS, que deberán ejecutar iOS 15 y versiones posteriores.
Etiqueta: Google Página 1 de 29

Edgar Cervantes / Android AuthorityTL;DR Google ha publicado un nuevo manual sobre cómo crear las mejores indicaciones para Gemini en Workspace. El manual dice que hay cuatro criterios que debe considerar al realizar una sugerencia: persona, tarea, contexto y formato. Las indicaciones que tienen alrededor de 21 palabras tienden a tener mayor éxito. Para aprovechar al máximo un chatbot como Gemini, es necesario saber cómo estructurar un mensaje de forma eficaz. Sin embargo, no todo el mundo es un experto en este ámbito. Para ayudar en este frente, Google acaba de publicar un curso intensivo sobre el tema en forma de manual de 45 páginas. Titulado “Guía de indicaciones 101”, el manual está diseñado para ayudar a los usuarios empresariales a comenzar a utilizar Gemini. Aunque la guía se creó pensando en Workspace, los consejos proporcionados también pueden ayudar a los usuarios promedio. Esta guía se centra en algunas profesiones diferentes, incluidas ejecutivas y emprendedores, recursos humanos, servicio al cliente, marketing, gestión de proyectos y ventas. En particular, el manual destaca cuatro criterios que debe considerar al pensar en su mensaje. Persona: ¿Quién eres? Tarea: Qué quieres que haga la IA (resumir, cambiar el tono, etc.) Contexto: Dar detalles Formato: Viñetas, límites de recuento de caracteres, etc. Puedes ver los cuatro en el extracto a continuación. los detalles se incluyen en la indicación. El manual añade además que las indicaciones deben escribirse de forma natural con “pensamientos completos en oraciones completas”. También recomienda que se debe realizar un seguimiento de cualquier resultado con indicaciones de seguimiento. Según la empresa, «las indicaciones más exitosas tienen un promedio de alrededor de 21 palabras». Finalmente, advierte que los usuarios deben revisar los resultados para “garantizar claridad, relevancia y precisión”. Al final del manual, Google ofrece algunos consejos adicionales que los usuarios pueden seguir: Dividirlo. Si desea que Gemini for Workspace realice varias tareas relacionadas, divídalas en indicaciones separadas. Dar restricciones. Para generar resultados específicos, incluya detalles en su mensaje, como los límites de recuento de caracteres o la cantidad de opciones que desea generar. Asigna un rol. Para fomentar la creatividad, asigne un rol. Puede hacerlo comenzando su mensaje con un lenguaje como: «Usted es el jefe de un departamento creativo de una agencia de publicidad líder …» Solicite comentarios. En tu conversación con Gemini en gemini.google.com, dile que le estás dando un proyecto, incluye todos los detalles que tienes y todo lo que sabes, y luego describe el resultado que deseas. Continúe la conversación haciendo preguntas como: «¿Qué preguntas tienes para mí que te ayudarían a obtener el mejor resultado?» Considere el tono. Adapte sus indicaciones para que se adapten a su público objetivo y al tono deseado del contenido. Solicite un tono específico, como formal, informal, técnico, creativo o informal, en el resultado. Dígalo de otra manera. Ajuste sus indicaciones si los resultados no cumplen con sus expectativas o si cree que hay margen de mejora. Un proceso iterativo de revisión y refinamiento a menudo produce mejores resultados. Esta fue solo una breve descripción general de lo que cubre el manual de la guía de indicaciones. Pero puedes verlo todo descargando la guía tú mismo. ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección.Comentarios

Google Cloud anunció una nueva suscripción empresarial para Chrome y una serie de complementos de IA generativa para Google Workspace durante la conferencia Cloud Next ’24, celebrada en Las Vegas del 9 al 11 de abril. En general, Google Cloud está poniendo su IA generativa Gemini en coloque todo lo que pueda; por ejemplo, la empresa está apostando por proporcionar infraestructura Vertex AI para la IA y el hardware de otras empresas, como la nueva CPU Axion. Asistimos a una sesión informativa previa para echar un vistazo temprano a las nuevas funciones y herramientas, incluido un servicio de video generativo de IA para uso en marketing y comunicaciones internas. A continuación se ofrece un resumen de lo que consideramos las noticias empresariales más impactantes de Google Cloud Next. Chrome Enterprise Premium agrega controles de seguridad Los navegadores empresariales pueden ser una tendencia creciente. El año pasado, Gartner predijo que los navegadores creados específicamente teniendo en cuenta la seguridad y el soporte a nivel empresarial alcanzarían una adopción generalizada para 2030. Google está contribuyendo con Chrome Enterprise Premium. Este nivel empresarial agrega un nivel adicional de seguridad a Chrome, mejorándolo con: Controles empresariales para la aplicación de políticas y administración de actualizaciones y extensiones de software. Informes de eventos y dispositivos. Informes de seguridad forense. Controles de acceso contextuales. Amenazas y protección de datos. Chrome Enterprise Premium está disponible hoy, 9 de abril, en cualquier lugar donde se ofrezca Chrome. Cuesta $6 por usuario por mes. Axion es la primera CPU basada en Arm de Google Algunos servicios de Google Cloud, como BigQuery, pronto se ejecutarán en los procesadores Google Axion, la primera CPU basada en Arm personalizada de Google para centros de datos (Figura A). Google Cloud dijo que Axion muestra un rendimiento un 50% mejor que las máquinas virtuales comparables basadas en x86 de la generación actual. Las instancias de Google Compute Engine, Google Kubernetes Engine, Dataproc, Dataflow, Cloud Batch y más estarán disponibles más adelante en 2024. Figura A Los procesadores Google Axion están destinados a ejecutar cargas de trabajo en la nube en centros de datos. Imagen: Google Cloud Vertex AI se basará en la Búsqueda de Google A partir del 9 de abril, los modelos entrenados en Vertex AI se basarán en la Búsqueda de Google. Esto podría resultar controvertido dependiendo exactamente de qué datos se utilicen para la capacitación. La conexión a tierra de la IA es parte de la tendencia de recuperación de generación aumentada, que evita las «alucinaciones» al comparar la IA con información genuina. Google Cloud dice que la conexión a tierra proporcionará a los modelos creados en Vertex AI «información nueva y de alta calidad». Más noticias y consejos de Google Una gran cantidad de adiciones de IA para los productos de seguridad de Google Otros anuncios de Google Cloud se centraron en agregar Gemini a los productos de seguridad, una medida posiblemente destinada a competir con la integración completa de Copilot por parte de Microsoft en sus suites de seguridad. Gemini AI ahora estará disponible en Google Security Operations (Figura B) y Threat Intelligence. En particular, Gemini podrá ayudar con las investigaciones en Chronicle Enterprise y Chronicle Enterprise Plus a partir de finales de abril. A partir del 9 de abril, los analistas de seguridad pueden utilizar Gemini para hablar en lenguaje natural con el software de inteligencia de amenazas de Mandiant. Figura B Un ejemplo del uso de Gemini en Operaciones de seguridad para investigar incidentes y alertas con chat conversacional en Chronicle Enterprise o Enterprise Plus. Imagen: Google Cloud Gemini en Security Command Center recibió un impulso de Gemini; A partir del 9 de abril, las funciones de IA en la vista previa pueden buscar amenazas basándose en indicaciones de lenguaje natural y resumir alertas y rutas de ataque. «Los ingenieros de detección pueden crear detecciones y guías con menos esfuerzo, y los analistas de seguridad pueden encontrar respuestas rápidamente con resúmenes inteligentes y búsquedas en lenguaje natural», dijo Ronald Smalley, vicepresidente senior de Operaciones de Ciberseguridad de Fiserv, en un comunicado de prensa de Google Cloud. «Esto es fundamental ya que los equipos de SOC continúan administrando volúmenes de datos cada vez mayores y necesitan detectar, validar y responder a eventos más rápido». Gemini Cloud Assist en los servicios de seguridad de Google Cloud ahora incluirá las siguientes capacidades impulsadas por IA en versión preliminar: Identidad y acceso recomendaciones de manejo para mejorar la postura IAM. Asistencia con la creación de claves de cifrado. Sugerencias sobre cómo implementar la protección informática confidencial. Cree videos con IA y más en las nuevas ofertas de Google Workspace Google presentó una nueva plataforma Workspace llamada Google Vids (Figura C), con la cual la IA generativa puede ayudar a los empleados a crear videos promocionales o informativos. Figura C Un usuario proporciona un guión como mensaje para darle a Google Vids una idea de lo que quiere que diga su video. Imagen: Google Cloud Primero, Google Vids creará un guión gráfico que el usuario podrá personalizar. Desde allí, Google Vids puede crear el video y agregar voz en off con voces AI preestablecidas o audio personalizado. Google Vids será una plataforma completamente nueva que convivirá junto con Docs Sheets y Slides. Se podrá acceder a los vídeos a través de Workspace Labs en junio. Más anuncios de Google Workspace Una herramienta de inteligencia artificial para resumir y traducir reuniones, que costará 10 dólares por usuario al mes. Clasificación y protección de archivos del complemento AI Security, que costará 10 dólares por usuario al mes. En Gmail, la IA habilitará las herramientas «Pulir mi borrador» y «Ayúdame a escribir», la última de las cuales se puede utilizar mediante comandos de voz en el móvil. Google Gemini llega a Chat y Docs para crear imágenes de portada. Vertex AI se integrará en Google Workspace. Extensión de HubSpot para Gemini para Google Workspace. Gemini 1.5 Pro llega a Vertex AI y Data Cloud Google anunció muchos cambios en el portafolio de Data Cloud en bases de datos y análisis de datos. La más importante fue la disponibilidad de Gemini 1.5 Pro en Vertex AI, que permite una ventana de contexto de un millón de tokens. VER: Todo lo que necesitas saber sobre Google Cloud Platform. (TechRepublic) Google continúa ampliando las integraciones y capacidades de Gemini: en la vista previa de hoy están Gemini en Looker y Gemini en BigQuery. Las nuevas características adicionales de BigQuery disponibles hoy en vista previa o vista previa privada incluyen información sobre documentos y audio de Vertex AI, incrustaciones y coincidencias de vectores, y más. Otros anuncios (en vista previa a menos que se indique lo contrario) incluyen: Google Gemini en bases de datos. Soporte vectorial e integración de LangChain en Bases de Datos. Soporte de vectores, soporte de lenguaje natural y gestión de puntos finales de modelos para AlloyDB. Acceso aislado a cargas de trabajo desde motores de análisis en Bigtable Data Boost. Capacidades ampliadas de recuperación ante desastres y mantenimiento en menos de dos segundos (en disponibilidad general) en Cloud SQL. Nuevo tamaño de instancia para Memorystore (en disponibilidad general) y compatibilidad con dos nuevas opciones de persistencia en Memorystore (en versión preliminar). Claves de cifrado administradas por el cliente en Cloud Firestore. TPU v5p entra en disponibilidad general El acelerador de IA TPU v5p de Google ahora está en disponibilidad general, lo que permite a las organizaciones usarlo para inferencia y capacitación de IA. Además, Google Kubernetes Engine ahora es compatible con TPU v5p. Avanzando en la hipercomputación y la computación en la nube, Google Cloud trabajará con el hardware de NVIDIA para impulsar la infraestructura de capacitación en inteligencia artificial de Google. Los anuncios del grupo de infraestructura en la nube incluyeron: A3 Mega VM con tecnología de GPU NVIDIA H100 Tensor Core para entrenamiento de IA a gran escala, disponibles de forma generalizada en mayo. Hyperdisk ML, un nuevo servicio de almacenamiento en bloque para cargas de trabajo de inferencia/servicio de IA, ya está disponible en versión preliminar. JetStream, un motor de inferencia de rendimiento y memoria optimizado para la formación LLM, está disponible hoy en GitHub. Dynamic Workload Scheduler, un servicio para administrar recursos en Google Cloud para optimizar las cargas de trabajo de IA según la capacidad informática, ahora está en versión preliminar. Duet AI para desarrolladores ahora es Gemini Code Assist. Competidores de Google Cloud El amplio catálogo de productos de Google significa que tiene muchos competidores en diferentes sectores. En el ecosistema de IA generativa y en el soporte empresarial en particular, compite y a menudo interopera con Copilot AI, AWS, IBM y SAP de Microsoft. El chip Axion en particular podría ayudar a Google a ingresar al espacio de chips para centros de datos dominado por Amazon y NVIDIA. TechRepublic cubre Google Cloud Next ’24 de forma remota.

Edgar Cervantes / Android Authority Un informe reciente afirmó que Google está explorando formas de ofrecer funciones de búsqueda basadas en inteligencia artificial por una tarifa. Estas funciones de búsqueda de IA podrían formar parte de los servicios de suscripción existentes de Google, como Gemini Advanced o Google One. Pero a pesar de la tarifa, este nivel premium de la Búsqueda de Google podría seguir incluyendo anuncios. Una decisión concluyente todavía está en el aire, y el cronograma de lanzamiento es incierto, pero ciertamente es una dirección que Google parece dispuesto a explorar. Como era de esperar, la mayoría de nuestros lectores no aprecian tal maniobra si llega a buen término. Según nuestra encuesta, más del 75% de nuestros lectores participantes se niegan a pagar por las funciones de búsqueda de Google basadas en inteligencia artificial. Menos del 2,5% están realmente dispuestos a pagar por ello, mientras que otro 12% está de acuerdo con la idea, siempre que la suscripción sea lo suficientemente barata. Los lectores tenían varias razones por las que nunca pagarían por una búsqueda de IA. La razón principal que prevalece parece ser las experiencias insatisfactorias con la Búsqueda de Google en general, lo que reduce la confianza a la hora de comprar una suscripción recurrente para obtener resultados de búsqueda aparentemente «mejores». Algunos otros comentaristas, como el lector Angryyoungman, no estaban satisfechos con los resultados de búsqueda de IA que recibieron durante la vista previa de la experiencia generativa de búsqueda de Google. Esperan una mejora mayor en los resultados de las búsquedas con IA si Google tiene alguna posibilidad de ganar dinero con ellas. De manera similar, es comprensible que muchos sean menos confiables en las búsquedas con IA y ni siquiera las quisieron en primer lugar. Si no hay necesidad de una búsqueda con IA por parte del usuario, no es sorprendente que no estén dispuestos a pagar por ella, como podemos deducir de la respuesta del lector Boarnix. Algunos lectores, como Taylor, parecen estar dispuestos a pagar por dicha búsqueda con IA. funciones, pero últimamente no les convencen en absoluto los resultados de búsqueda de Google, gracias en cierta medida al SEO. El lector Robert Pearson cree que los navegadores y otros competidores mantendrán sus funciones de inteligencia artificial “gratuitas” para que las utilicen los usuarios. Entonces, para esta próxima generación de Búsqueda, no hay muchos argumentos que respalden la monetización desde el punto de vista del consumidor. La lectora Layla está abierta a pagar por la Búsqueda de Google, pero solo por una experiencia sin publicidad. Quieren desactivar los anuncios de Google en todas partes o al menos permitir un control muy estricto. No hubo suficientes comentarios que explicaran por qué pagarían fácilmente por la Búsqueda de Google con IA, y eso no es sorprendente considerando las pocas personas que están de acuerdo con esa línea de pensamiento. Google tiene como objetivo monetizar la experiencia generativa de búsqueda; necesitará muchas funciones útiles para convencer a los usuarios de búsqueda de Google desde hace mucho tiempo de que paguen por ella. Existe un déficit de confianza evidente en los resultados de la Búsqueda de Google, y más aún en los resultados de IA que se sabe que promedian respuestas e incluso alucinan. Con estas limitaciones, saltar a un modelo pago sigue sin ser convincente en esta etapa. Además, mantener a SGE plagado de anuncios puede no ser la mejor decisión, pero puede ser necesario para compensar el mayor costo de entregar resultados de IA a pesar de una suscripción inicial. Google tiene una delgada línea por la que caminar aquí, y tenemos curiosidad por saber cómo abordará la empresa lo mismo. ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer anónimo u obtener crédito por la información, es tu elección.Comentarios

También se incluye una función «Buscar cerca» que identifica los dispositivos más cercanos a usted, que también funcionará con etiquetas Bluetooth compatibles. La aplicación también puede mostrar la proximidad de un elemento perdido a un dispositivo Nest en casa, lo que debería facilitar un poco la búsqueda de objetos perdidos. Los usuarios también pueden compartir accesorios usando la aplicación; por ejemplo, los compañeros de cuarto pueden compartir controles remotos de TV, llaves de casa e incluso equipaje que se puede ver a través de la aplicación Buscar mi dispositivo de cada usuario. Quizás una de las mejores características de la función Buscar mi dispositivo es que funcionará para una gran cantidad de dispositivos diferentes con funciones de conectividad inalámbrica integradas, como equipos de audio de Sony, JBL y más, aunque se suministrará en un actualización futura. Dicho todo esto, sin duda es una característica útil que, con suerte, pronto llegará a más regiones.

El rendimiento máximo de una CPU es una métrica crítica a considerar al comparar diferentes diseños de CPU. Sin embargo, no es el único número que importa. Otras métricas importantes incluyen el rendimiento sostenido y el rendimiento por vatio. En este artículo, profundizo en el rendimiento por vatio del sistema Google Tensor G3 en un chip (SoC) que se usa actualmente en los teléfonos Pixel 8 y que probablemente también se usará en futuros teléfonos de Google. ¿Qué es Google Tensor G3? Robert Triggs / Android Authority El Google Tensor G3 es un SoC diseñado para dispositivos móviles, específicamente dispositivos Pixel. Está fabricado por Samsung, probablemente en colaboración con Google, y comparte muchas similitudes con otros chips de Samsung. La CPU consta de nueve núcleos Arm: un Cortex-X3 con una frecuencia máxima de 2,91 GHz, cuatro Cortex-A715 con una frecuencia máxima de 2,37 GHz y cuatro Cortex-A510 con una frecuencia máxima de 1,7 GHz. El SoC también incluye una GPU Arm Mali-G78 y se basa en el proceso de 4 nm de Samsung. Google Tensor G3: resultados de rendimiento por vatio Para medir el rendimiento por vatio, utilicé un dispositivo Pixel 8 rooteado. Esto me permitió controlar en qué núcleo de CPU se ejecutan mis puntos de referencia. Puedo controlar la frecuencia máxima de la CPU, para poder ver el rendimiento en cada paso de frecuencia. También se me permite elegir al gobernador. En este caso, lo configuré en rendimiento. Luego medí la cantidad de energía utilizada por el teléfono inteligente, lo que me permitió calcular el rendimiento por vatio. Mire el video de arriba para obtener una descripción completa de mis hallazgos. A continuación se muestra un breve resumen de los resultados de rendimiento por vatio de mi Tensor G3. Andy Walker / Android Authority El primer gráfico muestra el rendimiento en función de la frecuencia. A medida que aumenta la frecuencia del reloj, aumenta el rendimiento, pero el gradiente de las líneas para cada núcleo de la CPU es diferente. El A715 y el X3 están cerca, pero el A510 es significativamente diferente, mostrando una gran diferencia de rendimiento entre ellos. Sin embargo, el A510 utiliza menos energía, por lo que se utiliza como núcleo de eficiencia energética en lugar de núcleo de alto rendimiento. Andy Walker / Autoridad de Android El siguiente gráfico visualiza la relación entre la frecuencia y el uso de energía y demuestra la eficiencia del A510 en bajas frecuencias. Utiliza significativamente menos que los dos núcleos más rápidos, claramente demostrados en la marca de 1,0 GHz. Sin embargo, esta prueba demuestra que aumentar la velocidad del reloj dará como resultado un mayor uso de energía, pero hay rendimientos decrecientes hasta cierto punto. Andy Walker / Android Authority El último gráfico compara la potencia con el rendimiento y demuestra dónde cada núcleo es más eficiente. El A510 funciona bien utilizando muy poca energía hasta cierto punto. Después de ese punto, el A715 proporciona un mayor rendimiento con la misma cantidad de energía mientras funciona a una frecuencia más baja. El A715 comienza a estabilizarse en frecuencias más altas, y aquí es donde el X3 justifica su inclusión. Puede extraer la misma cantidad de rendimiento mientras funciona a una frecuencia más baja que el A715, proporcionando una mejor eficiencia en la banda de mayor rendimiento. En conclusión, el sistema Google Tensor G3 en un chip ofrece un mejor rendimiento energético que las generaciones anteriores. Espero que esta tendencia positiva continúe a medida que avancemos con diferentes microarquitecturas y nodos de proceso. Comentarios
Source link

Con la conferencia Google I/O acercándose, el próximo Google Pixel 8a se ha filtrado con bastante frecuencia en las últimas semanas. Se espera que el nuevo teléfono inteligente Pixel asequible esté en la Conferencia de Desarrolladores; sin embargo, es probable que conozcamos todos sus detalles antes del evento. Recientemente, se revelaron sus especificaciones del teléfono, e incluso el propio Google mostró un Pixel 8a en un anuncio de su operador en los EE. UU. Ahora, se filtró un nuevo conjunto de imágenes en vivo, que muestran tanto la parte trasera como la delantera de la opción de color Obsidiana. Google Pixel 8a aparece con biseles grandes y bordes redondeados El Pixel 8a mantiene el diseño característico de la serie con una “visera” de cámara que va de un lado al otro del marco. Sirve como alojamiento para dos sensores y un conjunto de flashes LED circulares. El teléfono tiene una marca G mínima y no mucho más. Google Pixel 8A pic.twitter.com/2Jopl3R2Mi Gizchina Noticias de la semana: TechDroider (@techdroider) 8 de abril de 2024 Un dato interesante es que las imágenes muestran grandes biseles alrededor de la pantalla del Pixel 8a. El mentón es bastante grande y ese es un problema común en algunos teléfonos inteligentes económicos. El problema es que el Google Pixel 8a no será tan barato como los smartphones básicos. En cualquier caso, es probable que Google se salga con la suya con el diseño porque los usuarios seguirán elogiando su software y la calidad de la cámara. Un dato curioso es que los biseles muestran una mejora con respecto a la pantalla del Pixel 7a. Crédito de la imagen: TechDroider El Pixel 8a también tiene biseles más redondeados en comparación con el Pixel 7a. Debajo del capó, se espera que el teléfono venga con un chipset Google Tensor G3. Contará con una pantalla OLED de 6,1 pulgadas y 120 Hz, 128 GB/256 GB de almacenamiento interno y una cámara principal de 64 MP con OIS. También habrá un secundario Ultrawide de 13 MP y un autofoto de 13 MP. Obtendrá energía de una batería de 4.500 mAh con carga por cable de 27 W. El teléfono se enviará con Android 14 nada más sacarlo de la caja. Teniendo en cuenta el ritmo de las filtraciones, esperamos que surjan más detalles en los próximos días. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

TL;DR Se han filtrado nuevas imágenes del Pixel 8a, que muestran un diseño redondeado y un acabado mate en la parte posterior. Las imágenes también apuntan a biseles inferiores notables en el dispositivo. TechDroider ha compartido imágenes aparentemente reales del Pixel 8a en X (anteriormente Twitter); se desconoce la fuente. Las imágenes refuerzan filtraciones anteriores que muestran la adopción por parte del Pixel 8a del lenguaje de diseño redondeado introducido con la serie Pixel 8. Un cambio destacado evidente en estas nuevas imágenes es un acabado mate en el panel posterior del Pixel 8a, que podría ser una bienvenida salida del panel posterior brillante del Pixel 7a. Las imágenes también nos dan una idea de la supuesta pantalla de 6,1 pulgadas. Si bien muchos comentarios sobre X se centraron en el bisel inferior sustancial visible aquí, esto es consistente con los diseños anteriores de Pixel de la serie A. El gran rumor esta vez es que el Pixel 8a podría convertirse en el primero de su línea en presentar una pantalla de frecuencia de actualización de 120 Hz. Debajo del capó, el Pixel 8a podría lucir el chipset Tensor G3 de Google, lo que promete un aumento significativo en el rendimiento. También es probable que el teléfono conserve la configuración de cámara dual de 64MP y 13MP que se encuentra en el Pixel 7a. 2024 se perfila como un año transformador para toda la línea Pixel. Si bien se rumorea que el Pixel 8a obtendrá un aumento sustancial de precio, la serie insignia Pixel 9 podría experimentar una reestructuración aún más significativa con un dispositivo completamente nuevo. Se espera que Google anuncie el Pixel 8a en Google I/O el 14 de mayo. ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección.Comentarios
Source link

El ataque israelí a Gaza ha provocado conflictos en empresas de todo el mundo. En Google, una empresa que a menudo ha tratado de fomentar una reputación pública de apertura, la guerra parece haber provocado que un número creciente de empleados protestara o renunciara. Sin búsqueda de IA en Google, no necesito aprender sobre los “beneficios de la esclavitud” La revista Time informa que el grupo de protesta No Tech For Apartheid, que presiona contra la participación de Google con el gobierno israelí, ahora incluye al menos a 40 empleados de Google. Recientemente, un miembro del grupo, un ingeniero de software de Google de 23 años llamado Eddie Hatfield, se puso de pie en una conferencia de la empresa y gritó: “Soy ingeniero de software de Google Cloud y me niego a desarrollar tecnología que impulse el genocidio. , apartheid o vigilancia!” Poco después, Hatfield fue despedido, escribe Time. Desde entonces, dos empleados de Google dicen que renunciaron a la empresa por su trabajo en curso en el Proyecto Nimbus, un contrato de nube de 1.200 millones de dólares con el gobierno israelí. Nimbus es un esfuerzo conjunto entre Google y Amazon para proporcionar capacidades de nube, aprendizaje automático e inteligencia artificial al Ministerio de Defensa israelí. No se ha aclarado en qué medida se ha utilizado Nimbus. El gobierno israelí caracterizó previamente el proyecto como destinado a «proporcionar al gobierno, al establecimiento de defensa y a otros una solución integral en la nube». El tiempo caracteriza a personas como Hatfield y los empleados de Google que renunciaron como parte de un “movimiento creciente” dentro de la empresa que quiere que se abandone el proyecto de nube israelí. Las personas involucradas con el grupo activista afirman que, además de las varias docenas de empleados de Google que son miembros activos del grupo, hay «cientos de trabajadores más». [who are] comprensivo” con sus objetivos. Gizmodo contactó a Google para hacer comentarios y actualizará esta historia si responde. En su sitio web, No Tech for Apartheid afirma que “Google y Amazon están impulsando el ataque genocida contra Gaza a través de un contrato de 1.200 millones de dólares con el gobierno y el ejército de Israel” y pregunta Los visitantes “exigirán a estas empresas cancelar inmediatamente el Proyecto Nimbus y poner fin a su complicidad en los crímenes de guerra de Israel”. Los trabajadores de Google y Amazon han estado protestando contra el Proyecto Nimbus durante años, desde mucho antes de los ataques de Hamás del 7 de octubre y el posterior ataque israelí a Gaza. Dicho esto, la reciente explosión de violencia parece haber impulsado el tema polémico nuevamente al frente de las guerras culturales de la compañía. Google ha hecho recientemente otros esfuerzos para limitar el debate oficial sobre Gaza. El New York Times informa que la compañía recientemente hizo esfuerzos para «tonificar» la hostilidad en su foro de mensajes interno, Memegen. El foro es una característica desde hace mucho tiempo de la cultura de la oficina de la empresa que permite a los empleados de Google expresarse libremente e incluso criticar a los ejecutivos y las políticas de Google. El Times afirma que Google recientemente eliminó algunas de las características clave de Memegen, incluida la capacidad de rechazar publicaciones. Algunos empleados de Google han criticado estas medidas, afirmando que «censurará su libertad de expresión», informa el periódico. El 7 de octubre, militantes de Hamás llevaron a cabo un ataque contra Israel, secuestraron a unas 250 personas y mataron a unas 1.200. Luego, Israel lanzó una guerra contra Hamás que ha provocado una enorme cantidad de muertes civiles. Desde el inicio de la guerra, las organizaciones de derechos humanos estiman que Israel ha matado a unos 30.000 palestinos, incluidos más de 12.000 niños. La guerra también ha provocado una crisis de hambruna para millones de habitantes de Gaza. Recientemente, las fuerzas israelíes dispararon y mataron a siete trabajadores del grupo de ayuda World Central Kitchen que estaban entregando alimentos a la Franja de Gaza. Las Naciones Unidas estiman que hasta 224 trabajadores de ayuda humanitaria han sido asesinados en Gaza desde el inicio de la guerra. Israel ha afirmado que el ataque a los trabajadores de WCK fue un “grave error”.
Source link