¿Cuánta energía se necesita para que Gemini responda a un mensaje de usuario? Google dice que es menos de lo que podría pensar. Uno de los desafíos de la IA generativa es cuánta energía se requiere para alimentar los centros de datos necesarios para ejecutar un modelo para responder una pregunta, generar algún texto, y así sucesivamente. Dicho, es una pregunta más fácil de responder para los investigadores de Google que sus compañeros académicos, con el acceso a los sistemas de la compañía. Los investigadores del gigante tecnológico analizaron la pila completa de infraestructura que sustenta su gama Gemini AI, que detallan sus hallazgos en un documento técnico reciente. El estudio amplio examinó que «la potencia de acelerador de IA activa, la energía del sistema del huésped, la capacidad de la máquina inactiva y la gastos generales de la energía del centro de datos». Muchas estimaciones públicas «. Nueve segundos «. Entonces, ¿cómo se compara Gemini para una búsqueda tradicional de Google? Según los informes de MIT Technology Review, el 58% de la demanda de energía de ejecutar un aviso era de los chips de IA, con la CPU y la memoria de un servidor que ocupa otro 25%. Un 8% más del 8% está de enfriamiento, conversión de energía y otros gastos generales de centros de datos, con un 10% atribuido a los equipos de respaldo. En comparación, la búsqueda de Google, o una búsqueda de Google, o un promedio de 0.0003kwh o 0.03 WH, lo que sugiere que el texto de Gememini es un indicador de la energía. eficiente que: una búsqueda básica, y más o menos a la par con las figuras de OpenAi. El estudio de Google viene con una valía la pena señalar que estas cifras son solo para usar un modelo AI. La capacitación de los modelos de IA también consume grandes cantidades de energía, al igual que construir y ejecutar los centros de datos necesarios para hacer modelos de IA host y varias cargas de trabajo variadas. Por eso las emisiones de Google han aumentado un 51% en los últimos cinco años: registró un 22% en el alcance 3 emisiones, destacando específicamente la capacidad de los centros de datos como un obstáculo importante para que las emisiones de la tecnología no sean solas en la evaluación del impacto ambiental de su impacto ambiental de sus modelos AI. El mes pasado, Mistral dio a conocer su propia herramienta de auditoría de sostenibilidad que incluía ideas sobre la capacitación modelo, así como 18 meses de uso. La compañía de IA francesa descubrió que la fase de capacitación por sí sola usaba la misma cantidad de agua que 5,100 ciudadanos anuales y 20.4 kilotones de dióxido de carbono. Al dejar la fase de capacitación, Google no incluye una gran parte del impacto más amplio de estos sistemas. Además, como Google admitió, los datos no se han verificado de forma independiente y podrían cambiar a medida que se agregan nuevos modelos. Beyond para que también sea notable que esto se refiera específicamente a un mensaje de texto en la aplicación Gemini, no más consultas intensivas de energía como las investigaciones profundas utilizando modelos más avanzados o la generación de imágenes, por ejemplo. Mejoras en la arquitectura del modelo de transformador, algoritmos más eficientes y hardware personalizado. «Continuamente refinamos los algoritmos que alimentan nuestros modelos con métodos como capacitación cuantificada precisa (AQT) para maximizar la eficiencia y reducir el consumo de energía para la calidad de la respuesta, sin comprometer la calidad de respuesta», dijo la publicación, agregando: «Nuestra última generación de TPU, Ironwood, Ironwood, es 30x en mayor energía de la energía de la energía de la energía de la energía de la energía de la energía de la energía de la energía. y mucho más eficiente de poder que las CPU de uso general para la inferencia «. Debido a tales esfuerzos, Google insistió en la demanda promedio de un mensaje de texto de la aplicación de Gemini cayó por 33 veces en términos de energía y 44 veces en términos de huella de carbono en el año pasado». Si bien el impacto de un solo mensaje es bajo en comparación con muchas actividades diarias, la escala de la adopción de los usuarios de los usuarios significa que continúa el enfoque en la reducción de la reducción del costo de la vez, el informe es el costo ambiental, el informe de la información, el informe, la incompleta, la inyección de los informes, la inyección de los informes, la medición global significa que el enfoque en la reducción de la reducción del costo de la Atenga, es de acuerdo, la inmensa escala, la inmensa adopción, la adopción global significa que el enfoque en la reducción de la reducción del costo de la Ay, es un indicador de un informe. Para que otras compañías de IA hagan lo mismo con conjuntos de datos similares. «Abogamos por la adopción generalizada de este o marcos de medición integrales de manera similar para garantizar que a medida que las capacidades del avance de la IA, su eficiencia ambiental lo hace bien». En todo el mundo, con la Agencia Internacional de Energía que advierte que la IA usará la misma cantidad de poder anualmente que Japón para 2030. Behavioral cambia por parte de los consumidores, y más información de los proveedores, podría ser clave para reducir el impacto energético más amplio de Ai.arlier este año, OpenAi CEO Sam Altman reveló que los usuarios innecesarán que los usuarios están innecesarios que compiten con el poder de ser polite a los chat. ‘Por favor’ y ‘gracias’ en respuesta a ChatGPT le costaron a la compañía millones de dólares al año. Altman agregó que son «decenas de millones de dólares bien gastados». Seguro que seguramente seguirá a ItPro en Google News para vigilar todas nuestras últimas noticias, análisis y reseñas. Más de ITPro Topics Sostenibilidad Eficiencia energética Energía Energía de sostenibilidad Eficiencia energética