OpenAI escribe en su sitio web: “La cantidad de computación utilizada en la IA más grande [artificial intelligence] Las carreras de entrenamiento han aumentado exponencialmente con un tiempo de duplicación de 3,4 meses (en comparación, la Ley de Moore tuvo un período de duplicación de dos años)”. Según OpenAI, este crecimiento equivale a 300.000 veces más potencia informática requerida hoy en día en comparación con 2012, lo que es un aumento mucho mayor que el crecimiento siete veces mayor de la potencia informática que se obtiene durante el mismo período si se supone que se duplicará en dos años. período predicho por la ley de Moore. Cuando se extrapola, dos cosas se hacen evidentes. La primera es que las computadoras nunca podrán seguir el ritmo del aumento de la demanda de aplicaciones de IA, a menos que se produzca algún cambio disruptivo y se ponga a disposición de la industria. Si bien la computación cuántica y la computación en memoria son dos tecnologías potencialmente revolucionarias, aún faltan algunos años para que se produzcan ambas. Lo segundo que es evidente es que, en su lucha por mantenerse al día con las demandas de la IA, los fabricantes de computadoras producirán nuevo hardware y centros de datos y ejecutarán todo lo que tienen a la máxima potencia. Como resultado, los residuos electrónicos y las huellas de carbono pronto se saldrán de control. Este es el escenario en el que nos encontramos ahora y estaremos aquí durante varios años más. Según Niklas Sundberg, director digital y vicepresidente senior de Kuehne+Nagel, la IA ya tiene una gran huella de carbono y está creciendo rápidamente. Requiere una gran cantidad de hardware nuevo, que no sólo requiere metales que se convierten en desechos electrónicos, sino que también produce muchas emisiones de carbono en el proceso de fabricación. Además, ejecutar el hardware a las intensidades necesarias tanto para el entrenamiento como para la inferencia de la IA produce aún más emisiones de carbono, de forma continua. Sundberg publicó su libro, Manual de estrategias de TI sostenible para líderes tecnológicos, en octubre de 2022, aproximadamente un mes antes de que OpenAI lanzara ChatGPT. Los nombres de las tecnologías han cambiado, pero los principios de su libro todavía se aplican al mundo de la IA posgenerativa (GenAI). Por un lado, los líderes de TI deben mantenerse al día con la tecnología para garantizar que sus organizaciones sigan siendo competitivas. Por otro lado, tienen que actuar responsablemente con respecto al cambio climático; no solo es lo correcto, sino que también es la única manera de cumplir con la nueva regulación, incluidos los informes de alcance 3, que cubren las emisiones en toda la cadena de suministro. . Tres formas de reducir las emisiones de carbono En un artículo reciente, Tackling AI’s Climate Change Problem, publicado en la edición de invierno de 2024 de la revista MIT Sloan Management Review, Sundberg dice que se pueden aplicar tres mejores prácticas a corto plazo para minimizar las emisiones de carbono. Esto es lo que él llama las 3R: reubicar, ajustar el tamaño y rediseñar. Reubicar los centros de datos en lugares como Quebec, donde la energía es casi 100% renovable y la intensidad promedio de carbono es de 32 gramos por kilovatio-hora, escribe. Para los líderes estadounidenses de TI, donde las emisiones promedio de carbono de un centro de datos son de 519 gramos por kilovatio-hora, esto supondría una reducción de 16 veces. Según Sundberg, al trasladar los activos de TI locales a un centro de datos basado en la nube bien diseñado, las organizaciones podrían ahorrar emisiones y energía en un factor de 1,4 a 2. Los centros de datos basados ​​en la nube están diseñados para lograr eficiencia energética. Adapte el tamaño adecuado a sus modelos y aplicaciones de IA para que se ajusten a lo que realmente necesita. Sundberg escribe que las empresas pueden reducir su huella de carbono ajustando el tamaño adecuado de sus modelos y aplicaciones de IA y utilizando buenos procedimientos de archivo. Si utiliza procesadores y sistemas diseñados para el aprendizaje automático, en lugar de hardware y plataformas de uso general, puede aumentar tanto el rendimiento como la eficiencia en un factor de entre dos y cinco, escribe Sundberg. Busque el equilibrio adecuado entre alcance, tamaño del modelo, calidad del modelo y eficiencia. Si puedes programar períodos de entrenamiento para correr en momentos del día en que la intensidad de carbono tiende a ser menor, eso también ayuda. Elegir la arquitectura del modelo de aprendizaje automático adecuada también puede marcar una gran diferencia. Un modelo disperso, por ejemplo, no sólo puede mejorar la calidad del aprendizaje automático, sino que también puede disminuir la computación entre tres y diez veces. Por qué es necesaria la gobernanza interorganizacional para la IA «Cuando se trata de la IA en general, hay una cierta ruptura de la confianza personal y social», dice Sundberg. “Estamos viendo implicaciones de esto con el surgimiento de GenAI con bastante rapidez. TI tiene un papel que desempeñar para controlar esos datos y garantizar que sean confiables. Esto es extremadamente importante y es algo de lo que se habló en Davos”. Según Sundberg, si bien solo había 60 líderes de TI entre los 3.000 ejecutivos que asistieron al evento, GenAI dominó la discusión. «Todo el mundo hablaba de gobernanza y uso responsable de la IA», afirma. Debido a la amplia aplicabilidad de la IA, la gobernanza debe ser multidisciplinaria, debido a su amplia aplicabilidad en todas las unidades de negocios y unidades funcionales y en el mundo exterior. Debe ser el puente que conecte los silos organizacionales y una a diferentes funciones y líderes. «La tecnología se está desarrollando muy, muy rápidamente, y es realmente importante asegurarse de implementar un marco de gobernanza de IA a lo largo de estos casos de uso que se están ejecutando o que están surgiendo», afirma Sundberg. “CIO [chief information officers] Necesito configurar cosas como políticas de uso aceptable, principios de diseño, etc.

Source link