El ingeniero principal sénior de Intel para el diseño de sistemas en chip, Arik Gihon, guía a los miembros de la audiencia a través del diseño del último chip para centros de datos de Intel, Lunar Lake. Tiernan Ray para ZDNETLa ciencia y la ingeniería de la fabricación de chips dedicados al procesamiento de inteligencia artificial son tan vibrantes como siempre, a juzgar por una conferencia sobre chips muy concurrida que se llevó a cabo esta semana en la Universidad de Stanford llamada Hot Chips. La feria Hot Chips, que actualmente se encuentra en su 36.º año, atrae a 1500 asistentes, de los cuales poco más de la mitad participan a través de la transmisión en vivo en línea y el resto en el Auditorio Memorial de Stanford. Durante décadas, la feria ha sido un semillero de debates sobre los chips más innovadores de Intel, AMD, IBM y muchos otros proveedores, y las empresas suelen utilizar la feria para presentar nuevos productos. Además: Linus Torvalds habla sobre IA, la adopción de Rust y por qué el kernel de Linux es «lo único que importa» La conferencia de este año recibió más de cien presentaciones de todo el mundo. Al final, se aceptaron 24 charlas, aproximadamente tantas como cabrían en un formato de conferencia de dos días. El domingo se llevaron a cabo dos sesiones de tutoriales, con una conferencia magistral el lunes y el martes. También hay trece sesiones de carteles. Las charlas técnicas en el escenario y las presentaciones de carteles son altamente técnicas y están orientadas a los ingenieros. La audiencia tiende a distribuir computadoras portátiles y múltiples pantallas como si pasaran las sesiones en sus oficinas personales. Los asistentes tienden a acampar con computadoras portátiles como si fuera una oficina improvisada. Tiernan Ray para ZDNET Asistentes a Hot Chips 2024 Tiernan Ray para ZDNET La sesión del lunes por la mañana, con presentaciones de Qualcomm sobre su procesador Oryon para el centro de datos y el procesador Lunar Lake de Intel, atrajo a una multitud repleta y provocó muchas preguntas de la audiencia. En los últimos años, se ha prestado gran atención a los chips diseñados para ejecutar mejor las formas de redes neuronales de IA. La conferencia de este año incluyó una conferencia magistral de Trevor Cai, el jefe de hardware de OpenAI, sobre «Escalamiento predecible e infraestructura». El ingeniero de infraestructura de OpenAI, Trevor Cai, sobre los beneficios del escalamiento predecible de aumentar la potencia informática, que han sido el foco de atención de OpenAI desde el principio. Tiernan Ray para ZDNET Tiernan Ray para ZDNET Cai, que ha dedicado su tiempo a montar la infraestructura informática de OpenAI, dijo que ChatGPT es el resultado de que la empresa «gastara años y miles de millones de dólares prediciendo mejor la siguiente palabra». Eso condujo a habilidades sucesivas como el «aprendizaje de disparo cero». «¿Cómo sabíamos que funcionaría?», preguntó Cai retóricamente. Porque hay «leyes de escalamiento» que muestran que la capacidad puede aumentar de forma predecible como una «ley de potencia» del cómputo utilizado. Cada vez que se duplica el cómputo, la precisión se acerca a una entropía «irreducible», explicó. También: Qué esperar de Meta Connect 2024: un Quest más asequible, gafas de realidad aumentada y más»Esto es lo que nos permite hacer inversiones, construir clústeres masivos» de computadoras, dijo Cai. Hay «enormes obstáculos» para continuar a lo largo de la curva de escalamiento, dijo Cai. OpenAI tendrá que lidiar con innovaciones de algoritmos muy desafiantes, dijo. Para el hardware, «los costos en dólares y energía de estos clústeres masivos se vuelven significativos incluso para las empresas que generan el mayor flujo de efectivo libre», dijo Cai. La conferencia continúa el martes con presentaciones de Advanced Micro Devices y la startup Cerebras Systems, entre otros.