No hace mucho, la inteligencia artificial se sentía como algo periférico. Apareció en motores de recomendación, limpió fotos borrosas o ayudó a transcribir notas de voz. Funcionó en silencio en el fondo, mejorando otras herramientas en lugar de definirlas. Pero en algún lugar entre el lanzamiento de GPT-3 y la explosión de modelos de idiomas grandes, eso cambió. Ai dejó de ser solo otra capa en la pila tecnológica. Se convirtió en el principio de organización para todo debajo y por encima de él. Desde chips hasta servicios en la nube y el software que usamos a diario, la IA ya no solo está integrada; Es dominante. El chip se convierte en la plataforma que he visto este desarrollo con una mezcla de fascinación e inquietud. Comencemos esta discusión con el hardware. Las GPU fueron una vez para jugadores y efectos visuales. Ahora son el recurso más disputado en tecnología. El ascenso de Nvidia al dominio no proviene de las necesidades informáticas tradicionales: proviene de las demandas de capacitar a modelos masivos de inteligencia artificial. La escasez de sus chips H100, los picos de precios, el acaparamiento de los proveedores de nubes, todo refleja un cambio más profundo. Si no controla la computación, no participa en la innovación de IA. Y si no puede pagar el acceso, no puede construir. Esta ola no se detuvo en Nvidia. Apple ahora promociona su motor neuronal casi tan prominentemente como su cámara. Google, Amazon y Microsoft han construido sus propios chips AI. Incluso los teléfonos móviles, los dispositivos que una vez se venden en megapíxeles y duración de la batería, ahora se están cambiando de marca alrededor de «inteligencia en el dispositivo». Las guerras de chips ya no son sobre computación de propósito general. Se trata de lo bien que su silicio sirve al aprendizaje automático. La nueva métrica de la nube: preparación del modelo, veo el mismo patrón en la infraestructura de la nube. Plataformas como AWS o Azure utilizadas para prometer flexibilidad y escalabilidad. Eso sigue siendo cierto, pero cada vez más la pregunta es: ¿qué tan rápido pueden servir a un LLM? ¿Pueden ajustar un modelo personalizado? ¿Pueden ofrecer acceso a OpenAi, Anthrope o Meta’s Llama? La nube se ha vuelto menos sobre la potencia informática abstracta y más sobre el envoltor de servicios de inteligencia artificial en API amigables para los desarrolladores. En este nuevo orden, quien posee los modelos y las GPU define la plataforma. El software como colaboración con la máquina, entonces está el software, donde el cambio es más sutil pero igual de profundo. He usado GitHub Copilot, y realmente cambia la forma en que codifica. Lo que solía ser una tarea lenta y propensa a errores ahora se siente casi conversacional. Sin embargo, no es simplemente un ahorro de tiempo; También redefine la relación entre la máquina y el programador. Ahora, tiene un sistema que puede ayudarlo, uno que ya sabe lo que está tratando de hacer. Con toda honestidad, esto es muy útil, pero cambia cuán profundamente comprende lo que está construyendo. Y cuando miro cómo la IA está empezando a remodelar la web en sí, me siento más preocupada. Solía ​​disfrutar de buscar en Internet, cavar en páginas, verificar fuentes y caer inesperados hoyos de conejo. Ahora, la mayoría de las veces, le pido inteligencia artificial y obtengo una respuesta pulida y segura a cambio. Es eficiente, pero se siente más delgado. No ves los bordes desordenados, los puntos de vista competitivos, los descubrimientos fortuitos. Simplemente obtienes un resumen del conocimiento, no una experiencia de él. Pilas verticales, menos opciones lo que me preocupa no es que esa inteligencia artificial esté en todas partes, es cuán silenciosamente se ha hecho cargo. La pila tecnológica fue una vez modular, en capas y relativamente abierta. Ahora, se siente verticalmente integrado en una sola idea. Nos dirigimos hacia un mundo donde un puñado de sistemas, construidos en los mismos modelos, entrenados en los mismos datos y alojados en las mismas nubes, median casi todas nuestras interacciones digitales. No se trata de rechazar la inteligencia artificial, pero también es importante para nosotros saber lo que estamos perdiendo en el proceso de usarla. La pila no solo evolucionó; Se tragó. Y a medida que construimos todo encima de estos modelos, vale la pena preguntar: ¿seguimos diseñando el sistema o simplemente estamos aceptando el que nos ha dado? Descargo de responsabilidad: podemos ser compensados ​​por algunas de las compañías de cuyos productos hablamos, pero nuestros artículos y reseñas siempre son nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y aprender sobre cómo usamos enlaces de afiliados. Fuecir gizchina.com en Google News para noticias y actualizaciones en el sector de la tecnología.