La realidad ha golpeado a la máquina de propaganda de la IA. En la reciente conferencia de resultados de Alphabet, el director ejecutivo Sundar Pichai promocionó la adopción generalizada de las soluciones de IA generativa (genAI) de Google Cloud, pero con una advertencia, y una importante: “Estamos impulsando un progreso más profundo en la liberación de valor, algo que estoy muy seguro de que sucederá. Pero estas cosas llevan tiempo”. ¿El resumen? Hay mucha indecisión sobre genAI, y no mucha adopción de aplicaciones serias que generen ingresos. Esto probablemente sea lo mejor porque nos da tiempo para averiguar qué diablos queremos decir con “IA de código abierto”. Esto es importante, porque el director ejecutivo de Meta, Mark Zuckerberg, y otros nos dicen que el código abierto dominará los grandes modelos de lenguaje (LLM) y la IA, en general. Tal vez. Pero mientras la OSI y otros están tratando de llegar a una Definición de Código Abierto (OSD, por sus siglas en inglés) actualizada, participantes poderosos como Meta están lanzando modelos que definen la industria, llamándolos “código abierto”, y sin importarles en lo más mínimo cuando algunos los critican vocalmente por poner una etiqueta que no parece encajar con la OSD. De hecho, básicamente ninguno de los modelos actuales es “código abierto” en la forma en que tradicionalmente hemos considerado el término. ¿Importa? Algunos insistirán en que no solo es absolutamente importante, sino que es Lo Más Importante. Si es así, estamos lejos de una solución. Como resume el director ejecutivo de la OSI, Stefano Mafulli, “jugar con un modelo de IA podría requerir acceso al modelo entrenado, sus datos de entrenamiento, el código utilizado para preprocesar estos datos, el código que rige el proceso de entrenamiento, la arquitectura subyacente del modelo o una serie de otros detalles más sutiles”. No se trata simplemente de tener acceso al código. El núcleo del problema son los datos. Sigues usando esa palabra: “Si los datos no son abiertos, entonces tampoco lo es el sistema”, argumenta Julia Ferraioli, participante en el comité de la OSI para definir el código abierto para la IA. Esto es cierto, continúa en otro lugar, porque un modelo de IA no es abierto de ninguna manera útil si no tienes los datos utilizados para entrenarlo. En IA, no existe tal cosa como código sin los datos que lo animan y le dan propósito. Nota entre paréntesis: encuentro un poco irónico que una gran cantidad de empleados de AWS, incluida Ferraioli, hagan este argumento, porque es similar a lo que yo y otros hemos dicho sobre la nube. ¿Qué significa el software sin las configuraciones de hardware que le dan vida? Algunos, particularmente los empleados de las grandes nubes, creen que ese software no puede ser verdaderamente abierto si dificulta que las nubes ejecuten el software sin abrir el código fuente de su infraestructura asociada. De acuerdo. Pero, ¿en qué se diferencia enormemente eso de exigir los datos de otros para poder ejecutar esos modelos para sus clientes? No creo que los empleados de la nube estén actuando de mala fe. Yo creo que no han sido lo suficientemente introspectivos en este tema. Por eso he defendido que para solucionar las deficiencias de la IA de código abierto, tenemos que volver a examinar deficiencias similares en la nube de código abierto. Mientras tanto, las empresas con muchos datos no tienen ningún incentivo para ceder en este tema (así como las empresas de la nube tienen pocos incentivos para capitular en cuestiones de copyleft), en gran medida porque no está del todo claro que a los desarrolladores les importe. Un ejecutivo de la industria del código abierto, que pidió permanecer en el anonimato, sugiere que a los desarrolladores no les interesa el posicionamiento del código abierto. Según él, “a los desarrolladores de IA no les importa y no quieren el sermón” de la OSI u otros sobre lo que significa abierto. Zuckerberg ciertamente encaja en esa descripción. Sin un rastro de ironía, se lanzó en una larga diatriba sobre el valor del código abierto: “El camino para que Llama se convierta en el estándar de la industria es siendo consistentemente competitivo, eficiente y abierto, generación tras generación”. Excepto que Llama no es abierto. Al menos, no según Mafulli y otros de la persuasión de la OSI. Una vez más, ¿importa? Después de todo, muchos desarrolladores están usando Llama 2 de Meta sin preocuparse de que no cumpla con una definición estricta de código abierto. Es lo suficientemente abierto, aparentemente. ¿Lo suficientemente bueno? ¿Lo suficientemente abierto? Incluso entre los expertos en código abierto bien intencionados y bien informados, no hay consenso sobre qué debe ser abierto en IA para calificar como «código abierto». Jim Jagielski, por ejemplo, descarta la idea de que los datos sean esenciales para la IA de código abierto. Incluso si nos gusta la idea de abrir los datos de entrenamiento, hacerlo podría abrir todo tipo de complicaciones de privacidad y distribución. La OSI espera tener un borrador de su definición de código abierto para IA para octubre. Dado que casi es agosto y los participantes clave como Ferraioli señalan que los componentes importantes de la OSAID son «lamentablemente equivocados», «ambiguos» y «se han quedado muy lejos de la meta», es dudoso que la industria tenga mucha claridad para octubre. Mientras tanto, Meta y otros (y básicamente nadie es tan abierto como le gustaría a la OSI) seguirán lanzando modelos abiertos y normalmente los llamarán “código abierto”. Lo harán porque algunos, como los reguladores europeos, quieren ver el término cómodo “código abierto” estampado en el software y la IA que adoptan. Una vez más, ¿importará? ¿Enturbiar lo que significa el código abierto paralizará la industria? Es dudoso. Los desarrolladores ya están votando con sus teclados, utilizando Llama 2 y otros modelos “suficientemente abiertos”. Para que la OSI se adelante a este impulso, tendrá que adoptar un enfoque pragmático pero de principios con respecto al código abierto y dejar de seguir los dictados dogmáticos de sus fanáticos más vociferantes. No lo hizo con la nube, por eso tenemos tanto terreno legal sin resolver que cubrir con la IA.