Creemos que vemos el mundo como es, pero de hecho lo vemos a través de una gruesa niebla de conocimientos e ideas recibidas, algunas de las cuales son correctas y algunas de las cuales están equivocadas. Como mapas, ideas y creencias, dan forma a nuestra experiencia del mundo. La noción de que la IA no tiene precedentes de alguna manera, que la inteligencia general artificial está a la vuelta de la esquina y conduce a una singularidad más allá del cual todo es diferente, es uno de esos mapas. Ha dado forma no solo a la inversión tecnológica, sino a la política gubernamental y a las expectativas económicas. Pero, ¿qué pasa si está mal? Las mejores ideas nos ayudan a ver el mundo más claramente, cortando la niebla de la exageración. Es por eso que estaba tan emocionado de leer el ensayo de Arvind Narayanan y Sayash Kapoor «AI como tecnología normal». Argumentan que si bien la IA es realmente transformadora, está lejos de ser sin precedentes. En cambio, es probable que siga los mismos patrones que otras revoluciones tecnológicas profundas, como la electrificación, el automóvil e Internet. Es decir, el ritmo del cambio tecnológico no se establece por el ritmo de la innovación, sino por el ritmo de la adopción, que está compuesto por factores económicos, sociales e de infraestructura, y por la necesidad de humanos para adaptarse a los cambios. (De alguna manera, esta idea se hace eco de la noción de Stewart Brand de «capas de ritmo»). Se unió a mí la semana pasada en Live With Tim O’Reilly para hablar sobre sus ideas. Comencé pidiéndole que explique lo que quiere decir con «tecnología normal». Aquí hay una versión abreviada de su respuesta. (Puede ver una respuesta de video más completa y mi respuesta aquí.) Resulta que una teoría bien establecida de la forma en que las tecnologías se adoptan y difunden en toda la sociedad. La clave a tener en cuenta es que la lógica detrás del ritmo de los avances en las capacidades tecnológicas es diferente de la lógica detrás del camino y la velocidad en la que la tecnología se adopta. Eso depende de la velocidad a la que el comportamiento humano puede cambiar. Y las organizaciones pueden descubrir nuevos modelos de negocio. Y no me refiero a las compañías de IA. Hay demasiado enfoque en las compañías de IA al pensar en el futuro de la IA. Estoy hablando de todas las otras compañías que van a implementar IA. Así que presentamos un marco de cuatro etapas. La primera etapa es la invención. Entonces, estas son mejoras en las capacidades del modelo … las capacidades del modelo en sí mismas deben traducirse a productos. Esa es la segunda etapa. Ese es el desarrollo de productos. Y todavía estamos temprano en la segunda etapa de descubrir cuáles son las abstracciones correctas, a través de la cual esta tecnología muy poco confiable de modelos de idiomas grandes ([as] Un tipo prominente de IA) puede encajarse en lo que esperamos del software, que es que debería funcionar de manera muy determinista, que es que los usuarios, una vez que han aprendido cómo hacer algo, sus expectativas se cumplirán. Y cuando se violan esas expectativas, vemos que los lanzamientos de productos AI han ido muy horriblemente … La etapa tres es difusión. Comienza con los primeros usuarios descubriendo casos de uso, flujos de trabajo, riesgos, cómo enrutar eso … y el último y más lento paso es la adaptación. Entonces, los usuarios individuales no solo necesitan adaptarse; Las industrias en su conjunto necesitan adaptarse. En algunos casos, las leyes deben adaptarse. Hablamos un poco sobre cómo eso ha sucedido en el pasado, utilizando la electrificación como un ejemplo bien conocido. La primera etapa de la revolución industrial fue impulsada por carbón y vapor, en fábricas con grandes centrales eléctricas centralizadas. Los primeros intentos de electrificación de fábrica no proporcionaron tanta ventaja. Fue solo cuando se dieron cuenta de que la electricidad hizo posible distribuir fácilmente la energía a máquinas pequeñas y especializadas a diferentes funciones de fábrica que la segunda revolución industrial realmente despegó. Él no se trata de reemplazar a los programadores, piensa, sino de expandir la huella de la personalización del software. Así que algunas personas esperan que en el futuro sea posible que al igual que podamos vibrar codificar pequeñas aplicaciones, es posible construir piezas de software empresariales mucho más complejas solo en función de un aviso. De acuerdo, supongamos que eso es posible … Afirmo que en ese mundo, no tendrá sentido que estas compañías de software empresariales construyan software una vez y luego obligaran a miles de clientes diferentes a usarlo para ajustar sus flujos de trabajo a las abstracciones definidas en el software. Así no será cómo usaremos software en este mundo futuro. Lo que sucederá es que los desarrolladores trabajarán con cada cliente aguas abajo, comprenderán sus requisitos y luego quizás generen software para ellos en el acto para satisfacer las necesidades de un equipo en particular o las necesidades de una empresa en particular, o incluso quizás las necesidades de un individuo en particular. Por lo tanto, esta es una revisión completa y muy conceptual de lo que significa software empresarial. Y este es el tipo de cosas que creemos que llevará décadas. Y tiene poco que ver con la tasa de mejora de la capacidad de IA. Este es un gran ejemplo de lo que quiero decir con ideas como herramientas para ver y responder al mundo de manera más efectiva. El mapa de «Tecnología Normal» llevará a los inversores y empresarios a tomar decisiones diferentes a las que siguen el mapa «AI Singularity». A la larga, aquellos que se guíen por el mapa más preciso terminarán construyendo negocios duraderos, mientras que los otros terminarán como víctimas de la burbuja. Hablaremos más profundamente sobre cómo la IA está cambiando la industria del software en nuestro segundo Codecon de IA, surgiendo el 9 de septiembre: el 9 de septiembre para el mundo de los agentes. su). Por ejemplo, el florecimiento de la economía automotriz del siglo XX requirió el desarrollo de mejores carreteras, mejores neumáticos, mejoras en los frenos, luces y motores, redes de refinamiento y distribución para la gasolina, la remodelación de las ciudades y mucho más. Vemos esto hoy en los cuellos de botella alrededor de las GPU, alrededor de la construcción del centro de datos, alrededor de la potencia. Todas estas cosas toman tiempo para construirse. El enfoque principal de Arvind fue en los problemas de comportamiento que retrasan la adopción. Dio un gran ejemplo: así que hay estos «modelos de razonamiento». (Si realmente están razonando es una pregunta diferente) … Modelos como O3, en realidad son muy útiles. Pueden hacer muchas cosas que los modelos no razonables no pueden. Y comenzaron a ser liberados hace un año. Y resulta que, según la propia admisión de Sam Altman, que en el nivel gratuito de ChatGPT, menos del 1% de los usuarios los usaban por día. Y en el nivel salarial, menos del 7% de los usuarios los usaban … así que esto le muestra cuánta difusión se queda atrás de las capacidades. Es exactamente una ilustración del punto que la difusión (cambia a los flujos de trabajo de los usuarios, aprende nuevas habilidades, ese tipo de cosas) son el verdadero cuello de botella y, por supuesto, la reacción de los usuarios sobre la pérdida de la «personalidad» de GPT-4 impulsa este hogar aún más, y plantea una gran incertidumbre. Pensé que Arvind lo clavó cuando llamó a los cambios de personalidad «un costo de cambio completamente nuevo». Es porque la IA es una tecnología normal que Arvind también cree que los temores de que la IA se ejecute sea exagerada: no creemos que la llegada de la superación personal recursiva, por ejemplo, si eso sucediera, será una excepción a estos patrones. Hablamos mucho sobre la seguridad de IA en el periódico. Nos alegra que muchas personas piensen cuidadosamente sobre la seguridad de la IA. No creemos que requiera pasos extraordinarios como hacer una pausa de IA o prohibir la IA de código abierto o cosas así. La seguridad es susceptible de mercado y intervenciones regulatorias bien entendidas. Cuando decimos la IA como tecnología normal, no es solo una predicción sobre el futuro. Uno de los puntos centrales del documento es que tenemos la agencia para darle forma a la tecnología normal. Tenemos la agencia para garantizar que el camino a través del cual se difunda a través de la sociedad no se rige por la lógica de la tecnología misma, sino por humanos e instituciones. Estoy de acuerdo. La agencia humana frente a la IA también es una de las corrientes profundas en mi libro WTF? ¿Cuál es el futuro y por qué depende de nosotros? Esta, por supuesto, no es solo una versión de la regla de oro, que se encuentra en muchas religiones y filosofías, sino muy buenos consejos comerciales prácticos. Mi propio mentor filosófico, Lao Tzu, escribió una vez: «No honrar a las personas, no te honran». Y también esto: «Perder la forma de vida, las personas confían en la bondad. Perdiendo la bondad, dependen de las leyes». (Esa es mi propia retratación suelta de la versión de Witter Bynner.) Primero pensé en la relevancia de esta cita en los días de mi activismo de código abierto temprano. Mientras que otros se centraron en las licencias (leyes) gratuitas y de código abierto como la clave de su éxito, estaba interesado en averiguar por qué el código abierto ganaría solo por ser mejor para las personas, coincidiendo «el camino de vida», por así decirlo. Ciencia, no religión. Por qué la ley laboral, no los derechos de autor, puede ser la clave para la respuesta de Justicia de AI a una pregunta de asistente sobre la IA y los derechos de autor, Arvind una vez más demostró su capacidad de replantear productivamente el problema: mientras que mis simpatías morales son con los demandantes en este caso, no creo que los copyright corrieran la forma correcta a los autores y los empleados y otros, y otros, que piensan, he sido refugio por los derechos de los derechos de los derechos de los que piensan los derechos de los autores o otros, lo que piensas, lo que piensas o otros, lo que piensas, lo que piensas, lo que piensas o otros, lo que piensas, lo que piensas, lo que piensas, lo que piensas, lo que piensas de los derechos de autor o otros, lo que piensas, lo que piensas de los derechos de autor o otros que piensan que sus empleados piensan que no piensan que los derechos de autor, no piensan que los derechos de autor. compensación. Y la razón de eso es que es un problema laboral. No es algo con lo que se inventó los derechos de autor para tratar, e incluso si un fallo futuro es de una manera diferente, creo que las empresas podrán adaptar sus procesos para que se mantengan alejados de la ley de derechos de autor y, sin embargo, esencialmente dejar su modelo comercial sin cambios. Y a menos que pueda cambiar su modelo de negocio, obligarlos a negociar con estos creadores, con el pequeño tipo, básicamente, y calcular un acuerdo de compensación justo, no creo que se sirva justicia. Cuando el gremio de guionistas se huele en huelga sobre IA y ganado, mostraron cuán correcto es en este refrán. Ese caso se ha desvanecido de los titulares, pero proporciona un camino a seguir a una economía de IA más justa. El aprendizaje continuo y continuo terminó con otra pregunta de los asistentes, sobre lo que los niños deberían aprender ahora para estar listos para el futuro. Tenemos, en mi opinión, un extraño sistema educativo. Y lo he dicho públicamente mientras haya sido profesor, este concepto de que permanezca en la escuela durante 20 años o lo que sea, hasta el final de la universidad, y luego está completamente entrenado, y luego sales a la fuerza laboral y solo usas esas habilidades que una vez aprendiste. Obviamente, sabemos que el mundo no funciona así. Y esa es una gran parte de la razón por la cual la experiencia universitaria es tan miserable para tantos estudiantes. Porque en realidad preferirían estar haciendo cosas en lugar de en este entorno descontextualizado donde se supone que deben absorber pasivamente información para usarla algún día en el futuro. Así que creo que la IA es una oportunidad para arreglar este enfoque de educación profundamente roto. Creo que los niños pueden comenzar a hacer contribuciones significativas al mundo, mucho antes de lo que se espera. Así que esa es la mitad de la historia. Puedes aprender mucho mejor cuando realmente estás motivado para producir algo útil. En la segunda mitad de la historia, es más cierto que nunca que nunca debamos dejar de aprender. ¡Pero es hora de detener mi resumen! Si es un suscriptor o se registra para ver el episodio, debe tener acceso a la grabación completa aquí. Las herramientas de AI se están moviendo rápidamente más allá de Chat UX a interacciones sofisticadas de agentes. Nuestro próximo evento AI Codecon, codificando para el mundo de los agentes, destacará cómo los desarrolladores ya están utilizando agentes para construir experiencias innovadoras y efectivas impulsadas por IA. Esperamos que se una a nosotros el 9 de septiembre para explorar las herramientas, los flujos de trabajo y las arquitecturas que definen la próxima era de programación. Es gratis para asistir. Regístrese ahora para guardar su asiento.
Deja una respuesta