Mi amigo David Eaves tiene el mejor lema para su blog: «Si escribir es un músculo, este es mi gimnasio». Entonces le pregunté si podía adaptarlo para mi nuevo programa de video quincenal (y ocasionalmente semanal) de una hora en Oreilly.com, en vivo con Tim O’Reilly. En él, entrevisto a personas que conocen mucho más que yo y les pido que me enseñen lo que saben. Es un entrenamiento mental, no solo para mí, sino para nuestros participantes, que también pueden hacer preguntas a medida que avanza la hora. El aprendizaje es un músculo. Vivir con Tim O’Reilly es mi gimnasio, y mis invitados son mis entrenadores personales. Así es como he aprendido a lo largo de mi carrera: tener conversaciones exploratorias con la gente es una gran parte de mi trabajo diario, pero en este programa, lo estoy haciendo en público, compartiendo mis conversaciones de aprendizaje con una audiencia en vivo. Mi primer invitado, el 3 de junio, fue Steve Wilson, autor de uno de mis libros favoritos de O’Reilly, el desarrollador de la seguridad de los modelos de idiomas grandes. El trabajo diario de Steve es en la firma de ciberseguridad Exabeam, donde es el principal oficial de IA y producto. También fundó y COCHOIR del Proyecto de Seguridad Gen AI de la Fundación Open Worldwide Application (OWASP). Durante mi llamada de preparación con Steve, me recordó inmediatamente un pasaje en el maravilloso libro de Alain de Botton, cómo Proust puede cambiar su vida, que reconcella Proust como autor de sí mismo. Proust está acostado en su lecho de enfermo, como solía hacer, recibiendo un visitante que le está contando sobre su viaje para venir a verlo en París. Proust sigue haciéndolo regresar en la historia, diciendo: «Más lentamente», hasta que el amigo comparte cada detalle sobre su viaje, hasta el viejo que vio alimentando palomas en los escalones de la estación de tren. ¿Por qué te estoy diciendo esto? Steve dijo algo sobre la seguridad de la IA que entendí de manera superficial pero que realmente no entendía profundamente. Así que me reí y le conté a Steve la historia sobre Proust, y cada vez que pasaba algo demasiado rápido para mí, decía: «Más lentamente», y él sabía lo que quise decir. Esto captura algo que quiero hacer parte de la esencia de este espectáculo. Hay muchos podcasts y programas de entrevistas que permanecen en un alto nivel conceptual. En Live With Tim O’Reilly, mi objetivo es lograr que las personas realmente inteligentes vayan un poco más lentamente, explicando lo que significan de una manera que nos ayuda a todos a ir un poco más profundos al contar historias vívidas y proporcionar comida para llevar de inmediato. Esto parece especialmente importante en la edad de la codificación habilitada de AI, lo que nos permite hacer tan rápido que podemos estar construyendo en una base de irritantes, lo que puede volver a ser mordiéndonos por lo que solo pensamos. Como mi amigo Andrew Singer me enseñó hace 40 años, «la habilidad de la depuración es descubrir lo que realmente le dijiste a tu programa que hiciera en lugar de lo que pensaste que le dijiste que hiciera». Eso es aún más cierto hoy en el mundo de AI Evals. «Más lentamente» también es algo que los entrenadores personales les recuerdan a la gente todo el tiempo mientras corren a través de sus representantes. El aumento del tiempo bajo tensión es una forma comprobada de desarrollar músculo. Así que no estoy mezclando completamente mis metáforas aquí. 😉 En mi entrevista con Steve, comencé pidiéndole que nos contara sobre algunos de los principales problemas de seguridad que enfrentan los desarrolladores al codificar con IA, especialmente cuando la codificación de ambas. Steve tiró que tener cuidado con las teclas API estaba en la parte superior de la lista. Le dije: «Más lentamente», y esto es lo que me dijo: como puede ver, hacer que desempacar lo que quiso decir con «tener cuidado» llevó a una gira Proustiana a través de los detalles de los riesgos y los errores que subyacen ese breve consejo, de los bots de que el Github de Github accidentalmente se expuso a los Repositorios de código (o incluso las historias de los Homorores de la Hombra de Hombra de Homoros de la Hombra de Hombra de Homoros de la Hombra de Hombra de Homoros de la Homorora de un Homororio de Homorores de la Homorora de un Homororio. Coder quejándose de cómo la gente estaba drenando su cuenta de AWS, después de mostrar sus claves en una sesión de codificación en vivo en Twitch. Como Steve exclamó: «Son secretos. ¡Están destinados a ser secretos!», Steve también dio algunas advertencias reveladoras sobre los riesgos de seguridad de los paquetes alucinados (te imaginas, «¡el paquete no existe, no es gran cosa», pero resulta que los programadores maliciosos han descubierto los nombres de los paquetes comúnmente alucinados e han hecho paquetes comprometidos!);; Algunas observaciones picantes sobre las relativas fortalezas de seguridad y debilidades de varios jugadores importantes de IA; Y por qué ejecutar modelos de IA localmente en su propio centro de datos no es más seguro, a menos que lo haga bien. También habló un poco sobre su papel como Director de AI y Oficial de Productos de la compañía de seguridad de la información Exabeam. Puede ver la conversación completa aquí. Mi segundo invitado, Chelsea Troy, con quien hablé el 18 de junio, está por naturaleza totalmente alineado con la idea «más lentamente»; de hecho, puede ser que su «no tan rápido» adquiere varios documentos informáticos muy hipotecados en el reciente código de códec O’Reilly Ai plantado esa noción. Durante nuestra conversación, sus comentarios sobre las tres habilidades esenciales que aún se requieren de un ingeniero de software que trabaje con IA, por qué las mejores prácticas no son necesariamente una buena razón para hacer algo, y cuánto los desarrolladores de software deben comprender sobre LLM bajo el capó son de oro puro. Puede ver nuestra charla completa aquí. Una de las cosas que hice un poco diferente en esta segunda entrevista fue aprovechar las capacidades de entrenamiento en vivo de la plataforma de aprendizaje O’Reilly para traer preguntas de la audiencia al principio de la conversación, mezclándolas con mi propia entrevista en lugar de dejarlas para el final. Funcionó muy bien. La propia Chelsea habló sobre su experiencia enseñando con la plataforma O’Reilly y cuánto aprende de las preguntas de los asistentes. Estoy completamente de acuerdo. Los invitados adicionales que vienen incluyen a Matthew Prince de Cloudflare (14 de julio), quien lo desempacará para el papel sorprendentemente generalizado de Cloudflare en la infraestructura de la IA entregada, así como sus temores sobre la IA que conduce a la muerte de la Web como lo conocemos, y lo que los desarrolladores de contenido pueden hacer (registrarse aquí); Marily Nika (28 de julio), autora de Building Producted Products, que nos enseñará sobre la gestión de productos para la IA (regístrese aquí); y Arvind Narayanan (12 de agosto), coautor del libro AI Snake Oil, que hablará con nosotros sobre su documento «AI como tecnología normal» y lo que eso significa para las perspectivas de empleo en un futuro de IA. Publicaremos un horario más completo pronto. Nos vamos un poco ligeros durante el verano, pero es probable que se ubicaremos en más sesiones en respuesta a los temas de la ruptura.
Deja una respuesta