Si bien hay muchos casos de derechos de autor que se abren camino a través del sistema judicial, ahora tenemos una decisión importante de uno de ellos. El juez William Alsup dictaminó que el uso de material con derechos de autor para la capacitación es «transformador» y, por lo tanto, de uso justo; que convertir libros de forma impresa a forma digital era de uso justo; pero que el uso de libros pirateados en la construcción de una biblioteca para capacitar a la IA no lo era. Ahora que todos están tratando de construir agentes inteligentes, tenemos que pensar seriamente sobre la seguridad del agente, lo que es doblemente problemático porque ya no hemos pensado lo suficiente sobre la seguridad de la IA y los problemas como inyección rápida. Simon Willison ha acuñado el término «trifecta letal» para describir la combinación de problemas que dificultan la seguridad del agente: el acceso a los datos privados, la exposición al contenido no confiable y la capacidad de comunicarse con servicios externos. Los investigadores de inteligencia artificiales han ajustado un modelo para localizar escrituras que incluyen lenguaje para prevenir las ventas a personas negras y otras minorías. Su investigación muestra que, a partir de 1950, aproximadamente una cuarta parte de los hechos en el condado de Santa Clara incluían dicho idioma. La investigación requirió analizar millones de hechos, muchos más de los que podrían haber sido analizado por humanos. Google ha lanzado su modelo de música en vivo, Magenta Rt. El modelo está destinado a sintetizar música en tiempo real. Si bien hay algunas restricciones, los pesos y el código están disponibles para abrazar la cara y el github. Openai ha encontrado que los modelos que desarrollan una persona desalineada pueden volver a capacitarse para devolver su comportamiento en línea. Las versiones Flash y Pro de Gemini 2.5 han alcanzado la disponibilidad general. Google también ha lanzado una vista previa de Gemini 2.5 Flash-Lite, que ha sido diseñado para baja latencia y costo. El sitio LowbackgroundSteel.Ai está destinado a ser un repositorio para el contenido previo a la AI: EI, contenido que AI no podría haber sido generado por AI. Drew Breunig compara el estado actual de la IA con la Web 2.0, cuando compañías como Twitter comenzaron a restringir a los desarrolladores que se conectan a sus plataformas. Drew apunta a antrópico cortando Windsurf, que bloquea a otros de buscar o almacenar mensajes, y Google cortando los lazos con la escala después de la inversión de Meta. Simon Willison ha acuñado la frase «trifecta letal» para describir vulnerabilidades peligrosas en los agentes de IA. La trifecta letal surge de la combinación de datos privados, contenido no confiable y comunicación externa. Dos documentos nuevos, «Patrones de diseño para asegurar a los agentes de LLM contra inyecciones rápidas» y «el enfoque de Google para los agentes de IA seguros», abordan el problema de la inyección rápida y otras vulnerabilidades en los agentes. Los resúmenes de Simon Willison son excelentes. La inyección rápida sigue siendo un problema no resuelto (y quizás no se puede resolver), pero estos documentos muestran algunos progresos. GOOGLE’s NotebookLM puede convertir sus resultados de búsqueda en un podcast basado en la descripción general de la IA. La función no está habilitada de forma predeterminada; Es un experimento en los laboratorios de búsqueda. Tenga cuidado: la lista de los resultados puede ser divertido, pero lo lleva más lejos de los resultados reales. Esto tengo que ver. O tal vez no. Los libros de la institucional hay un conjunto de datos de tokens 242B para capacitación de LLM. Fue creado a partir de libros de dominio público/fuera de la copa en la biblioteca de Harvard. Incluye más de 1M libros en más de 250 idiomas. MISTRAL ha lanzado su primer modelo de razonamiento, Magistral, en dos versiones: una versión pequeña (código abierto, 24B) y una versión media cerrada para empresas. El anuncio enfatiza el razonamiento rastreable (para aplicaciones como la ley, las finanzas y la atención médica) y la creatividad. Openai ha lanzado O3-Pro, su nuevo modelo de razonamiento de alta gama. (Probablemente sea el mismo modelo que O3, pero con diferentes parámetros que controlan el tiempo que puede pasar el razonamiento). LatentSpace tiene una buena publicación sobre cómo es diferente. Traiga mucho contexto. En WWDC, Apple anunció una API pública para sus modelos de la Fundación en el dispositivo. De lo contrario, los anuncios relacionados con la IA de Apple en WWDC no son impresionantes. Vale la pena leer «Los últimos seis meses en LLM» de Simon Willison; ¡Su punto de referencia personal (pidiendo a un LLM que genere un dibujo de un pelícano en bicicleta) es sorprendentemente útil! Aquí hay una descripción de los ataques de envenenamiento de herramientas (TPA) contra los sistemas que usan MCP. Los TPA se describieron por primera vez en una publicación de laboratorios invariantes. Los comandos maliciosos se pueden incluir en los metadatos de la herramienta que se envían al modelo, generalmente (pero no exclusivamente) en el campo de descripción. Como parte de la prueba de derechos de autor del New York Times, se ha ordenado que Openai retenga los registros de ChatGPT indefinidamente. La orden ha sido apelada. Vale la pena ver la nueva supercomputadora «inspirada en el cerebro» de Sandia, diseñada por Spinncloud. No hay memoria centralizada; La memoria se distribuye entre los procesadores (175k núcleos en el sistema de 24 tableros de Sandia), que están diseñados para imitar neuronas. Google ha actualizado Gemini 2.5 Pro. Si bien normalmente no nos entusiasmaríamos con una actualización, esta actualización es posiblemente el mejor modelo disponible para la generación de código. Y un modelo aún más impresionante, Gemini Kingfall, fue (brevemente) visto en la naturaleza. ¡Aquí hay un conector MCP para humanos! La idea es simple: cuando está utilizando LLM para programar, el modelo a menudo se disparará en una tangente si está confundido sobre lo que debe hacer. Este conector le dice al modelo cómo preguntarle al programador cada vez que está confundido, manteniendo al humano en el bucle. Los agentes parecen ser aún más vulnerables a las vulnerabilidades de seguridad que las propias modelos. Varios de los ataques discutidos en este documento implican que un agente lea páginas maliciosas que corrompen la producción del agente. Openai ha anunciado la disponibilidad del modo de registro de ChatGPT, que registra una reunión y luego genera un resumen y notas. Actualmente, el modo de registro está disponible para Enterprise, EDU, Team y Pro Users.openai ha puesto a disposición su herramienta de codificación de agente Codex disponible para los usuarios de ChatGPT Plus. La compañía también habilitó el acceso a Internet para Codex. El acceso a Internet está apagado por defecto por razones de seguridad. Modelos de lenguaje de visualización (VLMS) Consulte lo que quieren ver; Pueden ser muy precisos al responder preguntas sobre imágenes que contienen objetos familiares, pero es muy probable que cometan errores cuando se muestran imágenes contrafactuales (por ejemplo, un perro con cinco patas). Yoshua Bengio ha anunciado la formación de LawZero, un grupo de investigación de IA sin fines de lucro que creará «AI» seguro «. Lawzero está particularmente preocupado de que los últimos modelos muestren signos de «autoconservación y comportamiento engañoso», sin duda refiriéndose a la investigación de alineación de Anthrope. Las interfaces chat han sido fundamentales para la IA desde Eliza. Pero el chat incrusta los resultados que desea, en mucha verborje, y no está claro que el chat sea apropiado para los agentes, cuando la IA está iniciando muchos procesos nuevos. ¿Qué hay más allá del chat? Slop Forensics usa LLM «Slop» para descubrir ascendencia modelo, utilizando técnicas de bioinformática. Un resultado es que el último modelo de Deepseek parece estar utilizando Gemini para generar datos sintéticos en lugar de OpenAI. Las herramientas para los forenses de SLOP están disponibles en GitHub.osmosis-Structure-0.6b es un modelo pequeño especializado para una tarea: extraer estructura de documentos de texto no estructurados. Está disponible en Ollama y Hugging Face. Mistral ha anunciado una API de agentes para sus modelos. La API de los agentes incluye conectores incorporados para la ejecución del código, búsqueda en la web, generación de imágenes y varias herramientas MCP. Ahora hay una base de datos de casos judiciales en los que se utilizaron alucinaciones generadas por IA (citas de la ley de casos inexistentes). Programando a Martin Fowler y otros describen el «generalista experto» en un intento de aumentar la especialización en la ingeniería de software. Los generalistas expertos combinan una (o más) áreas de profundo conocimiento con la capacidad de agregar nuevas áreas de profundidad rápidamente. Duncan Davidson señala que, con AI capaz de expulsar a docenas de demostraciones en poco tiempo, el «arte de decir que no» es repentinamente crítico para los desarrolladores de software. Es demasiado fácil perderse en una avalancha de opciones decentes al tratar de elegir la mejor. Probablemente nunca necesite calcular mil millones de factoriales. Pero incluso si no lo hace, este artículo demuestra muy bien optimizar un problema numérico complicado. La confianza es ver una mayor adopción para proyectos de ingeniería de datos debido a su combinación de seguridad de la memoria y alto rendimiento. La mejor manera de hacer que los programadores sean más productivos es hacer que su trabajo sea más divertido al alentar la experimentación y los descansos de descanso y prestar atención a problemas como la calidad de las herramientas apropiadas y la calidad del código. ¿Cuál es el siguiente paso después de la ingeniería de la plataforma? ¿Es la democracia de la plataforma? ¿O la nueva idea de Google Cloud, las plataformas de desarrollo interno? Un estudio realizado por el Grupo de Estrategia Empresarial y encargada por Google afirma que los desarrolladores de software pierden el 65% de su tiempo en problemas que se resuelven la Ingeniería de la Platform. Está considerando incorporar el chat, pagar a las personas para que sean ayudantes y agregar páginas de inicio personalizadas donde puede agregar información técnica importante. ¿Es hora de implementar HTTP/3? Este estándar, que ha existido desde 2022, resuelve algunos de los problemas con HTTP/2. Afirma reducir los tiempos de espera y carga, especialmente cuando la red en sí misma es con pérdida. El servidor NGINX, junto con los principales navegadores, todos admiten HTTP/3. Wikiradio de Monkeon es un sitio web que le alimenta a los clips aleatorios de audio de Wikipedia. Compruébelo para obtener más proyectos que le recuerden los días en que la web era divertida. Security Cloudflare ha bloqueado un ataque DDoS que alcanzó su punto máximo en 7.3 terabits/segundo; El pico duró unos 45 segundos. Este es el ataque más grande en el registro. No es el tipo de registro que nos gusta ver. ¿Cómo se supone que muchas personas serían víctimas de estafadores que ofrecen a Ghost escriben sus novelas y las publicaron? Más de lo que piensas. El phishing de chainlink es una nueva variación del antiguo Phish. En ChainLink Phishing, la víctima es dirigida a través de documentos en sitios de confianza, técnicas de verificación bien conocidas como Captcha y otras fuentes confiables antes de que se les pida que renuncien a información privada y confidencial. sistemas operativos. La capacidad de importar y exportar PassKeys es un paso importante para hacer que los PassKeys sean más utilizables. Matthew Green tiene una excelente publicación sobre la seguridad criptográfica en el nuevo sistema de mensajería de Twitter (OOPS, X). Vale la pena leer para cualquier persona interesada en mensajes seguros. El TL; DR es que es mejor de lo esperado, pero probablemente no es tan bueno como se esperaba. Una de las primeras instancias obligó al servidor MCP de GitHub a revelar datos de repositorios privados. Operaciones Databricks anunció Lakeflow Designer, una herramienta de código de arrastre de arrastre visualmente orientada visualmente para construir tuberías de datos. Otros anuncios incluyen LakeBase, una base de datos de Postgres administrada. Siempre hemos sido fanáticos de Postgres; Este puede ser su momento de brillar. Instrucciones simples para crear una unidad USB de arranque para Linux, ¡cómo olvidamos! Un LLM con un agente simple puede simplificar en gran medida el análisis y el diagnóstico de datos de telemetría. Esto será revolucionario para la observabilidad, no una amenaza sino una oportunidad para hacer más. «Lo único que realmente importa son los bucles de retroalimentación rápidos y ajustados». Ducklake combina un lago de datos tradicional con un catálogo de datos almacenado en una base de datos SQL. Postgres, SQLite, MySQL, DuckDB y otros se pueden usar como base de datos. COMPUTACIÓN DE COMPUTA IBM se ha comprometido a construir una computadora cuántica con corrección de errores para 2028. La computadora tendrá 200 qubits lógicos. Probablemente esto no sea suficiente para ejecutar ningún algoritmo cuántico útil, pero aún representa un gran paso adelante. Los investigadores han afirmado que las claves de cifrado RSA de 2,048 bits podrían ser rotas por una computadora cuántica con tan solo un millón de qubits, un factor de 20 estimaciones menos que las estimaciones anteriores. ¡Es hora de implementar la criptografía posquantum! Robótica Dinamarca está probando una flota de veleros robóticos (drones de velero). Están destinados a la vigilancia en el Mar del Norte.
Deja una respuesta