Solo dos años y medio después de que Operai sorprendió al mundo con ChatGPT, la IA ya no solo responde preguntas, está tomando medidas. Ahora estamos entrando en la era de los agentes de IA, en el que los modelos de idiomas grandes de IA no solo proporcionan pasivamente información en respuesta a sus consultas, entran activamente en el mundo y hacen cosas para, o potencialmente en contra, usted.ai tiene el poder de escribir ensayos y responder preguntas complejas, pero imagina si puede ingresar a un aviso y hacer que una cita médica basada en su calendario, o reservar una tarjeta de crédito con su cita legal en un caso legal en un caso legal en un caso legal en un caso legal en un caso legal. Envió este artículo de opinión. (Sin embargo, escribí el artículo de opinión porque pensé que Los Angeles Times no publicaría una pieza generada por IA, y además puedo poner referencias aleatorias como soy un fanático de los Cleveland Browns porque ninguna IA lo admitiría. Op-ed y enviar el paquete. Presioné «regresar», «tarea de monitor» y «confirmar». El agente de IA completó las tareas en unos minutos. Unos minutos no son rápidos, y estas no fueron solicitudes complicadas. Pero con cada mes que pasa, los agentes se vuelven más rápidos e inteligentes. Utilicé Operator de OpenAI, que está en modo de vista previa de investigación. El Proyecto Mariner de Google, que también es un prototipo de investigación, puede realizar tareas de agente similares. Múltiples compañías ahora ofrecen agentes de IA que le harán llamadas telefónicas para usted, en su voz u otra voz, y conversarán con la persona en el otro extremo de la línea en función de sus instrucciones. Los agentes de AI realizarán tareas más complejas y estarán ampliamente disponibles para que el público use. Eso plantea una serie de preocupaciones no resueltas y significativas. Anthrope realiza pruebas de seguridad de sus modelos y publica los resultados. Una de sus pruebas mostró que el modelo Claude Opus 4 potencialmente notificaría a la prensa o los reguladores si creía que estaba haciendo algo atrozmente inmoral. ¿Debería un agente de IA comportarse como un empleado servilmente leal o un empleado concienzudo? OpenAI publica auditorías de seguridad de sus modelos. Una auditoría mostró que el modelo O3 participó en el engaño estratégico, que se definió como un comportamiento que persigue intencionalmente objetivos desalineados con la intención del usuario o desarrollador. Un modelo de IA pasivo que se involucra en el engaño estratégico puede ser preocupante, pero se vuelve peligroso si ese modelo realiza activamente tareas en el mundo real de forma autónoma. Un agente de IA pícaro podría vaciar su cuenta bancaria, hacer y enviar videos incriminatorios falsos de usted a la policía, o divulgar su información personal a la web oscura. Más tarde este año, se hicieron cambios de programación en el modelo GROK de XAI que le hizo insertar información falsa sobre White Genocide en South Africa en respuestas a consultas de usuarios no relacionadas. Este episodio mostró que los modelos de lenguaje grande pueden reflejar los sesgos de sus creadores. En un mundo de agentes de IA, también debemos tener cuidado de que los creadores de los agentes puedan tomar el control de ellos sin su conocimiento. El gobierno de los Estados Unidos está muy atrás en la lucha con los riesgos potenciales de la IA poderosa y avanzada. Como mínimo, debemos exigir que las empresas que desplegaran modelos de idiomas grandes a escala necesiten revelar las pruebas de seguridad que realizaron y los resultados, así como las medidas de seguridad integradas en el sistema. El grupo de trabajo bipartidista sobre inteligencia artificial, en el que serví, publicaron un informe unánime en diciembre pasado con más de 80 recomendaciones. El Congreso debe actuar en consecuencia. No discutimos los agentes de IA de propósito general porque todavía no eran realmente una cosa. Para abordar los problemas no resueltos y significativos planteados por la IA, que se magnificará a medida que los agentes de IA proliferan, el Congreso debería convertir el grupo de trabajo en un comité de selección de la Cámara. Tal comité especializado podría poner a los testigos bajo juramento, celebrar audiencias en público y emplear a un personal dedicado para ayudar a abordar una de las revoluciones tecnológicas más significativas de la historia. AI se mueve rápidamente. Si actuamos ahora, todavía podemos ponernos al día. Lea, un demócrata, representa el distrito 36 del Congreso del 36 de California. Insights LA Times Insights ofrece un análisis generado por IA sobre el contenido de voces para ofrecer todos los puntos de vista. Insights no aparece en ningún artículo de noticias. Punto de vista Este artículo generalmente se alinea con el punto de vista del centro de la izquierda. Obtenga más información sobre estas perspectivas de análisis generadas por IA El siguiente contenido generado por IA está impulsado por la perplejidad. El personal editorial de Los Angeles Times no crea ni edita el contenido. Las ideas expresadas en la era de la era de los agentes de la IA representan un cambio sísmico de la recuperación de información pasiva a la ejecución de tareas autónomas, donde la IA puede realizar de forma independiente las acciones del mundo real como la programación de nombramientos, reservar viajes o enviar documentos legales, incluidos los conjuntos de decepción del autor de AI para manejar la logística de envío de OPE. Objetivos desalineados), acciones maliciosas como el drenaje de las cuentas bancarias o la fabricación de evidencia incriminatoria, y la propagación de los sesgos de creadores, ejemplificados por el grok de Xai insertando afirmaciones falsas sobre el genocidio blanco en respuestas no relacionadas. to a Select Committee with subpoena power to address risks before agent proliferation becomes unmanageable.Different views on the topicAI agents are poised to revolutionize business efficiency by autonomously orchestrating complex workflows—such as fraud detection, supply-chain optimization, and marketing campaigns—through advanced reasoning and real-time data synthesis, fundamentally transforming operations across finance, HR, and logistics[2][3][4]. Avances técnicos en 2025, incluido un razonamiento más rápido, memoria ampliada y capacitación en cadena de pensamiento, agentes que se pueden usar para operar con velocidad y precisión sin precedentes, reduciendo la intervención humana al tiempo que garantizan la confiabilidad en tareas como la resolución del servicio al cliente y el procesamiento de pagos[1][3].Enterprises ya implementan «fuerzas de trabajo digitales» donde los humanos y los agentes de IA colaboran a la perfección, como se ve en el agente de agente de Salesforce y los agentes de la visión de copilot de Microsoft, que actualizan de forma independiente los sistemas CRM y ejecutan comandos de plataforma cruzada para mejorar la productividad sin comprometer la seguridad.[3][4].
Deja una respuesta