En el llamado “dilema del defensor” de la ciberseguridad, los buenos siempre están corriendo, corriendo, corriendo y manteniendo la guardia alta en todo momento, mientras que los atacantes, por otro lado, sólo necesitan una pequeña oportunidad para abrirse paso y hacer algo real. daño. Pero, dice Google, los defensores deberían adoptar herramientas avanzadas de inteligencia artificial para ayudar a interrumpir este ciclo agotador. Para respaldar esto, el gigante tecnológico lanzó hoy una nueva “Iniciativa de ciberdefensa de IA” y asumió varios compromisos relacionados con la IA antes de la Conferencia de Seguridad de Munich (MSC) que comienza mañana (16 de febrero). El anuncio se produce un día después de que Microsoft y OpenAI publicaran una investigación sobre el uso conflictivo de ChatGPT y asumieran sus propias promesas de apoyar el uso “seguro y responsable” de la IA. Evento VB The AI ​​Impact Tour – Nueva York Estaremos en Nueva York el 29 de febrero en asociación con Microsoft para discutir cómo equilibrar los riesgos y las recompensas de las aplicaciones de IA. Solicite una invitación al evento exclusivo a continuación. Solicite una invitación Mientras los líderes gubernamentales de todo el mundo se reúnen para debatir la política de seguridad internacional en el MSC, está claro que estos grandes bateadores de la IA buscan ilustrar su proactividad en lo que respecta a la ciberseguridad. «La revolución de la IA ya está en marcha», dijo Google hoy en una publicación de blog. «Estamos… entusiasmados con el potencial de la IA para resolver desafíos de seguridad generacionales y al mismo tiempo acercarnos al mundo digital seguro y confiable que merecemos». En Munich, más de 450 altos responsables de la toma de decisiones y líderes empresariales y de pensamiento se reunirán para discutir temas que incluyen tecnología, seguridad transatlántica y orden global. «La tecnología impregna cada vez más todos los aspectos de cómo los estados, las sociedades y los individuos persiguen sus intereses», afirma el MSC en su sitio web, y agrega que la conferencia tiene como objetivo avanzar en el debate sobre la regulación, la gobernanza y el uso de la tecnología «para promover la seguridad inclusiva y la cooperación global». » La IA es inequívocamente una prioridad para muchos líderes y reguladores globales mientras se esfuerzan no solo por comprender la tecnología sino también por adelantarse a su uso por parte de actores maliciosos. A medida que se desarrolla el evento, Google se compromete a invertir en “infraestructura preparada para IA”, lanzar nuevas herramientas para los defensores y lanzar nuevas investigaciones y capacitación en seguridad de IA. Hoy, la compañía anuncia una nueva cohorte de “IA para la ciberseguridad” de 17 nuevas empresas de EE. UU., el Reino Unido y la Unión Europea en el marco del Programa de IA para la ciberseguridad de Google for Startups Growth Academy. «Esto ayudará a fortalecer el ecosistema de ciberseguridad transatlántico con estrategias de internacionalización, herramientas de inteligencia artificial y las habilidades para utilizarlas», afirma la empresa. Google también: Ampliará su programa de seminarios de ciberseguridad de Google.org, valorado en 15 millones de dólares, para cubrir toda Europa y ayudar a formar profesionales de ciberseguridad en comunidades desatendidas. Magika de código abierto, una nueva herramienta impulsada por inteligencia artificial destinada a ayudar a los defensores a través de la identificación del tipo de archivo, que es esencial para detectar malware. Google dice que la plataforma supera a los métodos convencionales de identificación de archivos, proporcionando un aumento de precisión del 30% y hasta un 95% más de precisión en contenido como VBA, JavaScript y Powershell que a menudo es difícil de identificar. Proporcionar 2 millones de dólares en subvenciones de investigación para apoyar iniciativas de investigación basadas en IA en la Universidad de Chicago, la Universidad Carnegie Mellon y la Universidad de Stanford, entre otras. El objetivo es mejorar la verificación del código, mejorar la comprensión del papel de la IA en la ciberdefensa y la defensa y desarrollar modelos de lenguaje grande (LLM) más resistentes a las amenazas. Además, Google señala su Secure AI Framework, lanzado en junio pasado, para ayudar a las organizaciones de todo el mundo a colaborar en las mejores prácticas para proteger la IA. «Creemos que las tecnologías de seguridad de IA, al igual que otras tecnologías, deben ser seguras por diseño y por defecto», escribe la empresa. En última instancia, Google enfatiza que el mundo necesita inversiones específicas, asociaciones entre la industria y el gobierno y “enfoques regulatorios efectivos” para ayudar a maximizar el valor de la IA y al mismo tiempo limitar su uso por parte de los atacantes. «Las decisiones de gobernanza de la IA que se toman hoy pueden cambiar el terreno en el ciberespacio de maneras no deseadas», escribe la empresa. «Nuestras sociedades necesitan un enfoque regulatorio equilibrado para el uso y la adopción de la IA para evitar un futuro en el que los atacantes puedan innovar pero los defensores no». Microsoft y OpenAI luchan contra el uso malicioso de la IA En su anuncio conjunto de esta semana, Microsoft y OpenAI señalaron que los atacantes ven cada vez más la IA como «otra herramienta de productividad». En particular, OpenAI dijo que canceló cuentas asociadas con cinco actores de amenazas afiliados al estado de China, Irán, Corea del Norte y Rusia. Estos grupos utilizaron ChatGPT para: Depurar código y generar secuencias de comandos Crear contenido que pueda usarse en campañas de phishing Traducir documentos técnicos Recuperar información disponible públicamente sobre vulnerabilidades y múltiples agencias de inteligencia Investigar formas comunes en que el malware podría evadir la detección Realizar investigaciones de código abierto sobre radares y protocolos de comunicación por satélite tecnología de imágenes La compañía se apresuró a señalar, sin embargo, que «nuestros hallazgos muestran que nuestros modelos ofrecen sólo capacidades incrementales limitadas para tareas de ciberseguridad maliciosas». Las dos empresas se han comprometido a garantizar el «uso seguro y responsable» de tecnologías, incluido ChatGPT. Para Microsoft, estos principios incluyen: Identificar y actuar contra el uso de actores maliciosos de amenazas, como deshabilitar cuentas o cancelar servicios. Notificar a otros proveedores de servicios de IA y compartir datos relevantes. Colaborar con otras partes interesadas en el uso de la IA por parte de los actores de amenazas. Informar al público sobre el uso detectado de IA en sus sistemas y las medidas adoptadas contra ellos. De manera similar, OpenAI se compromete a: Monitorear e interrumpir a los actores maliciosos afiliados al estado. Esto incluye determinar cómo interactúan los actores maliciosos con su plataforma y evaluar intenciones más amplias. Trabajar y colaborar con el “ecosistema de IA” Proporcionar transparencia pública sobre la naturaleza y el alcance del uso de la IA por parte de actores maliciosos afiliados al estado y las medidas tomadas contra ellos. El equipo de inteligencia de amenazas de Google dijo en un informe detallado publicado hoy que rastrea a miles de actores maliciosos y familias de malware, y descubrió que: Los atacantes continúan profesionalizando operaciones y programas. La capacidad cibernética ofensiva es ahora una prioridad geopolítica principal. Las tácticas de los grupos de actores de amenazas ahora. evaden regularmente los controles estándar Acontecimientos sin precedentes como la invasión rusa de Ucrania marcan la primera vez que las operaciones cibernéticas han desempeñado un papel destacado en la guerra Los investigadores también “evalúan con gran confianza” que los “Cuatro Grandes” China, Rusia, Corea del Norte e Irán continuarán plantear riesgos significativos en todas las geografías y sectores. Por ejemplo, China ha estado invirtiendo fuertemente en inteligencia artificial ofensiva y defensiva y ha participado en el robo de datos personales y de propiedad intelectual para competir con los EE. UU. Google señala que los atacantes están utilizando inteligencia artificial para operaciones de ingeniería social y de información mediante el desarrollo de phishing, SMS y otros métodos cada vez más sofisticados. herramientas de cebo, noticias falsas y deepfakes. «A medida que la tecnología de IA evoluciona, creemos que tiene el potencial de aumentar significativamente las operaciones maliciosas», escriben los investigadores. «El gobierno y la industria deben escalar para enfrentar estas amenazas con programas sólidos de inteligencia de amenazas y una colaboración sólida». Superar el ‘dilema de los defensores’ Por otro lado, la IA apoya el trabajo de los defensores en la detección y reparación de vulnerabilidades, la respuesta a incidentes y el análisis de malware, señala Google. Por ejemplo, la IA puede resumir rápidamente informes e inteligencia sobre amenazas, resumir investigaciones de casos y explicar comportamientos de scripts sospechosos. De manera similar, puede clasificar categorías de malware y priorizar amenazas, identificar vulnerabilidades de seguridad en el código, ejecutar simulaciones de rutas de ataque, monitorear el desempeño del control y evaluar el riesgo de falla temprana. Además, dice Google, la IA puede ayudar a los usuarios no técnicos a generar consultas a partir del lenguaje natural; desarrollar guías de orquestación, automatización y respuesta de seguridad; y crear reglas y políticas de gestión de identidades y accesos (IAM). Los equipos de detección y respuesta de Google, por ejemplo, están utilizando IA de generación para crear resúmenes de incidentes, recuperando en última instancia más del 50% de su tiempo y produciendo resultados de mayor calidad en los resultados del análisis de incidentes. La empresa también ha mejorado sus tasas de detección de spam en aproximadamente un 40% con el nuevo modelo de procesamiento de textos neuromultilingüe RETVec. Y su Gemini LLM está corrigiendo el 15 % de los errores descubiertos por las herramientas de desinfección y proporcionando aumentos de cobertura de código de hasta un 30 % en más de 120 proyectos, lo que lleva a la detección de nuevas vulnerabilidades. Al final, los investigadores de Google afirman: «Creemos que la IA ofrece la mejor oportunidad para cambiar el dilema del defensor e inclinar la balanza del ciberespacio para darles a los defensores una ventaja decisiva sobre los atacantes». La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link