Pål (Paul) tiene más de 30 años de experiencia en la industria de TI y ha trabajado con clientes nacionales e internacionales a escala local y global. Pål tiene una base de competencias muy amplia que cubre todo, desde seguridad general hasta seguridad de centros de datos y desarrollo y servicios de seguridad en la nube. Durante los últimos 10 años, ha trabajado principalmente en el sector privado, centrándose en empresas grandes y medianas dentro de la mayoría de los sectores verticales. En esta entrevista, el experto en seguridad de Check Point, Pål Aaserudseter, describe dónde nos encontramos con ChatGPT y la inteligencia artificial. Profundiza en políticas, procesos y más. No te pierdas esto. Durante el año pasado, ¿qué le llamó la atención sobre la IA y la ciberseguridad? Hola y gracias por invitarme a CyberTalk. Mirando hacia atrás, al 2023, creo que la mejor palabra para describirlo es ¡guau! A medida que avanzaba 2023, la IA experimentó enormes avances, con avances en chatbots, grandes modelos de lenguaje y en sectores como el transporte, la atención médica, la creación de contenido y muchos otros para mencionarlos. Podríamos decir que ChatGPT fue la vía de acceso a la IA para la mayoría de las personas en 2023. Obviamente, evolucionó, recibió mucha atención en los medios por varias razones y ahora los creadores están tratando de sacar provecho de ello de diferentes maneras. La competencia también va en aumento, con empresas como Anthropic. Veremos mucho más en el frente de la IA en 2024. En lo que respecta a la seguridad cibernética, hemos visto una implementación masiva de la IA en ambos lados de la valla. Ahora es más fácil que nunca convertirse en un ciberdelincuente, ya que las herramientas basadas en IA están automatizadas, son fáciles de usar y fáciles de alquilar (como servicio). Un ejemplo es DarkGemini. Es un poderoso chatbot GenAI que se vende en la web oscura por una suscripción mensual. Puede crear malware, construir un shell inverso y hacer otras cosas malas, basándose únicamente en un mensaje de texto, y seguramente se desarrollará aún más para introducir más funciones que los atacantes puedan aprovechar. Cuando se utiliza de forma maliciosa, la IA se convierte en un catalizador del caos. Desde la creación de deepfakes hasta intrincados esquemas de ingeniería social (como intentos de phishing mucho más convincentes y malware polimórfico que resultan en variantes de código de amenaza en continua mutación), estas cosas plantean un desafío formidable para las herramientas de seguridad actuales. En consecuencia, el equilibrio de poder puede inclinarse a favor de los atacantes, a medida que los mecanismos de defensa tradicionales luchan por adaptarse y contrarrestar estas amenazas en evolución. Los ciberatacantes que aprovechan la IA tienen la capacidad de automatizar e identificar rápidamente vulnerabilidades para explotarlas. A diferencia de los ataques genéricos actuales, la IA permite a los atacantes adaptar sus ataques a objetivos y escenarios específicos, lo que podría generar un aumento de ataques personalizados y dirigidos con precisión. A medida que aumentan la escala y la precisión de dichos ataques, es probable que seamos testigos de un cambio en los comportamientos y estrategias de los atacantes. Implementar una seguridad basada en IA que aprenda, se adapte y mejore es fundamental para estar preparados para el futuro contra ataques desconocidos. ¿Qué nuevos desafíos y oportunidades estás viendo? ¿Cómo ha sido tu experiencia trabajando con clientes? Los nuevos desafíos en IA y ciberseguridad incluyen abordar las implicaciones éticas de los sistemas de seguridad impulsados ​​por IA, garantizar la confiabilidad y transparencia de los algoritmos de IA y mantenerse a la vanguardia de las ciberamenazas en evolución. La regulación es importante y, con la Ley de IA de la UE y la Alianza de IA, estamos dando pasos hacia adelante, pero por ahora, las leyes todavía están muy por detrás del desarrollo de la IA. También existen oportunidades para aprovechar la IA para la búsqueda proactiva de amenazas, la respuesta automatizada a incidentes y el análisis predictivo para protegerse mejor contra los ciberataques. Trabajar con clientes ha implicado ayudarlos a comprender las capacidades y limitaciones de la IA en la seguridad cibernética (y otras áreas) y ayudarlos a integrar soluciones impulsadas por IA de manera efectiva en sus estrategias de seguridad. ¿Ha habido novedades en torno a directrices/estándares éticos para el uso ético de la IA en la ciberseguridad? ¡Sí! Los esfuerzos para establecer pautas y estándares para el uso ético de la IA dentro de la seguridad cibernética están en curso y están ganando terreno. Organizaciones como IEEE y NIST están desarrollando marcos para promover prácticas responsables de IA en seguridad cibernética, centrándose en la transparencia, la equidad, la responsabilidad y la privacidad. Como se mencionó, la AI Alliance está compuesta por creadores, desarrolladores y adoptantes de tecnología que trabajan juntos para promover una IA segura y responsable. Además, para regular el uso seguro de la IA, en la Unión Europea se han aprobado las primeras partes de la muy importante Ley de IA. Como experto en ciberseguridad, ¿cuáles son sus perspectivas sobre el uso ético de la IA en la ciberseguridad? ¿Cómo pueden las organizaciones garantizar la transparencia? ¿Cómo pueden garantizar que la IA no sea manipulada por actores amenazantes? Mis perspectivas sobre el uso ético de la IA dentro de la seguridad cibernética (y en todos los demás campos) se basan en los principios de transparencia, equidad, responsabilidad y privacidad. Si bien la IA tiene un inmenso potencial para reforzar las defensas de seguridad cibernética y mitigar las amenazas, es crucial garantizar que su implementación se alinee con consideraciones éticas. La transparencia es clave. Las organizaciones deben ser transparentes sobre cómo se desarrollan, entrenan y utilizan los algoritmos de IA en las operaciones de seguridad cibernética. Esta transparencia fomenta la confianza entre las partes interesadas y permite el escrutinio de los sistemas de IA. La equidad es esencial para evitar la discriminación o los prejuicios en los procesos de toma de decisiones impulsados ​​por la IA. Es imperativo abordar los sesgos algorítmicos que pueden perpetuar las desigualdades o perjudicar a ciertos grupos. Es necesario un diseño cuidadoso, pruebas rigurosas y un monitoreo continuo para garantizar la equidad en las aplicaciones de IA. Nota: Puede comparar el entrenamiento de un modelo de IA con la crianza de un niño hasta convertirlo en un adulto responsable. Necesita orientación y fomento y necesita aprender de sus errores a lo largo del camino para volverse responsable y tomar las decisiones correctas al final. La rendición de cuentas es crucial para responsabilizar a las personas y organizaciones de las acciones y decisiones tomadas por los sistemas de IA. Deben establecerse líneas claras de rendición de cuentas para identificar quién es responsable de los resultados relacionados con la IA, incluidos los errores o fallas. La rendición de cuentas fomenta el comportamiento responsable e incentiva el cumplimiento de estándares éticos. Se debe proteger la privacidad al utilizar la IA en la ciberseguridad. Las organizaciones deben priorizar la confidencialidad y la integridad de los datos confidenciales, implementando medidas de seguridad sólidas para evitar el acceso no autorizado o el uso indebido. Los algoritmos de IA deben diseñarse con técnicas de mejora de la privacidad para minimizar el riesgo de filtraciones de datos o violaciones de la privacidad. Su diseño también debería tener en cuenta aspectos como el RGPD y la PII. En general, las consideraciones éticas deberían guiar el desarrollo, la implementación y la gobernanza de la IA en la seguridad cibernética (y otros campos que aprovechan la IA). ¿Cuáles son las implicaciones de la nueva asociación de Check Point con NVIDIA en relación con la seguridad de la infraestructura de IA (nube) a escala? Esto muestra la importancia de proteger dichas plataformas, ya que los ciberdelincuentes obviamente intentarán explotar cualquier tecnología nueva. Con la inmensa velocidad del desarrollo de la IA, habrá errores, errores, códigos e indicaciones que pueden verse comprometidos. ¡En Check Point tenemos las soluciones para proteger su IA! Aprende más aquí. URL de la publicación original: https://www.cybertalk.org/2024/03/28/ai-and-cyber-security-a-year-in-review/Categoría y etiquetas: OPINIÓN, TENDENCIA AHORA, IA, Copiloto de IA, Antrópico,inteligencia artificial,ChatGPT,Gemini,LLM,aprendizaje automático – OPINIÓN,TENDENCIA AHORA,AI,AI Copilot,Antrópico,inteligencia artificial,ChatGPT,Gemini,LLM,aprendizaje automático

Source link