Todo lo que necesitas saber sobre tecnología

Etiqueta: falsificaciones profundas

IBM y la ciberseguridad del futuro: claves de acceso, deepfakes y computación cuántica

IBM y la ciberseguridad del futuro: claves de acceso, deepfakes y computación cuántica

“En cinco años, Internet será mucho más seguro que hoy, gracias a los avances tecnológicos que abordan problemas comunes a gran escala”. Esta predicción de Chris Hockings, director de tecnología de IBM Asia Pacífico, puede parecer un poco ambiciosa dado que el cibercrimen impulsado por IA está creciendo a un ritmo exponencial, la tecnología deepfake está mejorando los ataques de ingeniería social y el poder de la computación cuántica está en el horizonte. Pero Hockings habló con TechRepublic sobre cómo cree que la tecnología se acelerará a un ritmo aún más rápido en los próximos años, con la clave de acceso en su núcleo. El futuro de la identidad digital en Australia La identidad digital es un área clave en la que Australia está logrando un progreso significativo, y la tecnología de clave de acceso sirve como un componente central de este avance, a pesar de que la adopción de claves de acceso está rezagada en Australia. Hockings destacó cómo los sistemas de identidad digital están ayudando a reducir el riesgo de infracciones. En particular, myGov de Australia es un proyecto de clave de acceso que tiene implicaciones nacionales. La implementación de claves de acceso puede eliminar eficazmente la principal fuente de fraude para los usuarios que las adoptan, dijo. “A nivel mundial, el 16% de las infracciones tienen que ver con credenciales perdidas o robadas, y es el proveedor de ataque inicial más común”, explicó Hockings. “La identidad digital ofrece una oportunidad para reducir significativamente la superficie de ataque. Cuantas más personas adopten estas tecnologías, menos susceptibles serán a las infracciones cibernéticas”. Más cobertura de Australia Amenazas emergentes: deepfakes y computación cuántica En otros lugares, ciertamente están surgiendo otras amenazas. Nuevos desafíos como los deepfakes están haciendo que los gobiernos de todo el mundo redacten apresuradamente leyes para combatirlos, mientras que la computación cuántica se vislumbra en el horizonte. Una vez que la computación cuántica se convierta en una realidad, las técnicas de cifrado tradicionales podrían volverse ineficaces. Sin embargo, Hockings dijo que existen soluciones para contrarrestar estos problemas. “Los deepfakes son una preocupación importante, pero con los avances tecnológicos adecuados, podemos crear sistemas que filtren contenido no confiable a escala”, dijo. Hockings cree que el problema central con los deepfakes como vector de ataque se reduce a la identidad. Internet fue diseñado originalmente para que el contenido pudiera llegar a todos. Sin embargo, con la implementación de identidades digitales, incluida la posibilidad de myGov, las personas están adquiriendo un mayor control sobre el contenido que se filtra. “Hoy en día, dependemos completamente de SSL cuando utilizamos sitios web”, dijo. “Creo que la respuesta a lo que está sucediendo es que habrá mecanismos de protección y el enfoque pasará de las protecciones y una especie de enfoque de ‘confianza cero’ al contenido que experimentamos, en lugar del enfoque reaccionario actual que es ‘detectar y responder’”. Mientras tanto, IBM se esfuerza por estar a la vanguardia a la hora de abordar los desafíos que plantea la computación cuántica. En el horizonte, la gran velocidad y potencia de la computación cuántica significa que los ataques de «fuerza bruta» podrían vencer incluso el cifrado de 2048 bits. Puede que pase una década o más hasta que las computadoras cuánticas se vuelvan lo suficientemente potentes y libres de errores como para lograrlo. Dado que IBM no espera entregar su primer sistema cuántico con corrección de errores hasta 2029, todavía hay tiempo para que las organizaciones se centren en la seguridad para garantizar que su respuesta a la computación cuántica no sea reactiva. Una solución a la escasez de habilidades en ciberseguridad Uno de los problemas más urgentes que se discuten en toda Australia es la escasez de habilidades en ciberseguridad, que Hockings reconoce, destacando particularmente su desafío con el sesgo de género: actualmente, solo el 17% de los profesionales de la ciberseguridad son mujeres. «Incluso desde mi propia experiencia, tengo hijas adolescentes que están considerando la universidad y he visto que las opciones en torno a la ciberseguridad se filtran», dijo. «Están allí, y obviamente también está la estandarización de los cursos TAFE. Pero en términos de atraer mujeres a la industria, esos esfuerzos deben seguir creciendo». Sin embargo, Hockings también sugirió que el alcance de la escasez de habilidades en ciberseguridad, tanto ahora como en el futuro, está «sobreinflado». «No se trata solo de la cantidad de personas disponibles», agregó. «También se trata de la innovación tecnológica que puede ayudar a los profesionales existentes a ser más efectivos y eliminar la necesidad de que las personas hagan ciertas partes de esos trabajos». IBM ha reconocido durante mucho tiempo la importancia de nutrir el talento y sostener la innovación. Hockings dijo. “Hemos sido capaces de mantener la innovación durante más de 30 años, lo que es una hazaña bastante sorprendente”, explicó. “Esto se refleja en los clientes empresariales de Australia, con muchas iniciativas que implican asociaciones con universidades, la realización de hackatones y otras actividades para generar interés y crear una vía para incorporar habilidades a las organizaciones”. A medida que la seguridad se convierte en un asunto más personal y el enfoque de “confianza cero” para la autenticación y la identidad permite a las personas un mayor control sobre cómo acceden e interactúan con el contenido, la alfabetización digital será clave. Esto permite que las personas se sientan empoderadas para tomar decisiones sobre seguridad. Sin embargo, Hockings confía en que este cambio de mentalidad en torno a la seguridad dará como resultado una Internet más segura en la que los ataques cibernéticos que dependen de una gran superficie se volverán obsoletos.

Cómo pedirle a Google que elimine los resultados de pornografía deepfake de la Búsqueda de Google

Cómo pedirle a Google que elimine los resultados de pornografía deepfake de la Búsqueda de Google

Internet está lleno de deepfakes, y la mayoría de ellos son desnudos. Según un informe de Home Security Heroes, el porno deepfake representa el 98% de todos los videos deepfake en línea. Gracias a herramientas de inteligencia artificial generativa fáciles de usar y de libre acceso, la cantidad de deepfakes en línea, muchos de los cuales no son consensuales, se disparó un 550% entre 2019 y 2023. Si bien las leyes contra los deepfakes no consensuales se están quedando atrás, al menos en los EE. UU., cada vez es un poco más fácil eliminar los deepfakes, gracias a las nuevas herramientas en la Búsqueda de Google. Google introdujo recientemente cambios en la Búsqueda para combatir el porno deepfake, incluidos ajustes en el algoritmo de clasificación de Búsqueda diseñado para reducir el contenido deepfake en las búsquedas. La compañía también implementó una forma acelerada de procesar las solicitudes de eliminación de resultados de porno deepfake no consensual de la Búsqueda. Aquí se explica cómo usarlo. Solicitar una solicitud de eliminación La forma más fácil de solicitar que un resultado de pornografía no consensuada deepfake (una página web, imagen o video) se elimine de la Búsqueda de Google es mediante este formulario web. Ten en cuenta que hay un formulario separado para las imágenes de abuso sexual infantil, y el contenido de destino debe cumplir con los criterios de eliminación de Google, de la siguiente manera: Es desnudo, íntimo o sexualmente explícito (por ejemplo, imágenes o videos de ti) y se distribuye sin permiso; O Es falso o te representa falsamente desnudo o en una situación sexual explícita; O Te asocia incorrectamente a ti o a tu nombre con el trabajo sexual. Haz clic en la opción «El contenido contiene desnudez o material sexual» y luego pasa a la página siguiente. Créditos de la imagen: Google En esta etapa, selecciona «El contenido me representa falsamente en un acto sexual o en un estado íntimo». (Esto a veces se conoce como «deep fake» o «pornografía falsa»). Créditos de imagen: Google En la página final del formulario, después de ingresar tu nombre, país de residencia y correo electrónico de contacto, tendrás que indicar si eres tú u otra persona representada en el contenido deepfake que se va a eliminar. Google permite a otros eliminar contenido en nombre de alguien, pero solo si esa persona es un «representante autorizado» que explica cómo tiene esa autoridad. Créditos de imagen: Google A continuación, se encuentra la sección de información del contenido. Aquí, tendrás que proporcionar las URL de los resultados deepfake que se van a eliminar (hasta un máximo de 1000), las URL de los resultados de búsqueda de Google donde aparece el contenido (de nuevo, hasta un máximo de 1000) y los términos de búsqueda que devuelven los deepfakes. Por último, tendrás que subir una o más capturas de pantalla del contenido que estás denunciando y cualquier información adicional que pueda ayudar a explicar la situación. Pasos después de enviar una solicitud Después de enviar una solicitud, recibirás una confirmación automática por correo electrónico. La solicitud será revisada, después de lo cual Google puede solicitar más información (como URL adicionales). Recibirás una notificación de cualquier acción tomada y, si la solicitud no cumplió con los requisitos de Google para la eliminación, un mensaje de seguimiento explicando por qué. Las solicitudes que se denieguen se pueden volver a enviar con nuevos materiales de respaldo. Google dice que cuando alguien solicita con éxito la eliminación de resultados de pornografía deepfake no consensuada en la Búsqueda, los sistemas de la empresa también intentarán filtrar los resultados explícitos en todas las búsquedas similares sobre esa persona. Además, dice Google, cuando una imagen se elimina de la Búsqueda según las políticas de Google, sus sistemas buscarán y eliminarán cualquier duplicado de esa imagen que encuentren. «Estas protecciones ya han demostrado ser exitosas para abordar otros tipos de imágenes no consensuadas, y ahora hemos creado las mismas capacidades también para imágenes explícitas falsas», escribe Google en una publicación de blog. «Estos esfuerzos están diseñados para brindarles a las personas una mayor tranquilidad, especialmente si les preocupa que aparezca contenido similar sobre ellos en el futuro».

La pornografía deepfake genera herramientas tecnológicas y exige regulaciones

La pornografía deepfake genera herramientas tecnológicas y exige regulaciones


Gracias a las herramientas de inteligencia artificial generativa actuales, es terriblemente fácil crear pornografía deepfake de cualquier persona. Un informe de 2023 de Home Security Heroes (una empresa que analiza los servicios de protección contra el robo de identidad) descubrió que bastaba con una imagen clara de un rostro y menos de 25 minutos para crear un vídeo pornográfico deepfake de 60 segundos, de forma gratuita. El mundo se dio cuenta de esta nueva realidad en enero, cuando circularon en las redes sociales imágenes deepfake gráficas de Taylor Swift, y una de ellas recibió 47 millones de visitas antes de que la eliminaran. Otras personas de la industria del entretenimiento, sobre todo estrellas del pop coreano, también han visto sus imágenes tomadas y mal utilizadas, pero también ha ocurrido lo mismo con personas alejadas del foco público. Sin embargo, hay una cosa que prácticamente todas las víctimas tienen en común: según el informe de 2023, el 99 por ciento de las víctimas son mujeres o niñas. Esta terrible situación está impulsando la acción, en gran medida por parte de mujeres que están hartas. Como dice una de las fundadoras de una startup, Nadia Lee: “Si la tecnología de seguridad no se acelera al mismo ritmo que el desarrollo de la IA, entonces estamos en problemas”. Si bien se han realizado muchas investigaciones sobre los detectores de deepfakes, estos tienen dificultades para seguir el ritmo de las herramientas de generación de deepfakes. Es más, los detectores solo ayudan si una plataforma está interesada en filtrar deepfakes, y la mayoría de la pornografía deepfake se aloja en sitios dedicados a ese género. “Nuestra generación se enfrenta a su propio momento Oppenheimer”, dice Lee, CEO de la startup That’sMyFace, con sede en Australia. “Construimos esta cosa” (es decir, la IA generativa) “y podríamos ir por este o aquel camino con ella”. La empresa de Lee primero ofrece herramientas de reconocimiento visual a clientes corporativos que quieren estar seguros de que sus logotipos, uniformes o productos no aparecen en pornografía (pensemos, por ejemplo, en las azafatas de los aviones). Pero su objetivo a largo plazo es crear una herramienta que cualquier mujer pueda usar para escanear todo Internet en busca de imágenes o videos deepfake que tengan su propia cara. “Si la tecnología de seguridad no se acelera al mismo ritmo que el desarrollo de la IA, entonces estamos jodidos”. —Nadia Lee, That’sMyFaceOtra fundadora de una startup tenía una razón personal para involucrarse. Breeze Liu fue víctima de pornografía deepfake en 2020; finalmente encontró más de 800 enlaces que conducían al video falso. Se sintió humillada, dice, y se horrorizó al descubrir que tenía pocos recursos: la policía dijo que no podían hacer nada, y ella misma tuvo que identificar todos los sitios donde aparecía el video y solicitar que lo eliminaran, apelaciones que no siempre tuvieron éxito. Tenía que haber una manera mejor, pensó. “Necesitamos usar la IA para combatir la IA”, dice. Liu, que ya estaba trabajando en tecnología, fundó Alecto AI, una startup que lleva el nombre de una diosa griega de la venganza. La aplicación que está desarrollando permite a los usuarios implementar el reconocimiento facial para verificar el uso indebido de su propia imagen en las principales plataformas de redes sociales (no está considerando asociaciones con plataformas pornográficas). Liu pretende asociarse con las plataformas de redes sociales para que su aplicación también pueda permitir la eliminación inmediata de contenido ofensivo. «Si no puedes eliminar el contenido, solo estás mostrando a las personas imágenes realmente angustiantes y creando más estrés», dice. Liu dice que actualmente está negociando con Meta sobre un programa piloto, que dice que beneficiará a la plataforma al proporcionar moderación de contenido automatizada. Sin embargo, pensando en grande, dice que la herramienta podría convertirse en parte de la «infraestructura para la identidad en línea», permitiendo que las personas también verifiquen cosas como perfiles falsos en las redes sociales o perfiles de sitios de citas configurados con su imagen. ¿Pueden las regulaciones combatir la pornografía deepfake? Eliminar material deepfake de las plataformas de redes sociales es bastante difícil; eliminarlo de las plataformas de pornografía es aún más difícil. Para tener una mejor oportunidad de forzar la acción, los defensores de la protección contra el abuso sexual basado en imágenes creen que se necesitan regulaciones, aunque difieren en qué tipo de regulaciones serían más efectivas. Susanna Gibson comenzó la organización sin fines de lucro MyOwn después de su propia historia de terror deepfake. Se postulaba para un escaño en la Cámara de Delegados de Virginia en 2023 cuando el partido republicano oficial de Virginia envió por correo imágenes sexuales de ella que habían sido creadas y compartidas sin su consentimiento, incluidas, dice, capturas de pantalla de pornografía deepfake. Después de perder las elecciones por poco, se dedicó a liderar la carga legislativa en Virginia y luego a nivel nacional para luchar contra el abuso sexual basado en imágenes. «El problema es que cada estado es diferente, por lo que es un mosaico de leyes. Y algunas son significativamente mejores que otras». —Susanna Gibson, MyOwnSu primera victoria fue un proyecto de ley que el gobernador de Virginia firmó en abril para expandir la ley existente del estado sobre «pornografía de venganza» para cubrir más tipos de imágenes. «No se acerca ni de lejos a lo que creo que debería ser, pero es un paso en la dirección correcta para proteger a las personas», dice Gibson. Si bien se han presentado varios proyectos de ley federales para criminalizar explícitamente la distribución no consentida de imágenes íntimas o pornografía deepfake en particular, Gibson dice que no tiene grandes esperanzas de que esos proyectos de ley se conviertan en ley del país. Hay más acciones a nivel estatal, dice ella. “En este momento hay 49 estados, más el Distrito de Columbia, que tienen legislación contra la distribución no consensual de imágenes íntimas”, dice Gibson. “Pero el problema es que cada estado es diferente, por lo que es un mosaico de leyes. Y algunas son significativamente mejores que otras”. Gibson señala que casi todas las leyes requieren prueba de que el perpetrador actuó con la intención de acosar o intimidar a la víctima, lo que puede ser muy difícil de probar. Entre las diferentes leyes, y las propuestas de nuevas leyes, hay un desacuerdo considerable sobre si la distribución de pornografía deepfake debe considerarse un asunto penal o civil. Y si es civil, lo que significa que las víctimas tienen derecho a demandar por daños y perjuicios, hay desacuerdo sobre si las víctimas deberían poder demandar a las personas que distribuyeron la pornografía deepfake o a las plataformas que la alojaron. Más allá de los Estados Unidos hay un mosaico aún mayor de políticas. En el Reino Unido, la Ley de Seguridad en Internet aprobada en 2023 penalizó la distribución de pornografía deepfake, y una enmienda propuesta este año puede penalizar también su creación. La Unión Europea adoptó recientemente una directiva que combate la violencia y la ciberviolencia contra las mujeres, que incluye la distribución de pornografía deepfake, pero los estados miembros tienen hasta 2027 para implementar las nuevas reglas. En Australia, una ley de 2021 convirtió en delito civil publicar imágenes íntimas sin consentimiento, pero una nueva ley propuesta tiene como objetivo convertirlo en delito penal y también pretende abordar explícitamente las imágenes deepfake. Corea del Sur tiene una ley que aborda directamente el material deepfake y, a diferencia de muchos otros, no requiere prueba de intención maliciosa. China tiene una ley integral que restringe la distribución de «contenido sintético», pero no ha habido evidencia de que el gobierno use las regulaciones para tomar medidas enérgicas contra la pornografía deepfake. Mientras las mujeres esperan una acción regulatoria, los servicios de empresas como Alecto AI y That’sMyFace pueden llenar los vacíos. Pero la situación nos recuerda a los silbatos anti-violación que algunas mujeres urbanas llevan en sus bolsos para estar listas para pedir ayuda si son atacadas en un callejón oscuro. Es útil tener una herramienta así, sin duda, pero sería mejor si nuestra sociedad tomara medidas enérgicas contra la depredación sexual en todas sus formas y tratara de asegurarse de que los ataques no ocurran en primer lugar. Artículos de su sitio Artículos relacionados en la Web

Funciona con WordPress & Tema de Anders Norén