Google insta a los desarrolladores externos de aplicaciones de Android a incorporar funciones de inteligencia artificial generativa (GenAI) de manera responsable. La nueva guía del gigante de las búsquedas y la publicidad es un esfuerzo por combatir el contenido problemático, incluido el contenido sexual y el discurso de odio, creado a través de dichas herramientas. Con ese fin, las aplicaciones que generan contenido utilizando IA deben asegurarse de no crear contenido restringido, tener un mecanismo para que los usuarios informen o marquen información ofensiva y comercializarla de una manera que represente con precisión las capacidades de la aplicación. También se recomienda a los desarrolladores de aplicaciones que prueben rigurosamente sus modelos de IA para garantizar que respetan la seguridad y la privacidad del usuario. «Asegúrese de probar sus aplicaciones en varios escenarios de usuario y protegerlas contra indicaciones que podrían manipular su función de IA generativa para crear contenido dañino u ofensivo», dijo Prabhat Sharma, director de confianza y seguridad de Google Play, Android y Chrome. El desarrollo se produce cuando una investigación reciente de 404 Media encontró varias aplicaciones en Apple App Store y Google Play Store que anunciaban la capacidad de crear imágenes de desnudos no consensuales. El uso de datos públicos por parte de Meta para la IA genera preocupaciones La rápida adopción de tecnologías de IA en los últimos años también ha generado preocupaciones más amplias sobre privacidad y seguridad relacionadas con los datos de entrenamiento y la seguridad de los modelos, proporcionando a los actores malintencionados una forma de extraer información confidencial y alterar la información subyacente. modelos para arrojar resultados inesperados. Es más, la decisión de Meta de utilizar la información pública disponible en sus productos y servicios para ayudar a mejorar sus ofertas de IA y tener la «mejor tecnología de recomendación del mundo» ha llevado a la empresa de privacidad austriaca noyb a presentar una queja en 11 países europeos alegando violación de las leyes de privacidad GDPR. en la región. «Esta información incluye cosas como publicaciones públicas o fotografías públicas y sus títulos», anunció la compañía a fines del mes pasado. «En el futuro, también podremos utilizar la información que la gente comparte cuando interactúan con nuestras funciones de IA generativa, como Meta AI, o con una empresa, para desarrollar y mejorar nuestros productos de IA». Específicamente, noyb ha acusado a Meta de trasladar la carga a los usuarios (es decir, hacer que opten por no participar en lugar de optar por participar) y de no proporcionar información adecuada sobre cómo la empresa planea utilizar los datos de los clientes. Meta, por su parte, ha señalado que «se basará en la base jurídica de los ‘intereses legítimos’ para procesar ciertos datos propios y de terceros en la región europea y el Reino Unido» para mejorar la IA y crear mejores experiencias. Los usuarios de la UE tienen hasta el 26 de junio para optar por no participar en el procesamiento, lo que pueden hacer enviando una solicitud. Si bien el gigante de las redes sociales se propuso explicar que el enfoque está alineado con la forma en que otras empresas tecnológicas están desarrollando y mejorando sus experiencias de IA en Europa, la autoridad noruega de protección de datos Datatilsynet dijo que tiene «dudas» sobre la legalidad del proceso. «En nuestra opinión, lo más natural habría sido pedir el consentimiento de los usuarios antes de que sus publicaciones y fotografías fueran utilizadas de esta manera», dijo la agencia en un comunicado. «El Tribunal de Justicia Europeo ya ha dejado claro que Meta no tiene ningún ‘interés legítimo’ en anular el derecho de los usuarios a la protección de datos en lo que respecta a la publicidad», afirmó Max Schrems de noyb. «Sin embargo, la compañía está tratando de utilizar los mismos argumentos para el entrenamiento de una ‘tecnología de IA’ indefinida». El retiro de Microsoft se enfrenta a un mayor escrutinio El último alboroto regulatorio de Meta también llega en un momento en que la propia característica impulsada por la IA de Microsoft llamada Recall ha recibido una rápida reacción debido a a los riesgos de privacidad y seguridad que podrían surgir como resultado de capturar capturas de pantalla de las actividades de los usuarios en sus PC con Windows cada cinco segundos y convertirlas en un archivo con capacidad de búsqueda. El investigador de seguridad Kevin Beaumont, en un nuevo análisis, descubrió que es posible que un actor malicioso implemente un ladrón de información y extraiga la base de datos que almacena la información analizada a partir de las capturas de pantalla. El único requisito previo para lograr esto es que el acceso a los datos requiera privilegios de administrador en la máquina del usuario. «La recuperación permite a los actores de amenazas automatizar la extracción de todo lo que has visto en cuestión de segundos», dijo Beaumont. «[Microsoft] «Debería recordar Recall y modificarlo para que sea la característica que merece ser, entregada en una fecha posterior». Otros investigadores han demostrado de manera similar herramientas como TotalRecall que hacen que Recall sea propicio para el abuso y extraen información altamente confidencial de la base de datos. «Windows Recall almacena todo localmente en una base de datos SQLite no cifrada, y las capturas de pantalla simplemente se guardan en una carpeta de su PC», dijo Alexander Hagenah, quien desarrolló TotalRecall. A partir del 6 de junio de 2024, TotalRecall se actualizó para que ya no requiera derechos de administrador usando uno de los dos métodos que el investigador de seguridad James Forshaw describió para eludir el requisito de privilegios de administrador para poder acceder a los datos de Recall «Sólo está protegido al estarlo. [access control list]»Está conectado al SISTEMA y, por lo tanto, cualquier escalada de privilegios (o límite no relacionado con la seguridad *tos*) es suficiente para filtrar la información», dijo Forshaw. La primera técnica implica hacerse pasar por un programa llamado AIXHost.exe adquiriendo su token o, mejor aún, , aprovechando los privilegios del usuario actual para modificar las listas de control de acceso y obtener acceso a la base de datos completa. Dicho esto, vale la pena señalar que Recall se encuentra actualmente en versión preliminar y Microsoft aún puede realizar cambios en la aplicación antes de que esté ampliamente disponible. para todos los usuarios a finales de este mes. Se espera que esté habilitado de forma predeterminada para las PC Copilot+ compatibles. ¿Le resultó interesante este artículo? Síganos en Twitter  y LinkedIn para leer más contenido exclusivo que publicamos.