A pesar de no ocupar un puesto de alto nivel, Goziker afirma que su trabajo principal en TikTok era «supervisar» el Proyecto Texas para garantizar que el plan de la aplicación de redes sociales para proteger los datos de los usuarios estadounidenses fuera efectivo. El objetivo era implementar un conjunto de salvaguardias que satisficieran al Comité de Inversión Extranjera en Estados Unidos, un organismo interinstitucional encargado de evaluar los riesgos de seguridad nacional asociados con la adquisición o adquisición de importantes participaciones en empresas estadounidenses por parte de empresas extranjeras. CFIUS tiene el poder de obligar a las empresas a deshacer acuerdos que considere riesgosos, y desde 2019 ha estado investigando la compra por parte de ByteDance en 2017 de una aplicación de sincronización de labios llamada Musical.ly, que luego se fusionó con TikTok. Goziker afirma que entrevistó a más de tres docenas personas de TikTok y ByteDance sobre el Proyecto Texas, según documentos judiciales. Dice que identificó fallas en la iniciativa que lo llevaron a negarse a “aprobarla”, a pesar de supuestas presiones de su gerente y otros ejecutivos de la empresa. Goziker intentó comunicar sus preocupaciones a los máximos dirigentes de TikTok, incluidos el director ejecutivo y la junta directiva, según registros judiciales. Goziker alega en documentos judiciales que encontró pruebas de que el software de TikTok podía enviar datos a China en enero de 2022, semanas antes de que lo despidieran. . Afirma en los documentos que a través de un “esfuerzo conjunto colaborativo y voluntario con los ingenieros de ByteDance de China continental”, obtuvo “un artefacto verificado” en el software de TikTok que conectaba la plataforma a Toutiao, una popular aplicación china de agregación de noticias que también es propiedad de ByteDance. Goziker dijo que sus hallazgos demostraron que los datos estadounidenses de TikTok aún podrían fluir a la República Popular, a pesar de las afirmaciones de TikTok en sentido contrario. Las presentaciones no contienen evidencia documental detallada de sus acusaciones. En marzo del año pasado, dos semanas después de que las afirmaciones de Goziker aparecieran en The Washington Post, el director ejecutivo de TikTok, Shou Zi Chew, compareció ante el Congreso y fue interrogado sobre los vínculos de su aplicación con China. Posteriormente, los representantes estadounidenses Jan Schakowsky, demócrata, y Cathy McMorris Rodgers, republicana, enviaron preguntas a TikTok sobre las afirmaciones transmitidas en la historia del Post. TikTok respondió diciendo que muchas de las acusaciones del artículo eran infundadas. Declaró que la referencia a Toutiao en el código de TikTok «no indica de ninguna manera una correlación, integración o conectividad de red entre Toutiao y TikTok», y agregó que «la aplicación de noticias Toutiao no puede interferir con los flujos de datos de TikTok una vez que el Proyecto Texas esté terminado». completo”. En las demandas y un registro de correo electrónico revisado por WIRED, Goziker reveló que también había estado en contacto con un periodista de Forbes que ha escrito una serie de historias influyentes sobre las prácticas de seguridad de datos de TikTok y los enlaces a ByteDance. En junio de 2022, cuando el periodista trabajaba en BuzzFeed News, publicaron un artículo basado en 80 reuniones internas en TikTok en las que nueve empleados diferentes supuestamente hicieron declaraciones “indicando que ingenieros en China tuvieron acceso a datos estadounidenses entre septiembre de 2021 y enero de 2022. Goziker afirmó a WIRED que él era la fuente de las grabaciones. Forbes le dijo a WIRED que no hace comentarios sobre el abastecimiento. El senador Warner y el senador Marco Rubio, republicano y vicepresidente del Comité Selecto de Inteligencia del Senado, citaron más tarde esa historia de BuzzFeed en una carta instando a la Comisión Federal de Comercio a iniciar una investigación sobre TikTok. Politico informó este mes que la agencia atendió ese llamado y abrió una investigación para determinar si la aplicación “engañó a sus usuarios al negar que individuos en China tuvieran acceso a sus datos”. Mientras Goziker presentaba sus demandas, los legisladores estadounidenses estaban cada vez más cerca de prohibir la aplicación. aplicación que nunca antes. La Cámara de Representantes aprobó por unanimidad un proyecto de ley el mes pasado que obligaría a ByteDance a vender TikTok dentro de los seis meses antes de que la descarga de la aplicación desde las tiendas de aplicaciones de EE. UU. fuera ilegal. La legislación está siendo considerada ahora por el Senado y el presidente Joe Biden ya ha dicho que la promulgará.
Source link
Etiqueta: Seguridad nacional

En febrero, OpenAI anunció la llegada de Sora, una impresionante herramienta de “texto a video”. Simplemente ingrese un mensaje y Sora generará un video realista en segundos. Pero no estuvo disponible de inmediato para el público. Parte del retraso se debe a que, según se informa, OpenAI tiene un conjunto de expertos llamado equipo rojo que, según la compañía, probará el modelo para comprender su capacidad para videos deepfake, información errónea, prejuicios y contenido de odio. útil para aplicaciones de ciberseguridad, es una herramienta militar que nunca estuvo pensada para una adopción generalizada por parte del sector privado. “Si se hace bien, el equipo rojo puede identificar y ayudar a abordar las vulnerabilidades en la IA”, dice Brian Chen, director de políticas del grupo de expertos Data & Society, con sede en Nueva York. «Lo que no hace es abordar la brecha estructural en la regulación de la tecnología en beneficio del interés público». ¿Qué es el equipo rojo? La práctica del equipo rojo tiene sus primeros orígenes en la estratagema militar de Sun Tzu en El arte de la guerra: «Si sabes Al enemigo y conócete a ti mismo, no debes temer el resultado de cien batallas”. El propósito de los ejercicios del equipo rojo es desempeñar el papel del adversario (el equipo rojo) y encontrar vulnerabilidades ocultas en las defensas del equipo azul (los defensores), quienes luego piensan creativamente sobre cómo arreglar las brechas. La práctica se originó en los círculos militares y gubernamentales de Estados Unidos durante la década de 1960 como una forma de anticipar las amenazas de la Unión Soviética. Hoy en día, se la conoce principalmente como una técnica de ciberseguridad confiable que se utiliza para ayudar a proteger redes informáticas, software y datos propietarios. Esa es la idea, al menos. Y en ciberseguridad, donde el papel de los piratas informáticos y los defensores está claro, los equipos rojos tienen un historial sustancial. Pero no está claro cómo se podrían distribuir los equipos azul y rojo para la IA y qué motiva a los participantes en todo este ejercicio a actuar en última instancia para, idealmente, promover el bien público. En un escenario en el que los equipos rojos se utilizan para aparentemente ayudar a salvaguardar la sociedad De los posibles daños de la IA, ¿quién juega en los equipos azul y rojo? ¿El equipo azul son los desarrolladores y el equipo rojo los hackers? ¿O el equipo rojo es el modelo de IA? ¿Y quién supervisa el equipo azul? Micah Zenko, autor de Red Team: How to Succeed by Thinking Like the Enemy, dice que el concepto de equipo rojo no siempre está bien definido y sus aplicaciones pueden variar. Dice que los miembros del equipo rojo de IA deberían “proceder con precaución: ser claros en cuanto al razonamiento, el alcance, la intención y los resultados del aprendizaje. Asegúrese de poner a prueba el pensamiento y desafiar las suposiciones”. Zenko también revela una evidente discrepancia entre los equipos rojos y el ritmo de avance de la IA. El objetivo, afirma, es identificar las vulnerabilidades existentes y luego solucionarlas. «Si el sistema que se está probando no es lo suficientemente estático», dice, «entonces simplemente estamos persiguiendo el pasado». ¿Por qué el equipo rojo ahora forma parte de la política pública de IA? El 30 de octubre del año pasado, el presidente Joe Biden emitió una Orden Ejecutiva 14110 que instruye al Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU. a desarrollar pautas con base científica para respaldar el despliegue de sistemas seguros y confiables, incluido el equipo rojo de IA. Tres meses después, el NIST concluyó los primeros pasos hacia implementar sus nuevas responsabilidades (equipo rojo y otras). Recopiló comentarios públicos sobre el registro federal, anunció el liderazgo inaugural del Instituto de Seguridad de Inteligencia Artificial de EE. UU. e inició un consorcio para evaluar los sistemas de inteligencia artificial y mejorar su confiabilidad y seguridad. Sin embargo, esta no es la primera vez que la administración Biden se vuelve al equipo rojo de IA. La popularidad de la técnica en los círculos de la administración Biden comenzó a principios de año. Según Politico, funcionarios de la Casa Blanca se reunieron con los organizadores de la conferencia de hackers DEFCON en marzo y acordaron en ese momento apoyar un ejercicio público de formación de equipos rojos. En mayo, los funcionarios de la administración anunciaron su apoyo para intentar un ejercicio de equipo rojo de IA en la próxima conferencia DEFCON 31 en Las Vegas. Luego, como estaba previsto, en agosto, miles de personas acudieron al Caesar’s Forum en Las Vegas para probar la capacidad de los modelos de IA para causar daño. Al cierre de esta edición, los resultados de este ejercicio aún no se han hecho públicos. ¿Qué puede hacer el equipo rojo de IA? Como cualquier software informático, los modelos de IA comparten las mismas cibervulnerabilidades: pueden ser pirateados por actores nefastos para lograr una variedad de objetivos, incluido el robo de datos o el sabotaje. Como tal, el equipo rojo puede ofrecer un enfoque para proteger los modelos de IA de amenazas externas. Por ejemplo, Google utiliza equipos rojos para proteger sus modelos de IA de amenazas como ataques rápidos, envenenamiento de datos y puertas traseras. Una vez que se identifican dichas vulnerabilidades, se pueden cerrar las brechas en el software. Para abordar los riesgos potenciales de la IA, los desarrolladores de tecnología han creado redes de expertos externos para ayudarlos a evaluar la seguridad de sus modelos. Sin embargo, tienden a contratar contratistas y exigirles que firmen acuerdos de confidencialidad. Los ejercicios todavía se llevan a cabo a puerta cerrada y los resultados se comunican al público en términos generales. Especialmente en el caso de la IA, los expertos del grupo de expertos en tecnología Data & Society afirman que el red teaming no debería tener lugar internamente dentro de una empresa. Zenko sugiere que “no sólo es necesaria la validación de terceros independientes, sino que las empresas deberían crear equipos multifuncionales y multidisciplinarios, no sólo ingenieros y piratas informáticos”. Dan Hendrycks, director ejecutivo y de investigación del Centro de IA con sede en San Francisco La seguridad, afirma el Red Teaming, tampoco debería tratarse como una solución llave en mano. «La técnica es ciertamente útil», afirma. «Pero representa sólo una línea de defensa contra los riesgos potenciales de la IA, y es esencial un ecosistema más amplio de políticas y métodos». El nuevo Instituto de Seguridad de IA del NIST ahora tiene la oportunidad de cambiar la forma en que se utiliza el equipo rojo en la IA. Según se informa, el consorcio del Instituto, formado por más de 200 organizaciones, ya ha comenzado a desarrollar estándares para los equipos rojos de IA. Los desarrolladores de tecnología también han comenzado a explorar las mejores prácticas por su cuenta. Por ejemplo, Anthropic, Google, Microsoft y OpenAI han establecido el Frontier Model Forum (FMF) para desarrollar estándares para la seguridad de la IA y compartir las mejores prácticas en toda la industria. Chris Meserole, director ejecutivo de FMF, dice que «la formación de equipos rojos puede ser una gran punto de partida para evaluar los riesgos potenciales que un modelo podría introducir”. Sin embargo, añade, los modelos de IA que están a la vanguardia del desarrollo tecnológico exigen una variedad de estrategias, no sólo una herramienta reciclada de la ciberseguridad y, en última instancia, de la Guerra Fría. El equipo rojo, dice Meserole, está lejos de ser «una panacea, por lo que hemos querido apoyar el desarrollo de otras técnicas de evaluación, evaluación y mitigación para garantizar la seguridad de los modelos de IA de vanguardia».
Source link
El exsecretario del Tesoro, Steven Mnuchin, está formando un grupo de inversores para adquirir TikTok de ByteDance, mientras una legislación bipartidista que se abre camino en el Congreso amenaza su existencia continua en los EE.UU. La Cámara de Representantes aprobó el miércoles un proyecto de ley bipartidista que, si se convierte en ley, obligaría a ByteDance «Creo que la legislación debería aprobarse y creo que debería venderse», dijo Mnuchin, que dirige Liberty Strategic Capital, al programa «Squawk Box» de CNBC el jueves. «Es un gran negocio y voy a formar un grupo para comprar TikTok». Hay puntos en común entre Liberty y ByteDance. SoftBank Vision Fund de Masa Son invirtió en ByteDance en 2018 y también es socio limitado de Liberty Strategic de Mnuchin. El proyecto de ley ahora se dirige al Senado, donde su futuro es incierto, aunque el presidente Joe Biden ha dicho que firmará la legislación si llega a su escritorio. «Esto debería ser propiedad de empresas estadounidenses. No hay manera de que los chinos permitan que una empresa estadounidense posea algo como esto en China», dijo Mnuchin. Los legisladores de ambos lados del pasillo han destacado el alcance de TikTok en los EE. UU. (según sus propias estimaciones, 170 millones de estadounidenses utilizan la aplicación) porque proporciona al gobierno chino fácil acceso e influencia sobre los EE. UU. Los principales inversores en tecnología, incluidos Peter Thiel, Vinod Khosla y Keith Rabois, han criticado pública o privadamente la plataforma de redes sociales como una influencia perniciosa. Aún así, no está claro si el gobierno chino permitiría a ByteDance vender TikTok a un comprador estadounidense. TikTok ha presionado furiosamente contra el proyecto de ley, incluido un discurso concertado entre su base de usuarios y a través de videos en su plataforma. El director ejecutivo de TikTok, Shou Zi Chew, ha insinuado que una venta no es una opción. El portavoz del Ministerio de Asuntos Exteriores de China, Wang Wenbin, describió el impulso bipartidista como indicativo de una «lógica de ladrón» hacia TikTok, informó el jueves The Financial Times. ByteDance fue valorado en 220.000 millones de dólares en su última ronda de financiación en 2023, según datos de PitchBook. Si bien no quedó clara de inmediato una valoración discreta para TikTok, cualquier precio de venta para la división estadounidense probablemente sería menor. El activo más valioso de TikTok y, para los legisladores, su arma más preocupante, es su algoritmo, que ofrece contenido personalizado a los usuarios y fue desarrollado en China. Cualquier venta de TikTok sin el algoritmo sería significativamente menos atractiva para los compradores potenciales. Mnuchin no especificó quiénes serían los otros inversores en tal acuerdo ni la valoración potencial del sitio de redes sociales. Hay otros compradores interesados. El Wall Street Journal informó el domingo que el ex director ejecutivo de Activision Blizzard, Bobby Kotick, estaba buscando un posible acuerdo con posibles socios. La semana pasada, Liberty Strategic Capital de Mnuchin fue uno de los principales inversores en un aumento de capital de mil millones de dólares para estabilizar el New York Community Bancorp. Mnuchin sirvió como Tesoro. Secretario del expresidente Donald Trump. Esa administración también adoptó una postura antagónica hacia TikTok, lo que finalmente resultó en que ByteDance estableciera una asociación de datos con Oracle. Desde entonces, Trump cambió de rumbo y se manifestó en contra de la prohibición de TikTok. TikTok no respondió de inmediato a una solicitud de comentarios.
Source link