Un fallo judicial reciente en los EE. UU. ha determinado que los sistemas de información y entretenimiento en los automóviles pueden almacenar y transmitir legalmente mensajes de texto y registros de llamadas desde los teléfonos de los usuarios, incluso si han sido eliminados del dispositivo. Esta sentencia tiene enormes implicaciones para la privacidad y la protección de datos. Esto significa que las marcas de automóviles pueden recopilar y registrar datos personales confidenciales sin el conocimiento o consentimiento del usuario. La Corte de Apelaciones de Washington dictaminó la semana pasada que automóviles como Honda, Toyota, Volkswagen y General Motors no violaron la ley al almacenar mensajes y registros de llamadas desde teléfonos móviles conectados. El fallo surge en respuesta a cinco demandas colectivas que fueron desestimadas a principios de este año. El tribunal de apelación también rechazó las solicitudes de reabrir esos casos para continuar con la investigación. Si desea leer el fallo judicial original y las denuncias, haga clic aquí. Antecedentes El caso fue presentado contra varios fabricantes de automóviles, incluidos Honda, Toyota, Volkswagen, General Motors y Ford, por demandantes que alegaban que las empresas habían violado las leyes de privacidad del estado de Washington al utilizar los sistemas de información y entretenimiento a bordo de los vehículos para registrar e interceptar los mensajes de los clientes. mensajes de texto privados y registros de llamadas de teléfonos móviles. Los demandantes argumentaron que los sistemas de información y entretenimiento almacenaron cada uno de los mensajes de texto interceptados, grabados y descargados en una memoria no temporal de la computadora de tal manera que el propietario del vehículo no podía acceder a ellos ni eliminarlos, incluso si el mensaje de texto se eliminaba de el teléfono inteligente. Lo mismo ocurre con los registros de llamadas, que según la demanda colectiva también estaban siendo interceptados y registrados. Denuncia Según la denuncia contra Honda, los sistemas de información y entretenimiento de los automóviles producidos por la empresa a partir de 2014 “almacenan una copia de cada mensaje de texto interceptado, grabado y descargado en una memoria no transitoria de la computadora para que el propietario no pueda acceder a él ni borrarlo”. «Honda conserva una copia de los mensajes de texto en la memoria integrada del vehículo incluso si los mensajes de texto se eliminan del teléfono inteligente, incluso si el teléfono inteligente está desconectado», argumentan los demandantes. También hacen el mismo argumento para los registros de llamadas. El demandante señala a Berra, una empresa de Maryland que fabrica equipos relacionados para Honda. Acusan a la empresa de ser «capaz de extraer mensajes de texto almacenados del sistema de infoentretenimiento». Según la demanda, el software de Berra no estaba disponible para el público y estaba destinado a ser utilizado por las autoridades. “Usuarios no autorizados de los dispositivos Berra podrían recuperar copias de mensajes de texto y registros de llamadas almacenados en automóviles Honda sin necesidad de contraseñas, huellas dactilares, imágenes faciales u otras medidas de seguridad. Por lo tanto, eluden las medidas empleadas por los demandantes y los miembros del grupo para proteger sus teléfonos”, alega la denuncia. Gizchina Noticias de la semana Fallo judicial El juez de apelaciones con sede en Seattle dictaminó que la interceptación y el registro de la actividad de los teléfonos móviles no cumplían con el estándar de la Ley de Privacidad de Washington de que un demandante debe demostrar que «su negocio, su persona o su o su reputación” ha sido amenazada. El juez declaró que los reclamos no eran lo suficientemente graves como para ser considerados una violación de la Ley de Privacidad de Washington (WPA) del estado. El fallo significa que las marcas de automóviles pueden continuar recopilando y registrando los mensajes de texto y los registros de llamadas de los usuarios sin violar las leyes de privacidad. En otras palabras, es legal que los automóviles intercepten, registren, descarguen, almacenen y transmitan automáticamente y sin autorización instantáneamente mensajes de texto y registros de llamadas. Esto se debe a que, según la última sentencia judicial, la invasión de la privacidad es potencial pero no perjudicial para el usuario. El daño no tiene por qué ser real. No está claro si los demandantes en la demanda colectiva planean apelar más. Cómo llegó el tribunal a la decisión El tribunal dijo que su fallo se basó en pruebas y no en sentimientos. El juez dictaminó que la violación de la privacidad es potencial pero no necesariamente real. En el fallo, el juez dijo que los demandantes no pudieron probar que una marca de automóviles haya utilizado mensajes de texto y registros de llamadas sin el consentimiento de los usuarios. Por lo tanto, si no existe un caso real de que esto suceda, la violación es potencial y en realidad no ha ocurrido. El juez dijo que los demandantes no demostraron que “su negocio, su persona o su reputación” hayan sido amenazados. Por tanto, no hay fundamento para pronunciarse en contra de las marcas de automóviles. Implicaciones y consecuencias para las personas y su privacidad La sentencia judicial tiene importantes implicaciones para la privacidad y la protección de datos. Significa que las marcas de automóviles pueden recopilar y registrar información personal confidencial sin el conocimiento o consentimiento del usuario. Los organismos encargados de hacer cumplir la ley pueden acceder a estos datos, además de ser potencialmente vulnerables a piratería informática y ataques cibernéticos. El fallo también destaca la necesidad de leyes y regulaciones de privacidad más estrictas para proteger los datos personales de los usuarios en la era de los automóviles conectados y el Internet de las cosas (IoT). Mucha gente no bromea con sus datos personales y hará todo lo posible para protegerlos. Ahora, existe la posibilidad de que la policía y las marcas de automóviles puedan utilizar los registros de llamadas y los mensajes de los usuarios. Puede haber consecuencias, tal vez más de las que esperaba la marca del automóvil. Es posible que algunas personas no conecten sus teléfonos móviles a sus automóviles por muy conveniente que sea. Si es obligatorio conectar un teléfono al coche, algunos pueden simplemente adquirir un teléfono lateral para el coche. Sin duda, esta sentencia hará que la gente se lo piense dos veces antes de conectar sus teléfonos móviles a sus coches. Además, las marcas de automóviles tendrán más trabajo por hacer. Esto se debe a que tendrán que gastar algo de dinero en anuncios que convenzan a los usuarios de que sus datos están seguros. Es probable que casos como este también surjan en otras regiones como la UE y el continente asiático. Sin embargo, la sentencia en Estados Unidos ya ha marcado un ritmo que otras regiones pueden seguir o no. Conclusión Los recientes fallos judiciales en los EE. UU. permiten que los sistemas de información y entretenimiento de los automóviles almacenen y transmitan los mensajes de texto y los registros de llamadas de los usuarios. Esta sentencia tiene enormes implicaciones para la privacidad y la protección de datos. Significa que las marcas de automóviles pueden recopilar y registrar legalmente datos personales confidenciales. La marca ni siquiera necesita el consentimiento de los usuarios y esto se puede hacer sin que los usuarios lo sepan. El fallo destaca la necesidad de leyes y regulaciones de privacidad más estrictas. Esto ayudaría a proteger la información personal de los usuarios en la era de los automóviles conectados y el Internet de las cosas (IoT).
Etiqueta: privacidad
Cuatro grupos dicen que Clearview almacenó datos biométricos de más de 3 mil millones de personas sin su conocimiento o permiso al «raspar» sus imágenes de sitios web. PUBLICIDAD Los grupos de campañas de privacidad presentaron quejas legales el jueves ante los reguladores europeos contra Clearview AI, alegando que la tecnología de reconocimiento facial que proporciona a Los organismos encargados de hacer cumplir la ley y las empresas infringen las estrictas normas de privacidad de la Unión Europea. Cuatro grupos se quejaron ante las autoridades de protección de datos de Francia, Austria, Grecia, Italia y el Reino Unido sobre las prácticas de Clearview, afirmando que la empresa almacenó datos biométricos de más de 3 mil millones de personas sin su conocimiento. o permiso «extrayendo» sus imágenes de sitios web. Las quejas dicen que Clearview no tenía ninguna base legal para recopilar y procesar estos datos según el Reglamento General de Protección de Datos de la Unión Europea, que cubre datos de imágenes faciales. Gran Bretaña adoptó su propia versión de las reglas de privacidad de la UE después de abandonar el bloque. «Clearview AI nunca ha tenido ningún contrato con ningún cliente de la UE y actualmente no está disponible para los clientes de la UE», dijo el director ejecutivo Hoan Ton-That en un comunicado. El arsenal de Clearview, reportado por primera vez por The New York Times, generó preocupaciones de que el tipo de vigilancia que se observa en China podría ocurrir en las democracias occidentales. Privacy International dijo que las leyes europeas de protección de datos describen claramente los propósitos para los cuales las empresas pueden usar datos personales. rasgos faciales o incluso compartirlos con la policía y otras empresas va mucho más allá de lo que podríamos esperar como usuarios en línea», afirmó Ioannis Kouvakas, responsable jurídico de Privacy International, con sede en Londres. El Centro Hermes para la Transparencia y los Derechos Humanos Digitales de Italia, el Homo Digitalis de Grecia y el noyb de Austria también fueron parte del desafío. Las quejas se basan en parte en solicitudes que las personas pueden presentar para ver qué datos tiene una empresa sobre ellos. Ton-That dijo que Clearview «procesó voluntariamente» las solicitudes, que «sólo contienen información disponible públicamente, al igual que miles de otras que hemos procesado». Clearview ya se enfrenta a un escrutinio global. prohibir a Clearview recopilar información biométrica en California y obligarla a eliminar datos sobre los californianos recopilados de sitios como Facebook, Twitter, Google y Venmo. Mientras tanto, los organismos de control de la privacidad en Gran Bretaña, Australia y Canadá han abierto investigaciones sobre la empresa.
Source link
La Autoridad de Protección de Datos de los Países Bajos ha multado a TikTok con 750.000 euros por no ofrecer una declaración de privacidad comprensible para los usuarios en holandés. PUBLICIDAD Los funcionarios de protección de datos en los Países Bajos han multado a TikTok con 750.000 euros por no ofrecer una declaración sobre privacidad en holandés. Muchos niños que usan la popular aplicación para compartir videos no pudieron entender los términos en inglés, dijo la autoridad. «TikTok no proporcionó una explicación adecuada de cómo la aplicación recopila, procesa y utiliza datos personales», decía un comunicado. La Autoridad Holandesa de Protección de Datos dijo que la ley de privacidad del país se basa en el principio de que «las personas siempre deben tener una idea clara de lo que es «Se está haciendo con sus datos personales». TikTok, que tiene aproximadamente 3,5 millones de usuarios en los Países Bajos, ha recurrido la multa. En un comunicado, la plataforma dijo que su política de privacidad y una «versión más corta y accesible para nuestros «Los usuarios más jóvenes» estaban disponibles en holandés desde julio de 2020. «La Autoridad Holandesa de Protección de Datos había aceptado esto para resolver el problema», dijo TikTok. Agregó que realizó otros cambios recientes para salvaguardar la privacidad de los niños, incluido permitir solo el acceso directo mensajería para usuarios mayores de 16 años.»[TikTok] es una de las aplicaciones más populares en este momento. También es muy divertido hacer vídeos juntos y ver lo que otros hacen», afirmó la vicepresidenta de la autoridad holandesa, Monique Verdier. «Pero también hay personas con malas intenciones en TikTok, que utilizan las imágenes para difundirlas de forma no deseada, intimidarlas o captarlas; señuelos digitales para niños.»»Nos complace que los padres ahora puedan administrar la configuración de privacidad de la cuenta TikTok de sus hijos desde sus propios teléfonos. Sin embargo, pedimos a los padres que también estén en contacto con sus hijos sobre lo que hacen en línea», añadió Verdier. TikTok ha sido objeto de numerosas investigaciones por parte de reguladores de todo el mundo en relación con el uso de datos personales. En mayo, la Comisión Europea tomó medidas contra TikTok, acusándola de utilizar publicidad encubierta y dirigida a niños en varios estados miembros. El mes pasado, el grupo de consumidores holandés Consumentenbond también dijo que iba a presentar una demanda de 1.500 millones de euros contra la aplicación por lo que alega es una recopilación ilegal de datos personales. de los usuarios.
Source link
Google realiza revisiones de las aplicaciones enviadas a Play Store para garantizar que cumplan con las políticas de Google y no contengan código malicioso. Desafortunadamente, como hemos visto en el pasado, algunas aplicaciones pasan desapercibidas, lo que significa que cuando se descubren, puede que sea demasiado tarde. La buena noticia es que desde entonces Google ha anunciado una nueva iniciativa de Play Store que facilitará a los usuarios descubrir aplicaciones seguras. Esto se hará a través de una nueva insignia de “Revisión de seguridad independiente” para ciertas aplicaciones que cumplan con los estándares de seguridad y privacidad establecidos por la industria. Las aplicaciones que tienen esta insignia significa que han sido revisadas por MASA (Evaluación de seguridad de aplicaciones móviles) creada por App Defense Alliance (ADA) el año pasado. Según Google: “Esto indica a los usuarios que un tercero independiente ha validado que los desarrolladores diseñaron sus aplicaciones para cumplir con las mejores prácticas mínimas de privacidad y seguridad móvil de la industria y que los desarrolladores están haciendo un esfuerzo adicional para identificar y mitigar las vulnerabilidades. Esto, a su vez, dificulta que los atacantes lleguen a los dispositivos de los usuarios y mejora la calidad de las aplicaciones en todo el ecosistema”. Google señala que el hecho de que una aplicación tenga esta insignia no significa que esté libre de vulnerabilidades. Esto sería casi imposible porque los desarrolladores no pueden anticipar todos los escenarios, pero al menos los usuarios ahora podrán identificar fácilmente las aplicaciones cuyo desarrollador haya priorizado las prácticas de seguridad y privacidad. Fuente: Google
Este artículo patrocinado fue presentado por la Escuela de Ingeniería Tandon de la Universidad de Nueva York. En nuestra era digital, donde la información fluye sin problemas a través de la vasta red de Internet, no se puede subestimar la importancia de los datos cifrados. A medida que compartimos, comunicamos y almacenamos una cantidad cada vez mayor de información confidencial en línea, la necesidad de protegerla de miradas indiscretas y actores maliciosos se vuelve primordial. El cifrado actúa como guardián digital, colocando nuestros datos en una caja de seguridad de algoritmos que solo aquellos con la clave adecuada pueden desbloquear. Ya sean mensajes personales, datos de salud, transacciones financieras o comunicaciones comerciales confidenciales, el cifrado desempeña un papel fundamental en el mantenimiento de la privacidad y Garantizar la integridad de nuestras interacciones digitales. Normalmente, el cifrado de datos protege los datos en tránsito: se bloquean en un “contenedor” cifrado para su tránsito a través de redes potencialmente no seguras y luego la otra parte los desbloquea en el otro extremo para su análisis. Pero la subcontratación a un tercero es intrínsecamente insegura. Brandon Reagen, profesor asistente de Ciencias e Ingeniería Informática e Ingeniería Eléctrica e Informática en la Escuela de Ingeniería Tandon de la Universidad de Nueva York. Pero ¿qué pasaría si el cifrado no existiera sólo en tránsito y ¿Se sienta desprotegido en cualquiera de los extremos de la transmisión? ¿Qué pasaría si fuera posible hacer todo el trabajo de su computadora, desde aplicaciones básicas hasta algoritmos complicados, completamente encriptado, de principio a fin? Esa es la tarea que está asumiendo Brandon Reagen, profesor asistente de Ciencias de la Computación e Ingeniería y Electricidad e Informática. Ingeniería en la Escuela de Ingeniería Tandon de la Universidad de Nueva York. Reagen, que también es miembro del Centro de Ciberseguridad de la Universidad de Nueva York, centra su investigación en el diseño de aceleradores de hardware especializados para aplicaciones que incluyen la computación que preserva la privacidad. Y ahora, está demostrando que el futuro de la informática puede estar orientado hacia la privacidad y, al mismo tiempo, lograr enormes avances en el procesamiento de información y el diseño de hardware. Cifrado integral En un mundo donde las amenazas cibernéticas están en constante evolución y las filtraciones de datos son una preocupación constante, los datos cifrados actúa como un escudo contra el acceso no autorizado, el robo de identidad y otros delitos cibernéticos. Proporciona a personas, empresas y organizaciones una base segura sobre la cual pueden generar confianza en el ámbito digital. El objetivo de los investigadores de ciberseguridad es proteger sus datos de todo tipo de malos actores: ciberdelincuentes, empresas ávidas de datos, y gobiernos autoritarios. Y Reagen cree que la informática cifrada podría ser la respuesta. «Este tipo de cifrado puede brindarle tres cosas principales: seguridad mejorada, confidencialidad total y, a veces, control sobre cómo se utilizan sus datos», dice Reagen. “Es un nivel de privacidad totalmente nuevo”. “Mi objetivo es desarrollar formas de ejecutar aplicaciones costosas, por ejemplo, redes neuronales masivas, de manera rentable y eficiente, en cualquier lugar, desde servidores masivos hasta teléfonos inteligentes” —Brandon Reagen, NYU TandonFully homomorphic El cifrado (FHE), un tipo de cálculo que preserva la privacidad, ofrece una solución a este desafío. FHE permite el cálculo de datos cifrados, o texto cifrado, para mantener los datos protegidos en todo momento. Los beneficios de FHE son significativos, desde permitir el uso de redes no confiables hasta mejorar la privacidad de los datos. FHE es una técnica criptográfica avanzada, ampliamente considerada el «santo grial del cifrado», que permite a los usuarios procesar datos cifrados mientras los datos o los modelos permanecen cifrados, preservando la privacidad de los datos durante todo el proceso de cálculo de los datos, no solo durante el tránsito. Se han desarrollado soluciones FHE, pero ejecutar FHE en software en hardware de procesamiento estándar sigue siendo insostenible para aplicaciones prácticas de seguridad de datos debido a la enorme sobrecarga de procesamiento. Reagen y sus colegas han estado trabajando recientemente en un proyecto financiado por DARPA llamado programa de Protección de Datos en Entornos Virtuales (DPRIVE), que busca acelerar el cálculo FHE a niveles más utilizables. Específicamente, el programa busca desarrollar enfoques novedosos para el movimiento de datos. y gestión, procesamiento paralelo, unidades funcionales personalizadas, tecnología de compilación y métodos de verificación formales que garantizan que el diseño de la implementación de FHE sea eficaz y preciso, al tiempo que reducen drásticamente la penalización de rendimiento incurrida por los cálculos de FHE. El acelerador objetivo debería reducir la sobrecarga del tiempo de ejecución computacional en muchos órdenes de magnitud en comparación con los cálculos FHE actuales basados en software en CPU convencionales, y acelerar los cálculos FHE dentro de un orden de magnitud del rendimiento actual en datos no cifrados. El hardware promete privacidad, mientras que FHE tiene Aunque se ha demostrado que es posible, los investigadores todavía están desarrollando rápidamente el hardware necesario para que sea práctico. Reagen y su equipo lo están diseñando desde cero, incluyendo nuevos chips, rutas de datos, jerarquías de memoria y pilas de software para que todo funcione en conjunto. El equipo fue el primero en demostrar que los niveles extremos de aceleración necesarios para que la HE fuera factible eran posible. Y a principios del próximo año, comenzarán a fabricar sus prototipos para continuar con sus pruebas de campo. Reagen, quien obtuvo un doctorado en ciencias de la computación de Harvard en 2018 y una licenciatura en ingeniería de sistemas informáticos y matemáticas aplicadas de la Universidad de Massachusetts, Amherst, en 2012, se centró en la creación de aceleradores de hardware especializados para aplicaciones como el aprendizaje profundo. Estos aceleradores mejoran el hardware especializado que puede ser mucho más eficiente que las plataformas de propósito general como las CPU. Habilitar aceleradores requiere cambios en toda la pila informática y, para lograr este cambio, ha realizado varias contribuciones para reducir la barrera del uso de aceleradores como construcciones arquitectónicas generales, incluida la evaluación comparativa, la infraestructura de simulación y el diseño de sistema en un chip (SoC). «Mi objetivo es desarrollar formas de ejecutar aplicaciones costosas, por ejemplo, redes neuronales masivas, de manera rentable y eficiente, en cualquier lugar, desde servidores masivos hasta teléfonos inteligentes», dice. Antes de llegar a NYU Tandon, Reagen fue un ex científico investigador en Equipo de investigación de infraestructura de inteligencia artificial de Facebook, donde se involucró profundamente en el estudio de la privacidad. Esta combinación de una profunda experiencia en hardware informático de vanguardia y un compromiso con la seguridad digital lo convirtió en el candidato perfecto para NYU Tandon y el Centro de Ciberseguridad de NYU, que ha estado a la vanguardia de la investigación en ciberseguridad desde sus inicios. Los grandes problemas que tenemos en el mundo ahora mismo giran en torno a los datos. Consideremos la salud global derivada de la COVID: si tuviéramos mejores formas de computar el análisis de datos de salud global y compartir información sin exponer datos privados, podríamos haber podido responder a la crisis de manera más efectiva y más rápida” —Brandon Reagen, NYU TandonFor Reagen, Este es un momento emocionante en la historia de la computación que preserva la privacidad, un campo que tendrá enormes implicaciones para el futuro de los datos y la computación. “Soy optimista, creo que esto podría tener un impacto tan grande como el propio Internet”. dice Reagen. “Y la razón es que, si piensas en muchos de los grandes problemas que tenemos en el mundo en este momento, muchos de ellos giran en torno a los datos. Consideremos la salud global. Recién estamos saliendo de la COVID, y si tuviéramos mejores formas de computar el análisis de datos de salud globales y compartir información sin exponer datos privados, podríamos haber podido responder a la crisis de manera más efectiva y rápida. Si tuviéramos mejores formas de compartir datos sobre el cambio climático de todo el mundo, sin exponer lo que cada país, estado o ciudad estaba emitiendo en realidad, se podrían imaginar mejores formas de gestionar y combatir el cambio climático global. Estos problemas son, en gran parte, problemas de datos, y este tipo de software puede ayudarnos a resolverlos”. Artículos de su sitio Artículos relacionados en la Web
Source link