Todo lo que necesitas saber sobre tecnología

Etiqueta: Privacidad de datos Página 1 de 2

Cambie al nuevo Fairphone (Génesis 6)

Cambie al nuevo Fairphone (Génesis 6)

A principios de este año, cuando lanzamos nuestra nueva identidad de marca, dije algo simple: «No solo estamos cambiando cómo nos vemos. Estamos mostrando en quién nos hemos convertido». Lo dije en serio entonces. Y hoy, con el lanzamiento de Fairphone (Gen. 6), puedo mostrarle exactamente cómo se ve, y por qué importa. Esto es más que un nuevo producto. Es el momento en que todo lo que hemos estado construyendo se enfoca. He estado con Fairphone desde el lanzamiento de Fairphone 2. En aquel entonces, estábamos desaliñados, idealistas y enfocados en una pregunta: ¿se puede hacer un teléfono inteligente de manera diferente? Cómo funciona: cómo está hecho, por qué está hecho y qué representa. Con Fairphone, hemos construido nuestra respuesta más clara hasta el momento. Es la versión más refinada de todo lo que creemos, y todo lo que hemos aprendido. Puedes verlo en el diseño, sentirlo en los materiales, escucharlo en la voz que lo rodea. No hay compromisos en la experiencia, la longevidad o el impacto. Porque para nosotros, la innovación no significa agregar más, significa agregar intención. No persiguiendo tendencias. No agregar características por el bien. Solo diseñando para lo que la gente realmente necesita. Y lo que hemos escuchado, una y otra vez, de nuestra comunidad es esto: quieren que sus teléfonos ocupen menos espacio. En sus bolsillos. Y en sus cabezas. Entonces hicimos esa idea física. Y aquí es donde «Cambiar a Fairphone» se vuelve literal en más de un sentido. Pulse el interruptor de lima y su teléfono se transforma. Lo llamamos momentos de Fairphone. Desde el poder completo de Android 15 hasta un espacio más simple e intencional. No hay alimentos. Sin ruido. Solo lo esencial. Este no es solo otro «modo de enfoque». Es un cambio completo, en cómo se comporta su teléfono y cómo te hace sentir. Porque la presencia no debe ser enterrada bajo opciones y menús. Debería estar ahí. Un interruptor. Esto se aplica a todas las cosas Fairphone, por cierto. Estamos más concentrados. Más consistente. Más seguro de cómo aparecemos en el mundo. No hemos mudado de nuestra misión. Lo hemos incrustado en cada detalle. Y con el Fairphone, puede sentirlo, en la precisión, la moderación, la claridad. No solo en el teléfono en sí, sino en todo lo que lo rodea. La tecnología sostenible no necesita anunciarse. Solo necesita funcionar, maravillosamente, de manera confiable y con cuidado detrás de todas las opciones. Ese es el cambio real. No estamos aquí para ser «el más justo» en una industria rota. Estamos aquí para mostrar lo que es posible cuando los valores conducen, desde adentro hacia afuera. Entonces, si has estado observando desde el costado, preguntándote si este era el momento para unirte a nosotros, lo es. Y si has estado con nosotros desde el principio, este momento también te pertenece. Porque este es el que finalmente se siente de manera inequívoca, plenamente, como nosotros. Este es el Fairphone. No puedo esperar a ver qué haces con él. Fairphone (Gen. 6) ya está disponible para la venta. Haga clic aquí para comprar ahora.

The Fairphone (Gen. 6): Conseguir con el último modelo de Fairphone

The Fairphone (Gen. 6): Conseguir con el último modelo de Fairphone

Fairphone (Gen. 6) es el teléfono inteligente más avanzado que hemos hecho. Diseñado para que usted sea realmente poseer, por dentro y por fuera, durante el mayor tiempo posible. Pero, igual de importante, es lo más consciente: consciente de cómo lo usas. Consciente de tu tiempo. Las mejores especificaciones en su clase para el mejor rendimiento de su clase Si queremos que las personas mantengan sus teléfonos durante más tiempo, sus teléfonos deben mantenerse relevantes. Así que le dimos a este todo lo que necesita hacer exactamente eso. Un procesador Snapdragon® 7S Gen 3 de Qualcomm que es rápido, potente y eficiente en energía de 120 Hz, una pantalla OLED LTPO LTPO: nítida, fluida y hermosa para mirar 8 GB DDR5 RAM con 256 GB de almacenamiento interno que se puede expandir hasta 2 TB es rápido y suave, con cero alboroto, cero retraso. El tipo de rendimiento que simplemente funciona, ya sea saltando entre aplicaciones, editando fotos o pasando por un día completo de acción con una sola carga. No se trata de overclocking o números de aceleración de titulares. Se trata de construir un dispositivo que pueda manejar hoy, y aún así se siente a partir de ahora. La batería de larga duración que pasa casi dos días la batería de iones de litio de 4415 mAh también es más eficiente, yendo casi dos días completos con una sola carga. Ahora ese es un teléfono con una larga duración de la batería. Es más denso en energía y más rápido de cargar, alcanzando hasta un 50% en solo 25 minutos. Y sí, todavía reemplazable. En menos de cinco minutos. Hablemos del software Fairphone: Limpie Android 15 con cero bloatware en el frente del software, el Fairphone (Gen. 6) viene con Android 15 fuera de la caja, con Google Gemini, el asistente de IA de Google. Diseñado para sobrealimentar su creatividad y productividad, Google Gemini puede ayudarlo con una amplia variedad de tareas, desde la escritura, la generación de imágenes, la planificación y más. También tiene la opción de apagarlo si no lo necesita. Reconocemos que en la actualidad, la privacidad de los datos es una preocupación legítima. Para nuestros clientes más con mentalidad de privacidad, también ofreceremos el Fairphone con Murena’s /E /OS. Se trata de elección. Mantenga lo que necesita. Saca lo que no tienes. La cámara Fairphone (Gen. 6): obtenga la toma perfecta cada vez que nos enfocamos en hacer que la configuración de la cámara sea confiable, versátil y poderosa donde cuenta. Estás buscando una cámara principal de 50 megapíxeles con un sensor Sony Lytia 700C Una lente ultra ancha de 13 megapíxeles para la imagen más grande, una cámara frontal de 32 megapíxeles con un sensor Samsung KD1, la interfaz de usuario es limpia, intuitiva y fácil de usar: disparar en HDR; ir 4k; Obtenga realmente cinemato con tomas de cámara súper lenta a 240 fps. El sensor principal de la cámara viene con una apertura más grande para dejar entrar más luz, lo que significa que las tomas de poca luz son más brillantes, más dinámicas, y con un poco de ayuda del procesamiento inteligente de IA, estás viendo fotos que siempre estallan. Y si realmente desea entrar en él, cambie al modo Pro y tome imágenes RAW. Las imágenes son nítidas. Los colores son ciertos. No importa si estás disparando sobre la mosca o si te tomas tu tiempo para tomar esa toma perfecta: la cámara hará el trabajo pesado. El 20 de junio de 2025, las nuevas pautas de la UE sobre etiquetas de energía y requisitos de diseño ecológico para teléfonos inteligentes y tabletas entraron en vigencia oficialmente. Esto es algo por lo que siempre hemos estado presionando en Fairphone, porque hemos estado diseñando nuestros productos con el impacto en mente desde el primer momento. El New Fairphone (Gen. 6) no es diferente, puntuación de las mejores calificaciones de este nuevo sistema con un perfecto A. Fairphone Gen. 6: Modular, duradero y duradero El Fairphone (Gen. 6) está construido para durar en todos los sentidos. Es duro y duradero, hecho con Gorilla Gorilla Gorilla 7i resistente a los arañazos, y probada por una altura de 1.8 metros. Es resistente a la intemperie con una calificación IP55 y viene con una garantía de cinco años y soporte de software hasta 2033. Eso es al menos ocho años de actualizaciones, con siete actualizaciones de Android incluidas. Además de esto, la disponibilidad de repuestos se garantiza hasta 2033 (al menos). Y luego está nuestro diseño modular extremadamente fácil de mantener: la batería, la pantalla, el altavoz, las cámaras son reemplazables. Esto se espera de nosotros por ahora. Pero hemos tomado modularidad aún más esta vez. No solo modular para la reparación, sino modular para la personalización. ¿Quieres un titular de la tarjeta? Un bucle de dedo? ¿Un cordón? No necesita un estuche voluminoso o accesorios endeble. Estos accesorios atornillan directamente. Son parte del teléfono: sólidos, sin costuras, diseñados para la vida real. Esta es la modularidad hecha con delicadeza. La misma filosofía, pero ahora con mejor ingeniería, tolerancias más estrictas, más materiales justos que nunca, y un factor de forma que se siente … correcto. Es algo en lo que trabajamos muy duro con esta generación, haciéndolo más pequeño, más compacto y más ligero en la mano. Nuestro nuevo Fairphone está diseñado para ocupar menos espacio en su vida, física y mentalmente. Lo que nos lleva a … Momentos de Fairphone bienvenidos a una versión más simple e intencional de su teléfono inteligente. En un mundo que nunca se detiene, esto te da la capacidad de elegir cuándo sintonizar y cuándo sintonizar. En lugar de cargar alrededor de un segundo dispositivo, experimente dos teléfonos en uno: la potencia completa de Android 15 cuando lo necesite. Y un espacio digital más presente e intencional … cuando no lo haces. Ya sea que esté profundamente en el trabajo, pasar tiempo con sus seres queridos, o simplemente necesite una desintoxicación digital, los momentos de Fairphone lo ayudan a concentrarse en lo que importa, y nada más. No es solo una característica. Es una mentalidad. Este es el Fairphone antes de concluir, detengamos algo más: un cambio pequeño pero significativo. Es posible que haya notado que lo estamos llamando Fairphone. No Fairphone 6. No Fairphone X. Solo: el Fairphone. Sí, es técnicamente la sexta generación. Y sí, la etiqueta de generación sigue ahí, para mayor claridad. Pero este cambio en el nombre marca algo más intencional. Es un teléfono diseñado para soportar. Un teléfono que está construido para durar. No uno que en silencio se vuelva obsoleto en el momento en que llegue el siguiente número. Queríamos el nombre para reflejar eso. Un teléfono. Una misión. Construido para durar. Obtenga más información sobre el New Fairphone (Gen. 6) haciendo clic aquí.

Obtenga un 20 % de descuento adicional en toda una vida de potente protección VPN hasta el 4/7

Obtenga un 20 % de descuento adicional en toda una vida de potente protección VPN hasta el 4/7

TL;DR: Proteja los datos y la privacidad de su empresa con una suscripción de por vida a OysterVPN. Actualmente está disponible para nuevos usuarios por el mejor precio en la web de solo $32 con el código de cupón SECURE20 hasta el 7 de abril. Hay tres razones importantes para que las empresas utilicen una VPN: mantener sus datos de trabajo a salvo de los piratas informáticos, proteger su privacidad preservando el anonimato en línea y consumiendo contenido inaccesible dondequiera que esté. Sin embargo, no todas las VPN se crean de la misma manera y algunas pueden resultar bastante caras. Afortunadamente, actualmente hay disponible una suscripción de por vida a OysterVPN para nuevos usuarios al mejor precio en la web de solo $32. Hasta el 7 de abril, use el código de cupón SECURE20 al finalizar la compra para desbloquear un 20% de descuento adicional sobre el precio indicado de $39,99. Obtendrá acceso a más de 182 servidores repartidos en más de 22 países, lo cual es excelente para mantenerse conectado durante los viajes de negocios. Con servidores de streaming dedicados, podrás disfrutar de tu contenido favorito dondequiera que vayas, sin retrasos ni almacenamiento en búfer. Lo mejor de todo es que obtienes datos ilimitados en hasta cinco conexiones a la vez. Funciones de OysterVPN Naturalmente, la seguridad es una prioridad para su negocio, por lo que le alegrará saber que el servicio de OysterVPN incluye cifrado de 256 bits, además de una estricta política de cero registros, desconexión automática y túnel dividido. Elija entre los protocolos VPN más seguros, como IKEv2, OpenVPN, PPTP y L2TP/IPsec. Lo mejor de todo es que se bloqueará activamente la apertura de dominios maliciosos, lo que evita posibles ataques cibernéticos. Disfrutará de la comodidad de un bloqueador de anuncios extra potente que mantiene alejados los molestos anuncios y ventanas emergentes. El cifrado de OysterVPN también reducirá el riesgo de que el ISP limite su acceso porque su actividad web estará oculta. Un firewall NAT también agregará protección adicional contra el tráfico entrante malicioso. También obtiene soporte 24 horas al día, 7 días a la semana e incluso una garantía de devolución de dinero de 30 días. Es fácil ver por qué OysterVPN tiene una calificación de 4,2 estrellas sobre 5 en Trustpilot. Es de gran ayuda poder reunir todos los datos en un todo organizado. No querrás arriesgarte mientras viajas por negocios. Obtenga una suscripción de por vida a OysterVPN mientras esté disponible para nuevos usuarios por el mejor precio en la web de solo $ 32 con el código de cupón SECURE20 hasta el 7 de abril a las 11:59 p.m. (hora del Pacífico). Los precios y la disponibilidad están sujetos a cambios.

Source link

El mito del modo incógnito se ha desmoronado por completo

El mito del modo incógnito se ha desmoronado por completo

Si todavía tiene la idea de que el “modo incógnito” de Google Chrome es una buena manera de proteger su privacidad en línea, ahora es un buen momento para detenerse. Google acordó eliminar “miles de millones de registros de datos” que la compañía recopiló mientras los usuarios navegaban por la web usando Modo incógnito, según documentos presentados el lunes en un tribunal federal de San Francisco. El acuerdo, que forma parte de un acuerdo en una demanda colectiva presentada en 2020, culmina años de revelaciones sobre las prácticas de Google que arrojan luz sobre la cantidad de datos que el gigante tecnológico extrae de sus usuarios, incluso cuando están en modo de navegación privada. Según los términos del acuerdo, Google debe actualizar aún más la “página de presentación” del modo Incógnito que aparece cada vez que abre una ventana de Chrome en modo Incógnito después de actualizarla previamente en enero. La página de presentación de Incognito indicará explícitamente que Google recopila datos de sitios web de terceros «independientemente de qué navegación o modo de navegador utilice» y estipulará que «los sitios y aplicaciones de terceros que integran nuestros servicios aún pueden compartir información con Google». entre otros cambios. Los detalles sobre la recopilación de datos de navegación privada de Google también deben aparecer en la política de privacidad de la empresa. Además, se eliminarán algunos de los datos que Google recopiló previamente sobre los usuarios de incógnito. Esto incluye “datos de navegación privada” que tienen “más de nueve meses” desde la fecha en que Google firmó la hoja de términos del acuerdo en diciembre pasado, así como datos de navegación privada recopilados a lo largo de diciembre de 2023. Ciertos documentos del caso que se refieren a Sin embargo, los métodos de recopilación de datos de Google permanecen sellados, lo que dificulta evaluar qué tan exhaustivo será el proceso de eliminación. El portavoz de Google, José Castaneda, dice en un comunicado que la compañía «está feliz de eliminar datos técnicos antiguos que nunca estuvieron asociados con un individuo y fueron nunca utilizado para ningún tipo de personalización”. Castaneda también señaló que la compañía ahora pagará “cero” dólares como parte del acuerdo después de haber enfrentado anteriormente una multa de 5 mil millones de dólares. Otras medidas que Google debe tomar incluirán continuar “bloqueando las cookies de terceros en el modo incógnito durante cinco años”, parcialmente redactar direcciones IP para evitar la reidentificación de datos de usuario anónimos y eliminar cierta información del encabezado que actualmente se puede usar para identificar a los usuarios con el modo incógnito activo. La parte de eliminación de datos del acuerdo de conciliación sigue a cambios preventivos en la recopilación de datos del modo incógnito de Google y las formas en que describe lo que hace el modo incógnito. Durante casi cuatro años, Google ha estado eliminando gradualmente las cookies de terceros, que la compañía dice que planea bloquear por completo para fines de 2024. Google también actualizó la “página de presentación” del modo incógnito de Chrome en enero con un lenguaje más débil para indicar que el uso de incógnito no es “privado”, sino simplemente “más privado” que no usarlo. La reparación del acuerdo es estrictamente “precautoria”, lo que significa que su propósito central es poner fin a las actividades de Google que los demandantes afirman que son ilegales. El acuerdo no descarta ninguna reclamación futura (The Wall Street Journal informa que los abogados de los demandantes habían presentado al menos 50 demandas de este tipo en California el lunes), aunque los demandantes señalan que la compensación monetaria en casos de privacidad es mucho más difícil de obtener. Lo importante, argumentan los abogados de los demandantes, es realizar cambios en Google ahora que proporcionen el mayor beneficio inmediato al mayor número de usuarios. Los críticos de Incognito, un elemento básico del navegador Chrome desde 2008, dicen que, en el mejor de los casos, las protecciones que ofrece fracasan frente a la sofisticada vigilancia comercial que afecta a la mayoría de los usuarios hoy en día; En el peor de los casos, dicen, la función da a las personas una falsa sensación de seguridad, ayudando a empresas como Google a monitorear pasivamente a millones de usuarios que han sido engañados haciéndoles creer que están navegando solos.

Source link

El cifrado iMessage de Apple pone sus prácticas de seguridad en la mira del Departamento de Justicia

El argumento es uno que algunos críticos de Apple han esgrimido durante años, como lo explica en detalle en un ensayo de enero Cory Doctorow, escritor de ciencia ficción, crítico tecnológico y coautor de Chokepoint Capitalism. «En el instante en que se agrega un usuario de Android a un chat o chat grupal, toda la conversación pasa a SMS, una pesadilla de privacidad insegura y trivialmente pirateada que debutó hace 38 años, el año en que Wayne’s World tuvo su primera proyección cinematográfica», escribe Doctorow. “La respuesta de Apple a esto es terriblemente hilarante. La posición de la compañía es que si quieres tener seguridad real en tus comunicaciones, debes comprar iPhones a tus amigos”. En una declaración a WIRED, Apple dice que diseña sus productos para “funcionar juntos sin problemas, proteger la privacidad y seguridad de las personas, y crear una experiencia mágica para nuestros usuarios”, y agrega que la demanda del Departamento de Justicia “amenaza quiénes somos y los principios que distinguen a los productos Apple” en el mercado. La compañía también dice que no ha lanzado una versión de iMessage para Android porque no podía garantizar que terceros la implementarían de manera que cumpliera con los estándares de la compañía. “Si tiene éxito, [the lawsuit] obstaculizaría nuestra capacidad de crear el tipo de tecnología que la gente espera de Apple, donde el hardware, el software y los servicios se cruzan”, continúa el comunicado. “También sentaría un precedente peligroso, al facultar al gobierno para tomar mano dura en el diseño de la tecnología de las personas. Creemos que esta demanda está equivocada en cuanto a los hechos y la ley, y nos defenderemos enérgicamente contra ella”. De hecho, Apple no sólo se ha negado a crear clientes de iMessage para Android u otros dispositivos que no sean de Apple, sino que ha luchado activamente contra aquellos que tener. El año pasado, se lanzó un servicio llamado Beeper con la promesa de llevar iMessage a los usuarios de Android. Apple respondió modificando su servicio iMessage para romper la funcionalidad de Beeper, y la startup lo abandonó en diciembre. Apple argumentó en ese caso que Beeper había dañado la seguridad de los usuarios; de hecho, comprometió el cifrado de extremo a extremo de iMessage al descifrarlo y luego volvió a cifrar los mensajes en un servidor de Beeper, aunque Beeper había prometido cambiar eso en futuras actualizaciones. El cofundador de Beeper, Eric Migicovsky, argumentó que la dura medida de Apple de reducir los mensajes de texto de Apple a Android a mensajes de texto tradicionales no era una alternativa más segura. “Es un poco loco que estemos ahora en 2024 y todavía no haya una solución fácil y cifrada. , de alta calidad para algo tan simple como un mensaje de texto entre un iPhone y un Android”, dijo Migicovsky a WIRED en enero. «Creo que Apple reaccionó de una manera realmente incómoda y extraña, argumentando que Beeper Mini amenazaba la seguridad y privacidad de los usuarios de iMessage, cuando en realidad, la verdad es exactamente lo contrario». Incluso cuando Apple ha enfrentado acusaciones de acaparar las propiedades de seguridad de iMessage para En detrimento de los propietarios de teléfonos inteligentes en todo el mundo, no ha hecho más que seguir mejorando esas funciones: en febrero actualizó iMessage para utilizar nuevos algoritmos criptográficos diseñados para ser inmunes al descifrado de códigos cuánticos, y en octubre pasado añadió Contact Key Verification, una función diseñada para evitar la entrada de personas. -Ataques intermedios que falsifican los contactos previstos para interceptar mensajes. Quizás lo más importante es que se dice que adoptará el estándar RCS para permitir mejoras en la mensajería con los usuarios de Android, aunque la compañía no dijo si esas mejoras incluirían cifrado de extremo a extremo.

Source link

Google idea una forma de proteger a los usuarios del fraude financiero

Los delitos cibernéticos son bastante comunes y se están convirtiendo en una amenaza que debe detenerse. Según el Informe sobre el estado mundial de las estafas de 2023, el 78 por ciento de los usuarios de dispositivos móviles encuestados experimentaron al menos una estafa en el último año. Por este motivo, Google está haciendo todo lo posible para proteger a los usuarios de Android del fraude financiero. Para reforzar la seguridad, Google actualizó su aplicación de seguridad Google Play Protect para monitorear los permisos confidenciales de aplicaciones de terceros. Esta función ayudará a los usuarios a tener más control sobre la privacidad y seguridad de sus datos. Google lanzó una aplicación llamada «Google Play Protect» en 2017. Cuando los usuarios descargan e instalan aplicaciones de Google Play, Google Play Protect realizará comprobaciones de seguridad adicionales en segundo plano. Esto es para garantizar que no haya riesgos potenciales de seguridad en las aplicaciones relevantes. Esto también garantiza que la aplicación no requiera permisos adicionales. Google emitió recientemente un comunicado de prensa anunciando que fortalecerá aún más las capacidades de seguridad de esta aplicación. La optimización optimiza principalmente el proyecto de «supervisión de permisos» contra el «fraude financiero». En la actualidad, Google ha cooperado con la Agencia de Seguridad Cibernética (CSA) de Singapur y primero iniciará el piloto en Singapur. Luego lanzará gradualmente actualizaciones de aplicaciones relevantes en otros mercados. ¿Qué es Google Play Proteger? Google Play Protect es una función de seguridad integrada para dispositivos Android que ayuda a mantener su teléfono a salvo de aplicaciones maliciosas y otras amenazas a la seguridad. Analiza automáticamente su dispositivo en busca de amenazas potenciales, como aplicaciones y archivos dañinos, y brinda protección en tiempo real. Google Play Protect se actualiza constantemente para garantizar que pueda detectar las últimas amenazas y mantener su dispositivo seguro. Es parte de Google Play Store, que es la tienda oficial de aplicaciones para dispositivos Android, y funciona en segundo plano para mantener su dispositivo y sus datos seguros. Además de Google Play Protect, Google Play Store también ofrece otras funciones y controles de seguridad para garantizar una experiencia en línea segura para sus usuarios. Google Play Protect es un componente importante del ecosistema de Google Play, que es un mercado digital para aplicaciones móviles, juegos y otros contenidos digitales. Está diseñado para proporcionar una plataforma segura y confiable para que los usuarios descubran y descarguen una amplia variedad de aplicaciones y contenido digital para sus dispositivos Android. Google Play Store es conocida por su extensa colección de aplicaciones y juegos, y también ofrece libros, revistas y películas digitales. Como parte de su compromiso con la seguridad, Google Play Store invierte en apoyar a los desarrolladores e implementar mejoras en la plataforma para crear una experiencia segura y agradable para sus usuarios. ¿Qué son los permisos confidenciales? Los permisos confidenciales son permisos que permiten que las aplicaciones accedan a datos confidenciales en el dispositivo de un usuario. Dichos datos incluyen contactos, ubicación y cámara. Las aplicaciones maliciosas pueden abusar de estos permisos para robar datos del usuario o realizar otras actividades maliciosas. Según una publicación del blog de seguridad de Google, Google Protect protegerá a los usuarios para que no otorguen permisos confidenciales. Google dijo que después de que los usuarios de Singapur instalen la aplicación Google Play Protect, Google Play Protect monitoreará las tendencias de permisos de aplicaciones de terceros en el sistema en segundo plano. La aplicación analizará y bloqueará automáticamente las aplicaciones que exijan permisos confidenciales y enviará un informe al usuario. Noticias de la semana de Gizchina Los «permisos confidenciales» relevantes incluyen API como recibir mensajes de texto (RECEIVE_SMS), leer mensajes de texto (READ_SMS), leer/ignorar notificaciones de otras aplicaciones (BIND_Notifications), etc. Google mencionó que muchos piratas informáticos usan estos permisos confidenciales para realizar fraude financiero. Google dijo: “Mantener a los usuarios seguros en un ecosistema abierto requiere defensas sofisticadas. Es por eso que Android proporciona múltiples capas de protección, impulsadas por IA y respaldadas por un gran equipo dedicado de seguridad y privacidad, para ayudar a proteger a nuestros usuarios de amenazas a la seguridad y al mismo tiempo hacer que la plataforma sea más resistente. También brindamos a nuestros usuarios numerosas protecciones integradas como Google Play Protect, el servicio de detección de amenazas más implementado del mundo, que analiza activamente más de 125 mil millones de aplicaciones en dispositivos todos los días para monitorear comportamientos dañinos. Dicho esto, nuestros datos muestran que una cantidad desproporcionada de malos actores aprovechan API y canales de distribución seleccionados en este ecosistema abierto”. ¿Cómo funciona la actualización? El Google Play Protect actualizado ahora monitoreará los permisos confidenciales de aplicaciones de terceros. Si una aplicación solicita un permiso confidencial, Google Play Protect mostrará una notificación al usuario. Primero bloqueará la solicitud y luego informará al usuario de la solicitud de permiso. También le dará al usuario la opción de permitir o denegar el permiso. ¿Porque es esto importante? Esta actualización es importante porque brinda a los usuarios más control sobre la privacidad y seguridad de sus datos. Al monitorear los permisos confidenciales, los usuarios pueden asegurarse de que no se acceda a sus datos ni se los utilice sin su consentimiento. Esto es especialmente importante dado el creciente número de filtraciones de datos y violaciones de la privacidad. Palabras finales El panorama cambiante de los delitos cibernéticos y las estafas subraya la necesidad crítica de medidas de seguridad sólidas. Estas medidas deberían salvaguardar los datos y la privacidad de los usuarios. Las medidas proactivas de Google para mejorar las funciones de seguridad de su aplicación Google Play Protect representan un paso significativo. Podría mitigar el fraude financiero y proteger a los usuarios de Android en todo el mundo. Al monitorear los permisos confidenciales, se otorga a los usuarios un mayor control sobre sus datos. Por ello, la compañía refuerza su compromiso con el fomento de un ecosistema digital seguro. La colaboración con la Agencia de Seguridad Cibernética de Singapur ejemplifica el enfoque colaborativo de Google. De esta manera, la empresa espera combatir las amenazas a la ciberseguridad a escala global. A medida que Google Play Protect se optimiza contra el fraude financiero, los usuarios pueden esperar medidas más proactivas. La empresa también utilizará un mecanismo de defensa vigilante contra posibles violaciones de seguridad. Este avance no sólo refuerza la resiliencia de la plataforma Android sino que también refleja la dedicación de Google hacia los usuarios. Está aprovechando la tecnología para mantener la confianza y la seguridad de los usuarios. A medida que el panorama digital continúa evolucionando, las empresas de tecnología deben priorizar la seguridad y privacidad del usuario. La iniciativa de Google subraya la importancia de medidas proactivas para abordar los desafíos emergentes de ciberseguridad y subraya la responsabilidad colectiva de las partes interesadas en salvaguardar el bienestar digital de los usuarios. Con la integración de funciones de seguridad mejoradas, los usuarios pueden navegar en el ámbito digital con mayor confianza, sabiendo que sus datos y su privacidad están protegidos contra amenazas en evolución. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

La IA podría estar leyendo tus mensajes de Slack y Teams usando tecnología de Aware

Fotos_insta | Stock | Getty Images Indique la referencia de George Orwell. Dependiendo de dónde trabaje, existe una gran posibilidad de que la inteligencia artificial esté analizando sus mensajes en Slack, Microsoft Teams, Zoom y otras aplicaciones populares. Grandes empleadores estadounidenses como Walmart, Delta Air Lines, T-Mobile , Chevron y Starbucks, así como marcas europeas como Nestlé y AstraZeneca, han recurrido a una startup de siete años, Aware, para monitorear las conversaciones entre sus bases, según la compañía. Jeff Schumann, cofundador y director ejecutivo de la startup con sede en Columbus, Ohio, dice que la IA ayuda a las empresas a «comprender el riesgo en sus comunicaciones», obteniendo una lectura del sentimiento de los empleados en tiempo real, en lugar de depender de una encuesta anual o dos veces al año. Según Schumann, con los datos del producto analítico de Aware, los clientes pueden ver cómo los empleados de un determinado grupo de edad o en una geografía particular están respondiendo a una nueva política corporativa o campaña de marketing. Las docenas de modelos de inteligencia artificial de Aware, creados para leer texto y procesar imágenes, también pueden identificar intimidación, acoso, discriminación, incumplimiento, pornografía, desnudez y otros comportamientos, dijo. La herramienta de análisis de Aware, la que monitorea el sentimiento y la toxicidad de los empleados, no Según Schumann, no tenemos la posibilidad de marcar los nombres de los empleados individuales. Pero su herramienta eDiscovery separada puede hacerlo, en caso de amenazas extremas u otros comportamientos de riesgo predeterminados por el cliente, agregó. CNBC no recibió una respuesta de Walmart, T-Mobile, Chevron, Starbucks o Nestlé con respecto a su uso de Consciente. Un representante de AstraZeneca dijo que la compañía utiliza el producto eDiscovery pero no utiliza análisis para monitorear el sentimiento o la toxicidad. Delta le dijo a CNBC que utiliza los análisis y eDiscovery de Aware para monitorear tendencias y sentimientos como una forma de recopilar comentarios de los empleados y otras partes interesadas, y para la retención de registros legales en su plataforma de redes sociales. No hace falta ser un entusiasta de las novelas distópicas para ver dónde todo podría salir muy mal. Jutta Williams, cofundadora de Humane Intelligence, una organización sin fines de lucro dedicada a la responsabilidad de la IA, dijo que la IA añade un aspecto nuevo y potencialmente problemático a los llamados programas de riesgo interno, que han existido durante años para evaluar cosas como el espionaje corporativo, especialmente dentro de las comunicaciones por correo electrónico. Hablando en términos generales sobre la inteligencia artificial de vigilancia de los empleados en lugar de la tecnología de Aware específicamente, Williams dijo a CNBC: «Mucho de esto se convierte en un crimen de pensamiento». Y añadió: «Esto es tratar a las personas como si fueran inventario de una manera que nunca había visto». La IA de vigilancia de los empleados es una pieza de rápido crecimiento pero de nicho de un mercado de IA más grande que se disparó el año pasado, tras el lanzamiento del chatbot ChatGPT de OpenAI en finales de 2022. La IA generativa se convirtió rápidamente en la frase de moda en las llamadas sobre ganancias corporativas, y alguna forma de tecnología está automatizando tareas en casi todas las industrias, desde servicios financieros e investigación biomédica hasta logística, viajes en línea y servicios públicos. Los ingresos de Aware han aumentado un 150% por año en promedio durante los últimos cinco años, dijo Schumann a CNBC, y su cliente típico tiene alrededor de 30.000 empleados. Los principales competidores incluyen Qualtrics, Relativity, Proofpoint, Smarsh y Netskope. Según los estándares de la industria, Aware se mantiene bastante eficiente. La compañía recaudó dinero por última vez en 2021, cuando recaudó 60 millones de dólares en una ronda liderada por Goldman Sachs Asset Management. Compárese eso con grandes empresas de modelos de lenguaje, o LLM, como OpenAI y Anthropic, que han recaudado miles de millones de dólares cada una, en gran parte de socios estratégicos. ‘Seguimiento de la toxicidad en tiempo real’ Schumann fundó la empresa en 2017 después de pasar casi ocho años trabajando en Colaboración empresarial en la compañía de seguros Nationwide. Antes de eso, fue empresario. Y Aware no es la primera empresa que fundó y que le hace pensar en Orwell. En 2005, Schumann fundó una empresa llamada BigBrotherLite.com. Según su perfil de LinkedIn, la empresa desarrolló un software que «mejoró la experiencia de visualización digital y móvil» de la serie de telerrealidad «Gran Hermano» de CBS. En la novela clásica de Orwell «1984», Gran Hermano era el líder de un estado totalitario en el que los ciudadanos estaban bajo vigilancia perpetua. «Construí un reproductor simple enfocado en una experiencia de consumo más limpia y fácil para que la gente vea el programa de televisión en su computadora, «, dijo Schumann en un correo electrónico. En Aware, está haciendo algo muy diferente. Cada año, la compañía publica un informe que agrega información sobre los miles de millones (en 2023, la cantidad fue de 6,5 mil millones) de mensajes enviados entre grandes empresas, tabulando el riesgo percibido. factores y puntuaciones de sentimiento en el lugar de trabajo. Schumann se refiere a los billones de mensajes enviados a través de plataformas de comunicación en el lugar de trabajo cada año como «el conjunto de datos no estructurados de más rápido crecimiento en el mundo». Al incluir otros tipos de contenido que se comparten, como imágenes y videos, la IA analítica de Aware analiza más de 100 millones de contenidos cada día. Al hacerlo, la tecnología crea un gráfico social de la empresa, observando qué equipos internamente hablan entre sí más que otros. «Siempre rastrea el sentimiento de los empleados en tiempo real y siempre rastrea la toxicidad en tiempo real», dijo Schumann sobre el análisis. herramienta. «Si usted fuera un banco que utiliza Aware y el sentimiento de la fuerza laboral se disparó en los últimos 20 minutos, es porque están hablando de algo positivo, colectivamente. La tecnología podría decirles lo que sea», confirmó Aware a CNBC. que utiliza datos de sus clientes empresariales para entrenar sus modelos de aprendizaje automático. El repositorio de datos de la compañía contiene alrededor de 6,5 mil millones de mensajes, lo que representa alrededor de 20 mil millones de interacciones individuales entre más de 3 millones de empleados únicos, dijo la compañía. Cuando un nuevo cliente se registra en la herramienta de análisis, los modelos de IA de Aware tardan unas dos semanas en entrenarse con los mensajes de los empleados y conocer los patrones de emoción y sentimiento dentro de la empresa para poder ver qué es normal y qué es anormal, dijo Schumann». No tendrá nombres de personas, para proteger la privacidad», dijo Schumann. Más bien, dijo, los clientes verán que «tal vez la fuerza laboral mayor de 40 años en esta parte de Estados Unidos esté viendo los cambios en [a] política muy negativamente debido al costo, pero todos los demás fuera de ese grupo de edad y ubicación lo ven de manera positiva porque los impacta de una manera diferente». Pero la herramienta eDiscovery de Aware funciona de manera diferente. Una empresa puede configurar el acceso basado en roles a los nombres de los empleados dependiendo de la categoría de «riesgo extremo» elegida por la empresa, que indica a la tecnología de Aware que extraiga el nombre de un individuo, en ciertos casos, para recursos humanos u otro representante de la empresa. «Algunos de los más comunes son violencia extrema, intimidación extrema, acoso, pero varía según la industria», dijo Schumann, y agregó que en los servicios financieros, se rastrearía la sospecha de uso de información privilegiada. Por ejemplo, un cliente puede especificar una política de «amenazas violentas», o cualquier otra categoría, utilizando la tecnología de Aware, dijo Schumann. y hacer que los modelos de IA monitoreen las infracciones en Slack, Microsoft Teams y Workplace by Meta. El cliente también podría combinar eso con indicadores basados ​​en reglas para ciertas frases, declaraciones y más. Si la IA encuentra algo que viola las políticas específicas de una empresa, podría proporcionar el nombre del empleado al representante designado del cliente. Este tipo de práctica se ha utilizado durante años en las comunicaciones por correo electrónico. Lo nuevo es el uso de la IA y su aplicación en plataformas de mensajería en el lugar de trabajo como Slack y Teams. Amba Kak, directora ejecutiva del AI Now Institute de la Universidad de Nueva York, se preocupa por el uso de la IA para ayudar a determinar qué se considera comportamiento de riesgo. «Tiene un efecto paralizador sobre lo que la gente dice en el lugar de trabajo», dijo Kak, añadiendo que la Comisión Federal de Comercio, el Departamento de Justicia y la Comisión de Igualdad de Oportunidades en el Empleo han expresado preocupaciones sobre el asunto, aunque no estaba hablando específicamente de la tecnología de Aware. «Se trata tanto de cuestiones de derechos de los trabajadores como de privacidad». Schumann dijo que aunque la herramienta eDiscovery de Aware permite a los equipos de investigaciones de seguridad o de recursos humanos utilizar IA para buscar en cantidades masivas de datos, hoy en día ya existe una «capacidad similar pero básica» en Slack, Teams y otras plataformas. «Una distinción clave aquí es que Aware y sus modelos de IA no toman decisiones», afirmó Schumann. «Nuestra IA simplemente hace que sea más fácil examinar este nuevo conjunto de datos para identificar riesgos potenciales o violaciones de políticas». Preocupaciones por la privacidad Incluso si los datos se agregan o se anonimizan, sugiere la investigación, es un concepto erróneo. Un estudio histórico sobre privacidad de datos que utilizó datos del censo estadounidense de 1990 mostró que el 87% de los estadounidenses podían identificarse únicamente mediante el código postal, la fecha de nacimiento y el sexo. Los clientes de Aware que utilizan su herramienta de análisis tienen el poder de agregar metadatos al seguimiento de mensajes, como la edad, ubicación, división, antigüedad o función laboral del empleado. «Lo que están diciendo se basa en una noción muy obsoleta y, yo diría, completamente desacreditada en este momento de que la anonimización o la agregación es como una panacea para resolver la preocupación por la privacidad», dijo Kak. Además, el tipo de modelo de IA Aware Los usos pueden ser efectivos para generar inferencias a partir de datos agregados, haciendo conjeturas precisas, por ejemplo, sobre identificadores personales basados ​​en el idioma, el contexto, los términos de jerga y más, según una investigación reciente. «Ninguna empresa está esencialmente en condiciones de hacer garantías amplias sobre la privacidad y seguridad de los LLM y este tipo de sistemas», dijo Kak. «No hay nadie que pueda decirte con seriedad que estos desafíos están resueltos». ¿Y qué pasa con los recursos de los empleados? Si se marca una interacción y un trabajador es disciplinado o despedido, es difícil para él ofrecer una defensa si no está al tanto de todos los datos involucrados, dijo Williams. «¿Cómo enfrenta a su acusador cuando sabemos que la explicabilidad de la IA ¿Todavía es inmaduro?» «Cuando el modelo señala una interacción», dijo Schumann, «proporciona un contexto completo sobre lo que sucedió y qué política desencadenó, brindando equipos de investigación la información que necesitan para decidir los próximos pasos de acuerdo con las políticas de la empresa y la ley.»MIRAR: La IA está ‘realmente en juego aquí’ con los recientes despidos tecnológicos

Source link

Las organizaciones australianas necesitan generar confianza con los consumidores a través de los datos y la inteligencia artificial

Los datos globales de Cisco destacan una tendencia preocupante: las organizaciones australianas están empezando a quedarse atrás en una “brecha de confianza” entre lo que los clientes esperan que hagan con los datos y la privacidad y lo que realmente está sucediendo. Los nuevos datos muestran que el 90% de las personas quieren que las organizaciones se transformen para gestionar adecuadamente los datos y los riesgos. Con un entorno regulatorio que se ha quedado atrás, para que las organizaciones australianas puedan lograrlo, tendrán que avanzar más rápido que el entorno regulatorio. Las empresas australianas deben tomarse en serio Según un importante estudio global reciente de Cisco, más del 90% de las personas cree que la IA generativa requiere nuevas técnicas para gestionar los datos y los riesgos (Figura A). Mientras tanto, al 69% le preocupa la posibilidad de que los derechos legales y de propiedad intelectual se vean comprometidos, y al 68% le preocupa el riesgo de divulgación al público o a los competidores. Figura A: Preocupaciones de la organización y los usuarios con la IA generativa. Imagen: Cisco Básicamente, si bien los clientes aprecian el valor que la IA puede aportarles en términos de personalización y niveles de servicio, también se sienten incómodos con las implicaciones para su privacidad si sus datos se utilizan como parte de los modelos de IA. PREMIUM: Las organizaciones australianas deberían considerar una política de ética de IA. Alrededor del 8% de los participantes en la encuesta de Cisco eran de Australia, aunque el estudio no desglosa las preocupaciones anteriores por territorio. Los australianos tienen más probabilidades de violar las políticas de seguridad de los datos a pesar de las preocupaciones sobre la privacidad de los datos. Otras investigaciones muestran que los australianos son particularmente sensibles a la forma en que las organizaciones utilizan sus datos. Según una investigación de Quantum Market Research y Porter Novelli, el 74% de los australianos están preocupados por el ciberdelito. Además, al 45% le preocupa que se robe su información financiera y al 28% le preocupan sus documentos de identidad, como pasaportes y licencias de conducir (Figura B). Figura B: Los australianos están más preocupados por los datos financieros que por cualquier otra información personal. Imagen: Porter Novelli y Quantum Market Research Sin embargo, los australianos también tienen el doble de probabilidades que el promedio mundial de violar las políticas de seguridad de datos en el trabajo. Como dijo el vicepresidente y analista de Gartner, Nader Henein, las organizaciones deberían estar profundamente preocupadas por esta violación de la confianza del cliente porque los clientes estarán felices de tomar sus billeteras y caminar. “El hecho es que los consumidores de hoy están más que felices de cruzar el camino hacia la competencia y, en algunos casos, pagar una prima por el mismo servicio, si es allí donde creen que sus datos y los de su familia están mejor cuidados. “, Dijo Henein. La regulación voluntaria en las organizaciones australianas no es buena para la privacidad de los datos. Parte del problema es que, en Australia, hacer lo correcto en torno a la privacidad de los datos y la IA es en gran medida voluntario. VER: En qué deben centrarse los líderes australianos de TI antes de las reformas de privacidad. “Desde una perspectiva regulatoria, la mayoría de las empresas australianas se centran en la divulgación y presentación de informes sobre infracciones, dados todos los incidentes de alto perfil de los últimos dos años. Pero cuando se trata de aspectos básicos de privacidad, existen pocos requisitos para las empresas en Australia. Los principales pilares de la privacidad, como la transparencia, los derechos de privacidad del consumidor y el consentimiento explícito, simplemente faltan”, afirmó Henein. Sólo aquellas organizaciones australianas que han hecho negocios en el extranjero y se han topado con regulaciones externas han necesitado mejorar; Henein señaló como ejemplos el RGPD y las leyes de privacidad de Nueva Zelanda. Otras organizaciones deberán hacer de la generación de confianza con sus clientes una prioridad interna. Más cobertura de Australia Generar confianza en el uso de datos Si bien el uso de datos en IA puede no estar regulado y ser voluntario en Australia, hay cinco cosas que el equipo de TI puede (y debe) defender en toda la organización: Transparencia sobre la recopilación y el uso de datos: Transparencia en torno a la recopilación de datos se puede lograr a través de políticas de privacidad, formularios de consentimiento y opciones de exclusión voluntaria claros y fáciles de entender. Responsabilidad con la gobernanza de datos: todos en la organización deben reconocer la importancia de la calidad e integridad de los datos en la recopilación, el procesamiento y el análisis de datos, y deben existir políticas para reforzar el comportamiento. Alta calidad y precisión de los datos: la recopilación y el uso de datos deben ser precisos, ya que la información errónea puede hacer que los modelos de IA no sean confiables y, posteriormente, eso puede socavar la confianza en la seguridad y la gestión de los datos. Detección y respuesta proactivas a incidentes: un plan de respuesta a incidentes inadecuado puede provocar daños a la reputación y los datos de la organización. Control del cliente sobre sus propios datos: todos los servicios y funciones que implican la recopilación de datos deben permitir al cliente acceder, administrar y eliminar sus datos en sus propios términos y cuando lo desee. Autorregulación ahora para prepararse para el futuro Actualmente, la ley de privacidad de datos, incluidos los datos recopilados y utilizados en modelos de IA, está regulada por antiguas regulaciones creadas antes de que se utilizaran los modelos de IA. Por lo tanto, la única regulación que aplican las empresas australianas es la autodeterminada. Sin embargo, como dijo Henein de Gartner, existe mucho consenso sobre el camino correcto a seguir para la gestión de datos cuando se utilizan de estas formas nuevas y transformadoras. VER: Las organizaciones australianas se centrarán en la ética de la recopilación y el uso de datos en 2024. “En febrero de 2023, se publicó el Informe de revisión de la Ley de Privacidad con muchas buenas recomendaciones destinadas a modernizar la protección de datos en Australia”, dijo Henein. “Siete meses después, en septiembre de 2023, el Gobierno Federal respondió. De las 116 propuestas del informe original, el gobierno respondió favorablemente a 106”. Por ahora, algunos ejecutivos y juntas directivas pueden resistirse a la idea de una regulación autoimpuesta, pero el beneficio de esto es que una organización que pueda demostrar que está tomando estas medidas se beneficiará de una mayor reputación entre los clientes y será vista como que toma en cuenta sus preocupaciones. en torno al uso de datos en serio. Mientras tanto, algunos dentro de la organización podrían estar preocupados de que imponer la autorregulación pueda impedir la innovación. Como dijo Henein en respuesta a eso: «¿habría retrasado la introducción de cinturones de seguridad, zonas de deformación y bolsas de aire por temor a que estos aspectos frenaran los avances en la industria automotriz?» Ahora es el momento de que los profesionales de TI se hagan cargo y comiencen a cerrar esa brecha de confianza.

Source link

La gobernanza de datos será un enfoque renovado para la TI australiana en 2024

En toda Australia, hasta la fecha gran parte de la atención se ha centrado en comprender el papel de la inteligencia artificial en cada sector y dar esos primeros pasos hacia su adopción. Fue un año de experimentación y exploración. Pero mientras que 2023 fue el año en el que la IA irrumpió en la conciencia generalizada, 2024 parece que será un año más reflexivo, con la regulación del gobierno australiano a medida que la presión de los consumidores obliga a las empresas y a los equipos de TI a dar un paso atrás y analizar adecuadamente los aspectos éticos. Implicaciones detrás de la adopción de la IA. Y para ello, habrá una mirada renovada a la forma en que los datos alimentan los modelos de IA y cómo los científicos que construyen los modelos recopilan y gestionan esos datos. Para que la IA continúe su trayectoria positiva, 2024 también debe ser el año en el que la gobernanza de datos alcance la velocidad de la innovación. Cómo ve CSIRO, la agencia líder de Australia, a la IA Australia está decidida a ser líder en el desarrollo de la IA. La agencia científica nacional, CSIRO, ha establecido un Centro Nacional de IA, que organizó el primer Mes de la IA del país del 15 de noviembre al 15 de diciembre de 2023. VER: El aumento continuo de la IA en 2024 requerirá que la TI australiana supere desafíos importantes. Una de las predicciones clave de la NAIC para la IA en 2024 es que “la IA responsable y la buena gobernanza ocuparán un lugar central”. Para lograrlo, NAIC recomienda que las organizaciones se centren en cuatro prioridades clave: Tener una mejor comprensión del papel que tienen los datos en la IA. Comprender las vulnerabilidades que la IA abre a los datos. Desarrollar mejores procesos sobre cómo se recopilan los datos. Desarrollar mejores formas de aprovechar los datos en los modelos. Como señaló Jade Haar, jefa de privacidad y ética de datos del Banco Nacional de Australia, en las predicciones de NAIC, es necesario que haya un equilibrio entre el deseo de construir modelos a partir de grandes lagos de datos que simplemente estén llenos de la mayor cantidad de datos posible y la gobernanza. valor y obligaciones éticas de recopilar sólo los datos que sean necesarios. «Si ChatGPT nos ha enseñado algo, es que lo que comúnmente se conoce como información ‘pública’ no es lo mismo que información ‘libre y abierta'», dijo Haar según citó NAIC. “Los compradores de soluciones de IA deben seguir preguntando sobre la procedencia y los derechos de los datos o simplemente aceptar lo desconocido. Estos últimos son menos atractivos para las entidades públicas o reguladas”. Por qué es una urgencia apremiante Este llamado a un enfoque renovado en la gobernanza de datos en el camino hacia la adopción de la IA es oportuno. Una de las consecuencias que tuvo la IA el año pasado es que, ahora, todos los sectores quieren utilizarla, pero pueden correr un gran riesgo al hacerlo sin darse cuenta. VER: La estrategia de seguridad cibernética de seis escudos de Australia podría depender de qué tan bien la nación gestione los vastos conjuntos de datos. Por ejemplo, en su propio artículo de predicciones para 2024, Australian Property Investor señaló: “La IA está impulsando una adquisición de datos aún mayor, procesando el flujo interminable de datos que se produce a medida que diseñamos, construimos, compramos, vendemos y vivimos en nuestros hogares… Los macrodatos también están impulsando la transformación de industrias que se han quedado rezagadas en la adopción de la digitalización, incluidos los ayuntamientos y el gobierno local, la construcción y la logística”. Más cobertura de Australia Mientras tanto, si bien las pequeñas y medianas empresas han tardado en adoptar la IA, de las que participan en el comercio electrónico, más del 40% de las PYMES están utilizando la IA de alguna manera. Como destaca un artículo de Forbes Australia, la IA se está impulsando como una forma para que estas empresas lleguen a la Generación Z y otros consumidores “emergentes”. Para estos sectores, combinar datos de clientes e inteligencia artificial les permite orientar mejor los esfuerzos de marketing y ventas a estos clientes. Lo preocupante es que la gobernanza de datos suele ser una preocupación secundaria. Las organizaciones australianas entienden que los datos son un riesgo. La profundidad y amplitud de las violaciones de datos que han ocurrido en los últimos años lo han dejado claro. También son conscientes de que el gobierno está realizando esfuerzos para aumentar la regulación en la gobernanza de datos como parte de su amplia estrategia de seguridad cibernética. Sin embargo, a pesar de esto, el Instituto de Gobernanza de Australia descubrió recientemente que casi el 60% de las organizaciones tienen juntas directivas que no comprenden los desafíos de la gobernanza de datos de la organización. Además, las tecnologías emergentes y la IA son dos de los tres mayores riesgos en torno a la gobernanza de datos, siendo el otro los ciberataques directos. La promesa de la IA es liderar las juntas directivas y otros altos ejecutivos para presionar a las organizaciones para que adopten la tecnología sin considerar primero los requisitos subyacentes de gobernanza de datos. VER: Australia ha estado adoptando la IA generativa mientras intenta anticiparse a los riesgos. «No podemos subestimar el papel de la gobernanza a medida que avanzamos hacia la creación y el uso seguro, responsable y ético de la IA y la protección de datos vitales», dijo en el informe la presidenta y presidenta del Instituto de Gobernanza de Australia, Pauline Vamos. El papel de la TI en la promoción de la gobernanza de datos La realidad es que para que los modelos y aplicaciones de IA tengan éxito, las organizaciones necesitan aprovechar en gran medida sus datos, ya sea recopilando vastos lagos de big data de manera indiscriminada o siendo más específicos en los datos que recopilan e incluyen. en modelos. De cualquier manera, esto abre los datos a nuevos niveles de riesgo y, actualmente, las juntas directivas y los ejecutivos no están necesariamente preparados para afrontar este desafío. Esto significa que recaerá en los equipos de TI defender la gobernanza de datos dentro de la organización. A medida que el entusiasmo por el desarrollo de la IA se enfríe en 2024, habrá un enfoque renovado en cómo las organizaciones manejan y gestionan los datos de forma étnica. Por razones tanto regulatorias como de reputación, los profesionales de TI tienen la oportunidad de demostrar liderazgo y proteger sus organizaciones al mismo tiempo que ofrecen los beneficios de TI.

Source link

Los usuarios de la UE podrán cancelar la asociación de Google Apps

En los últimos años ha habido una creciente preocupación por la privacidad de los datos y la publicidad personalizada en la Unión Europea. Con el auge del big data y la creciente influencia de los gigantes tecnológicos, los reguladores de la UE han tomado medidas para proteger los datos de los usuarios y garantizar mercados digitales justos y abiertos. Google ahora está tomando medidas para garantizar que cumple con la Ley del Mercado Digital (DMA) de la UE. Google publicó recientemente un nuevo documento de soporte que presenta una medida que tomó en respuesta a la Ley del Mercado Digital de la UE que entró en vigor el 6 de marzo. Los usuarios de la UE podrán cancelar la Asociación de Google Apps entre servicios específicos. En términos simples, los usuarios de la UE pueden decidir no vincular los servicios de Google. Si la asociación o el vínculo de la aplicación de Google están activos, los datos y las actividades del usuario se compartirán entre todos los productos de Google. Por ejemplo, los vídeos que un usuario ve en YouTube pueden afectar el contenido que se muestra en el feed de la página de inicio de la aplicación Google. Cuando todos los datos están integrados, se puede crear una cartera publicitaria más potente. De esta forma, el usuario puede recibir anuncios “más personalizados”. Sin embargo, no a todo el mundo le gusta esto y los usuarios deberían tener derecho a elegir. Hasta ahora, la opción para decidir si permitir o no la asociación de aplicaciones de Google no estaba disponible. Sin embargo, Google ahora está haciendo cambios. A través de esta medida, los usuarios de la UE podrán elegir qué datos compartir en los servicios de Google. Servicios de Google cuya asociación se puede cancelar Gracias a la Ley de Mercados Digitales, los usuarios de la UE podrán cancelar la asociación de 7 servicios de Google en las próximas semanas. Buscar Youtube Publicidad Servicios Play Store Navegador Chrome Google Shopping Google Map El documento también aclara que cancelar el servicio de asociación no cancelará la cuenta de Google del usuario para ningún servicio. Incluso si el usuario cancela la asociación «interna» con los servicios de Google antes mencionados, los datos aún pueden compartirse con plataformas de terceros. Según Android Central, la redacción utilizada en este documento es muy obvia y aún anima a los usuarios a mantener la conexión entre los servicios. Google dijo que los servicios vinculados de Google trabajan juntos para ayudar a personalizar su contenido y anuncios, y «algunas funciones desaparecerán» cuando desvincule el servicio. Si la Búsqueda, YouTube y Chrome no están conectados, las páginas Qué mirar y Descubrir serán menos personalizadas. Si las reservas anteriores del usuario (billetes de avión, hoteles) a través de búsquedas de Google no están asociadas con Google Maps, (estos resultados) no se mostrarán en Google Maps. Esta no es la mayor concesión que ha hecho Google para cumplir con la Ley de Mercados Digitales. También se exige a Google que deje de “preferir” sus servicios en los rankings de resultados de búsqueda, dando prioridad al contenido de sus productos. Sin embargo, este movimiento de Google es un paso decente. También muestra que la empresa tiene la intención de obedecer la DMA. Gizchina Noticias de la semana La Ley de Mercados Digitales (DMA) La Ley de Mercados Digitales (DMA) es una legislación que tiene como objetivo garantizar mercados digitales justos y abiertos mediante el establecimiento de reglas para los gigantes tecnológicos guardianes, que son empresas que brindan servicios esenciales entre empresas y consumidores. . Estas empresas, como Amazon, Google y otras, se consideran guardianes debido a su importante poder de mercado y su influencia en diversos sectores. La DMA impone varias obligaciones a los guardianes, entre ellas: Permitir que terceros interoperen con sus servicios. Proporcionar a las empresas herramientas publicitarias e información necesaria para sus usuarios comerciales. Garantizar la compatibilidad con los productos de la competencia. Uno de los aspectos clave de la DMA es la regulación de las transferencias de datos y la publicidad personalizada. La legislación exige que los datos de los usuarios se recopilen de diferentes fuentes sólo con el consentimiento explícito del usuario. Esto significa que las empresas deben obtener el permiso de los usuarios antes de recopilar y utilizar sus datos con fines publicitarios personalizados. Desafíos y oportunidades Si bien la DMA representa un importante paso adelante en la protección de datos y los mercados digitales justos, todavía existen desafíos y oportunidades que deben abordarse: Desafíos 1. Falta de una ley federal de privacidad en los EE. UU.: La ausencia de una ley de privacidad integral La legislación estadounidense dificulta que las empresas con sede en Estados Unidos, como Google, cumplan con las normas de protección de datos de la UE. Esto podría generar inseguridad jurídica y posibles conflictos entre las normas de protección de datos de la UE y los EE. UU. 2. Desafíos de aplicación: hacer cumplir la DMA y garantizar el cumplimiento de sus reglas puede resultar difícil, especialmente cuando se trata de grandes empresas de tecnología que cuentan con amplios recursos y operaciones internacionales complejas. La UE necesitará invertir en mecanismos de aplicación sólidos. También deberá garantizar que la legislación se aplique efectivamente. Oportunidades 1. Mayor transparencia: La DMA exige que los guardianes proporcionen información clara y transparente sobre sus prácticas de procesamiento de datos y el consentimiento del usuario. Esta mayor transparencia puede ayudar a los usuarios a comprender mejor cómo se utilizan y comparten sus datos, lo que lleva a decisiones más informadas sobre sus actividades en línea. 2. Mercados digitales más justos: al garantizar que los guardianes cumplan con las reglas de la DMA, la legislación tiene como objetivo crear mercados digitales más justos, permitiendo que nuevos actores ingresen al mercado y desarrollen servicios innovadores. Esto también puede conducir a una mayor competencia y a una gama más diversa de productos y servicios para los consumidores. Conclusión Google ahora está tomando buenas medidas para garantizar el cumplimiento de la Ley de Mercados Digitales. La empresa ahora permitirá a los usuarios cancelar la vinculación de los servicios de Google. Esto significa que cuando el usuario hace algo en una aplicación, los datos no se compartirán con otros servicios. La Ley de Mercados Digitales de la Unión Europea representa un paso importante hacia la protección de los datos de los usuarios y la garantía de mercados digitales justos y abiertos. Al regular las transferencias de datos y la publicidad personalizada, la DMA tiene como objetivo crear un panorama digital más transparente y equitativo. Sin embargo, se deben abordar desafíos como la inseguridad jurídica y los desafíos de aplicación para garantizar el éxito de la legislación. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

Página 1 de 2

Funciona con WordPress & Tema de Anders Norén