Todo lo que necesitas saber sobre tecnología

Etiqueta: Privacidad de datos

California examina los beneficios y riesgos del uso de inteligencia artificial en el gobierno estatal

La inteligencia artificial que puede generar texto, imágenes y otros contenidos podría ayudar a mejorar los programas estatales, pero también plantea riesgos, según un informe publicado por la oficina del gobernador el martes. La IA generativa podría ayudar a traducir rápidamente materiales gubernamentales a varios idiomas y analizar declaraciones fiscales para detectar fraude, resumir comentarios públicos y responder preguntas sobre servicios estatales. Aún así, el análisis advirtió que la implementación de la tecnología también conlleva preocupaciones en torno a la privacidad de los datos, la desinformación, la equidad y el sesgo. “Cuando se usa de manera ética y transparente, GenAI tiene el potencial de mejorar drásticamente los resultados de la prestación de servicios y aumentar el acceso y la utilización de los programas gubernamentales. ”, afirma el informe. El informe de 34 páginas, encargado por el gobernador Gavin Newsom, ofrece una idea de cómo California podría aplicar la tecnología a programas estatales incluso cuando los legisladores luchan por cómo proteger a las personas sin obstaculizar la innovación. Las preocupaciones sobre la seguridad de la IA han dividido a los ejecutivos de tecnología. Líderes como el multimillonario Elon Musk han hecho sonar la alarma de que la tecnología podría conducir a la destrucción de la civilización, señalando que si los humanos se vuelven demasiado dependientes de la automatización, eventualmente podrían olvidar cómo funcionan las máquinas. Otros ejecutivos de tecnología tienen una visión más optimista sobre el potencial de la IA para ayudar a salvar a la humanidad al facilitar la lucha contra el cambio climático y las enfermedades. Al mismo tiempo, las principales empresas de tecnología, incluidas Google, Facebook y OpenAI, respaldada por Microsoft, están compitiendo entre sí para desarrollar y lanzar nuevas herramientas de IA que puedan producir contenido. El informe también llega en un momento en que la IA generativa está alcanzando otro punto de inflexión importante. La semana pasada, la junta directiva del fabricante de ChatGPT OpenAI despidió al director ejecutivo Sam Altman por no ser “consistentemente sincero en sus comunicaciones con la junta directiva”, lo que sumió a la empresa y al sector de la IA en el caos. El martes por la noche, OpenAI dijo que había llegado a “un acuerdo de principio” para que Altman regresara como director ejecutivo y la empresa nombrara miembros de una nueva junta directiva. La empresa enfrentó presiones para reintegrar a Altman por parte de inversores, ejecutivos de tecnología y empleados, que amenazaron con renunciar. OpenAI no ha proporcionado detalles públicamente sobre lo que llevó al sorpresivo derrocamiento de Altman, pero, según se informa, la compañía tuvo desacuerdos sobre mantener segura la IA y al mismo tiempo ganar dinero. Una junta sin fines de lucro controla OpenAI, una estructura de gobierno inusual que hizo posible expulsar al CEO. Newsom calificó el informe de IA como un “primer paso importante” mientras el estado sopesa algunas de las preocupaciones de seguridad que conlleva la IA. «Estamos adoptando un enfoque mesurado y matizado: comprender los riesgos que plantea esta tecnología transformadora y al mismo tiempo examinar cómo aprovechar sus beneficios», dijo en un comunicado. Los avances en la IA podrían beneficiar a la economía de California. El estado alberga a 35 de las 50 principales empresas de IA del mundo y los datos de Pitchbook dicen que el mercado de GenAI podría alcanzar los 42.600 millones de dólares en 2023, según el informe. Algunos de los riesgos descritos en el informe incluyen la difusión de información falsa y dar a los consumidores consejos médicos peligrosos. y permitir la creación de sustancias químicas nocivas y armas nucleares. Las filtraciones de datos, la privacidad y los prejuicios también son las principales preocupaciones, además de si la IA eliminará puestos de trabajo. “Dados estos riesgos, el uso de la tecnología GenAI siempre debe evaluarse para determinar si esta herramienta es necesaria y beneficiosa para resolver un problema en comparación con el estado actual. quo”, dice el informe. Mientras el estado trabaja en pautas para el uso de IA generativa, el informe dice que, mientras tanto, los empleados estatales deben cumplir con ciertos principios para salvaguardar los datos de los californianos. Por ejemplo, los empleados estatales no deberían proporcionar datos de los californianos a herramientas de IA generativa como ChatGPT o Bard de Google ni utilizar herramientas no aprobadas en dispositivos estatales, según el informe. El uso potencial de la IA va más allá del gobierno estatal. Los organismos encargados de hacer cumplir la ley, como la policía de Los Ángeles, planean utilizar inteligencia artificial para analizar el tono y la elección de palabras de los agentes en los videos de las cámaras corporales. Los esfuerzos de California para regular algunas de las preocupaciones de seguridad, como los prejuicios que rodean a la IA, no ganaron mucho impulso durante la última sesión legislativa. Pero los legisladores han presentado nuevos proyectos de ley para abordar algunos de los riesgos de la IA cuando regresen en enero, como proteger a los trabajadores del entretenimiento de ser reemplazados por clones digitales. Mientras tanto, los reguladores de todo el mundo todavía están descubriendo cómo proteger a las personas de los riesgos potenciales de la IA. En octubre, el presidente Biden emitió una orden ejecutiva que describía estándares en materia de seguridad a medida que los desarrolladores crean nuevas herramientas de inteligencia artificial. La regulación de la IA fue un tema importante de discusión en la reunión de Cooperación Económica Asia-Pacífico en San Francisco la semana pasada. Durante un panel de discusión con ejecutivos de Google y la empresa matriz de Facebook, Meta, Altman dijo que pensaba que la orden ejecutiva de Biden era un «buen comienzo». “Aunque había áreas de mejora. Los modelos actuales de IA, dijo, están «buenos» y no se necesita una «regulación estricta», pero expresó preocupación por el futuro. «En algún momento, cuando el modelo pueda generar la producción equivalente a toda una empresa y luego a todo un país y luego a todo el mundo, tal vez queramos algún tipo de supervisión global colectiva de eso», dijo, un día antes de ser despedido como director ejecutivo de OpenAI.

Obtenga un 20 % de descuento adicional en toda una vida de potente protección VPN hasta el 4/7

TL;DR: Proteja los datos y la privacidad de su empresa con una suscripción de por vida a OysterVPN. Actualmente está disponible para nuevos usuarios por el mejor precio en la web de solo $32 con el código de cupón SECURE20 hasta el 7 de abril. Hay tres razones importantes para que las empresas utilicen una VPN: mantener sus datos de trabajo a salvo de los piratas informáticos, proteger su privacidad preservando el anonimato en línea y consumiendo contenido inaccesible dondequiera que esté. Sin embargo, no todas las VPN se crean de la misma manera y algunas pueden resultar bastante caras. Afortunadamente, actualmente hay disponible una suscripción de por vida a OysterVPN para nuevos usuarios al mejor precio en la web de solo $32. Hasta el 7 de abril, use el código de cupón SECURE20 al finalizar la compra para desbloquear un 20% de descuento adicional sobre el precio indicado de $39,99. Obtendrá acceso a más de 182 servidores repartidos en más de 22 países, lo cual es excelente para mantenerse conectado durante los viajes de negocios. Con servidores de streaming dedicados, podrás disfrutar de tu contenido favorito dondequiera que vayas, sin retrasos ni almacenamiento en búfer. Lo mejor de todo es que obtienes datos ilimitados en hasta cinco conexiones a la vez. Funciones de OysterVPN Naturalmente, la seguridad es una prioridad para su negocio, por lo que le alegrará saber que el servicio de OysterVPN incluye cifrado de 256 bits, además de una estricta política de cero registros, desconexión automática y túnel dividido. Elija entre los protocolos VPN más seguros, como IKEv2, OpenVPN, PPTP y L2TP/IPsec. Lo mejor de todo es que se bloqueará activamente la apertura de dominios maliciosos, lo que evita posibles ataques cibernéticos. Disfrutará de la comodidad de un bloqueador de anuncios extra potente que mantiene alejados los molestos anuncios y ventanas emergentes. El cifrado de OysterVPN también reducirá el riesgo de que el ISP limite su acceso porque su actividad web estará oculta. Un firewall NAT también agregará protección adicional contra el tráfico entrante malicioso. También obtiene soporte 24 horas al día, 7 días a la semana e incluso una garantía de devolución de dinero de 30 días. Es fácil ver por qué OysterVPN tiene una calificación de 4,2 estrellas sobre 5 en Trustpilot. Es de gran ayuda poder reunir todos los datos en un todo organizado. No querrás arriesgarte mientras viajas por negocios. Obtenga una suscripción de por vida a OysterVPN mientras esté disponible para nuevos usuarios por el mejor precio en la web de solo $ 32 con el código de cupón SECURE20 hasta el 7 de abril a las 11:59 p.m. (hora del Pacífico). Los precios y la disponibilidad están sujetos a cambios.

Source link

El mito del modo incógnito se ha desmoronado por completo

Si todavía tiene la idea de que el “modo incógnito” de Google Chrome es una buena manera de proteger su privacidad en línea, ahora es un buen momento para detenerse. Google acordó eliminar “miles de millones de registros de datos” que la compañía recopiló mientras los usuarios navegaban por la web usando Modo incógnito, según documentos presentados el lunes en un tribunal federal de San Francisco. El acuerdo, que forma parte de un acuerdo en una demanda colectiva presentada en 2020, culmina años de revelaciones sobre las prácticas de Google que arrojan luz sobre la cantidad de datos que el gigante tecnológico extrae de sus usuarios, incluso cuando están en modo de navegación privada. Según los términos del acuerdo, Google debe actualizar aún más la “página de presentación” del modo Incógnito que aparece cada vez que abre una ventana de Chrome en modo Incógnito después de actualizarla previamente en enero. La página de presentación de Incognito indicará explícitamente que Google recopila datos de sitios web de terceros «independientemente de qué navegación o modo de navegador utilice» y estipulará que «los sitios y aplicaciones de terceros que integran nuestros servicios aún pueden compartir información con Google». entre otros cambios. Los detalles sobre la recopilación de datos de navegación privada de Google también deben aparecer en la política de privacidad de la empresa. Además, se eliminarán algunos de los datos que Google recopiló previamente sobre los usuarios de incógnito. Esto incluye “datos de navegación privada” que tienen “más de nueve meses” desde la fecha en que Google firmó la hoja de términos del acuerdo en diciembre pasado, así como datos de navegación privada recopilados a lo largo de diciembre de 2023. Ciertos documentos del caso que se refieren a Sin embargo, los métodos de recopilación de datos de Google permanecen sellados, lo que dificulta evaluar qué tan exhaustivo será el proceso de eliminación. El portavoz de Google, José Castaneda, dice en un comunicado que la compañía «está feliz de eliminar datos técnicos antiguos que nunca estuvieron asociados con un individuo y fueron nunca utilizado para ningún tipo de personalización”. Castaneda también señaló que la compañía ahora pagará “cero” dólares como parte del acuerdo después de haber enfrentado anteriormente una multa de 5 mil millones de dólares. Otras medidas que Google debe tomar incluirán continuar “bloqueando las cookies de terceros en el modo incógnito durante cinco años”, parcialmente redactar direcciones IP para evitar la reidentificación de datos de usuario anónimos y eliminar cierta información del encabezado que actualmente se puede usar para identificar a los usuarios con el modo incógnito activo. La parte de eliminación de datos del acuerdo de conciliación sigue a cambios preventivos en la recopilación de datos del modo incógnito de Google y las formas en que describe lo que hace el modo incógnito. Durante casi cuatro años, Google ha estado eliminando gradualmente las cookies de terceros, que la compañía dice que planea bloquear por completo para fines de 2024. Google también actualizó la “página de presentación” del modo incógnito de Chrome en enero con un lenguaje más débil para indicar que el uso de incógnito no es “privado”, sino simplemente “más privado” que no usarlo. La reparación del acuerdo es estrictamente “precautoria”, lo que significa que su propósito central es poner fin a las actividades de Google que los demandantes afirman que son ilegales. El acuerdo no descarta ninguna reclamación futura (The Wall Street Journal informa que los abogados de los demandantes habían presentado al menos 50 demandas de este tipo en California el lunes), aunque los demandantes señalan que la compensación monetaria en casos de privacidad es mucho más difícil de obtener. Lo importante, argumentan los abogados de los demandantes, es realizar cambios en Google ahora que proporcionen el mayor beneficio inmediato al mayor número de usuarios. Los críticos de Incognito, un elemento básico del navegador Chrome desde 2008, dicen que, en el mejor de los casos, las protecciones que ofrece fracasan frente a la sofisticada vigilancia comercial que afecta a la mayoría de los usuarios hoy en día; En el peor de los casos, dicen, la función da a las personas una falsa sensación de seguridad, ayudando a empresas como Google a monitorear pasivamente a millones de usuarios que han sido engañados haciéndoles creer que están navegando solos.

Source link

El cifrado iMessage de Apple pone sus prácticas de seguridad en la mira del Departamento de Justicia

El argumento es uno que algunos críticos de Apple han esgrimido durante años, como lo explica en detalle en un ensayo de enero Cory Doctorow, escritor de ciencia ficción, crítico tecnológico y coautor de Chokepoint Capitalism. «En el instante en que se agrega un usuario de Android a un chat o chat grupal, toda la conversación pasa a SMS, una pesadilla de privacidad insegura y trivialmente pirateada que debutó hace 38 años, el año en que Wayne’s World tuvo su primera proyección cinematográfica», escribe Doctorow. “La respuesta de Apple a esto es terriblemente hilarante. La posición de la compañía es que si quieres tener seguridad real en tus comunicaciones, debes comprar iPhones a tus amigos”. En una declaración a WIRED, Apple dice que diseña sus productos para “funcionar juntos sin problemas, proteger la privacidad y seguridad de las personas, y crear una experiencia mágica para nuestros usuarios”, y agrega que la demanda del Departamento de Justicia “amenaza quiénes somos y los principios que distinguen a los productos Apple” en el mercado. La compañía también dice que no ha lanzado una versión de iMessage para Android porque no podía garantizar que terceros la implementarían de manera que cumpliera con los estándares de la compañía. “Si tiene éxito, [the lawsuit] obstaculizaría nuestra capacidad de crear el tipo de tecnología que la gente espera de Apple, donde el hardware, el software y los servicios se cruzan”, continúa el comunicado. “También sentaría un precedente peligroso, al facultar al gobierno para tomar mano dura en el diseño de la tecnología de las personas. Creemos que esta demanda está equivocada en cuanto a los hechos y la ley, y nos defenderemos enérgicamente contra ella”. De hecho, Apple no sólo se ha negado a crear clientes de iMessage para Android u otros dispositivos que no sean de Apple, sino que ha luchado activamente contra aquellos que tener. El año pasado, se lanzó un servicio llamado Beeper con la promesa de llevar iMessage a los usuarios de Android. Apple respondió modificando su servicio iMessage para romper la funcionalidad de Beeper, y la startup lo abandonó en diciembre. Apple argumentó en ese caso que Beeper había dañado la seguridad de los usuarios; de hecho, comprometió el cifrado de extremo a extremo de iMessage al descifrarlo y luego volvió a cifrar los mensajes en un servidor de Beeper, aunque Beeper había prometido cambiar eso en futuras actualizaciones. El cofundador de Beeper, Eric Migicovsky, argumentó que la dura medida de Apple de reducir los mensajes de texto de Apple a Android a mensajes de texto tradicionales no era una alternativa más segura. “Es un poco loco que estemos ahora en 2024 y todavía no haya una solución fácil y cifrada. , de alta calidad para algo tan simple como un mensaje de texto entre un iPhone y un Android”, dijo Migicovsky a WIRED en enero. «Creo que Apple reaccionó de una manera realmente incómoda y extraña, argumentando que Beeper Mini amenazaba la seguridad y privacidad de los usuarios de iMessage, cuando en realidad, la verdad es exactamente lo contrario». Incluso cuando Apple ha enfrentado acusaciones de acaparar las propiedades de seguridad de iMessage para En detrimento de los propietarios de teléfonos inteligentes en todo el mundo, no ha hecho más que seguir mejorando esas funciones: en febrero actualizó iMessage para utilizar nuevos algoritmos criptográficos diseñados para ser inmunes al descifrado de códigos cuánticos, y en octubre pasado añadió Contact Key Verification, una función diseñada para evitar la entrada de personas. -Ataques intermedios que falsifican los contactos previstos para interceptar mensajes. Quizás lo más importante es que se dice que adoptará el estándar RCS para permitir mejoras en la mensajería con los usuarios de Android, aunque la compañía no dijo si esas mejoras incluirían cifrado de extremo a extremo.

Source link

Google idea una forma de proteger a los usuarios del fraude financiero

Los delitos cibernéticos son bastante comunes y se están convirtiendo en una amenaza que debe detenerse. Según el Informe sobre el estado mundial de las estafas de 2023, el 78 por ciento de los usuarios de dispositivos móviles encuestados experimentaron al menos una estafa en el último año. Por este motivo, Google está haciendo todo lo posible para proteger a los usuarios de Android del fraude financiero. Para reforzar la seguridad, Google actualizó su aplicación de seguridad Google Play Protect para monitorear los permisos confidenciales de aplicaciones de terceros. Esta función ayudará a los usuarios a tener más control sobre la privacidad y seguridad de sus datos. Google lanzó una aplicación llamada «Google Play Protect» en 2017. Cuando los usuarios descargan e instalan aplicaciones de Google Play, Google Play Protect realizará comprobaciones de seguridad adicionales en segundo plano. Esto es para garantizar que no haya riesgos potenciales de seguridad en las aplicaciones relevantes. Esto también garantiza que la aplicación no requiera permisos adicionales. Google emitió recientemente un comunicado de prensa anunciando que fortalecerá aún más las capacidades de seguridad de esta aplicación. La optimización optimiza principalmente el proyecto de «supervisión de permisos» contra el «fraude financiero». En la actualidad, Google ha cooperado con la Agencia de Seguridad Cibernética (CSA) de Singapur y primero iniciará el piloto en Singapur. Luego lanzará gradualmente actualizaciones de aplicaciones relevantes en otros mercados. ¿Qué es Google Play Proteger? Google Play Protect es una función de seguridad integrada para dispositivos Android que ayuda a mantener su teléfono a salvo de aplicaciones maliciosas y otras amenazas a la seguridad. Analiza automáticamente su dispositivo en busca de amenazas potenciales, como aplicaciones y archivos dañinos, y brinda protección en tiempo real. Google Play Protect se actualiza constantemente para garantizar que pueda detectar las últimas amenazas y mantener su dispositivo seguro. Es parte de Google Play Store, que es la tienda oficial de aplicaciones para dispositivos Android, y funciona en segundo plano para mantener su dispositivo y sus datos seguros. Además de Google Play Protect, Google Play Store también ofrece otras funciones y controles de seguridad para garantizar una experiencia en línea segura para sus usuarios. Google Play Protect es un componente importante del ecosistema de Google Play, que es un mercado digital para aplicaciones móviles, juegos y otros contenidos digitales. Está diseñado para proporcionar una plataforma segura y confiable para que los usuarios descubran y descarguen una amplia variedad de aplicaciones y contenido digital para sus dispositivos Android. Google Play Store es conocida por su extensa colección de aplicaciones y juegos, y también ofrece libros, revistas y películas digitales. Como parte de su compromiso con la seguridad, Google Play Store invierte en apoyar a los desarrolladores e implementar mejoras en la plataforma para crear una experiencia segura y agradable para sus usuarios. ¿Qué son los permisos confidenciales? Los permisos confidenciales son permisos que permiten que las aplicaciones accedan a datos confidenciales en el dispositivo de un usuario. Dichos datos incluyen contactos, ubicación y cámara. Las aplicaciones maliciosas pueden abusar de estos permisos para robar datos del usuario o realizar otras actividades maliciosas. Según una publicación del blog de seguridad de Google, Google Protect protegerá a los usuarios para que no otorguen permisos confidenciales. Google dijo que después de que los usuarios de Singapur instalen la aplicación Google Play Protect, Google Play Protect monitoreará las tendencias de permisos de aplicaciones de terceros en el sistema en segundo plano. La aplicación analizará y bloqueará automáticamente las aplicaciones que exijan permisos confidenciales y enviará un informe al usuario. Noticias de la semana de Gizchina Los «permisos confidenciales» relevantes incluyen API como recibir mensajes de texto (RECEIVE_SMS), leer mensajes de texto (READ_SMS), leer/ignorar notificaciones de otras aplicaciones (BIND_Notifications), etc. Google mencionó que muchos piratas informáticos usan estos permisos confidenciales para realizar fraude financiero. Google dijo: “Mantener a los usuarios seguros en un ecosistema abierto requiere defensas sofisticadas. Es por eso que Android proporciona múltiples capas de protección, impulsadas por IA y respaldadas por un gran equipo dedicado de seguridad y privacidad, para ayudar a proteger a nuestros usuarios de amenazas a la seguridad y al mismo tiempo hacer que la plataforma sea más resistente. También brindamos a nuestros usuarios numerosas protecciones integradas como Google Play Protect, el servicio de detección de amenazas más implementado del mundo, que analiza activamente más de 125 mil millones de aplicaciones en dispositivos todos los días para monitorear comportamientos dañinos. Dicho esto, nuestros datos muestran que una cantidad desproporcionada de malos actores aprovechan API y canales de distribución seleccionados en este ecosistema abierto”. ¿Cómo funciona la actualización? El Google Play Protect actualizado ahora monitoreará los permisos confidenciales de aplicaciones de terceros. Si una aplicación solicita un permiso confidencial, Google Play Protect mostrará una notificación al usuario. Primero bloqueará la solicitud y luego informará al usuario de la solicitud de permiso. También le dará al usuario la opción de permitir o denegar el permiso. ¿Porque es esto importante? Esta actualización es importante porque brinda a los usuarios más control sobre la privacidad y seguridad de sus datos. Al monitorear los permisos confidenciales, los usuarios pueden asegurarse de que no se acceda a sus datos ni se los utilice sin su consentimiento. Esto es especialmente importante dado el creciente número de filtraciones de datos y violaciones de la privacidad. Palabras finales El panorama cambiante de los delitos cibernéticos y las estafas subraya la necesidad crítica de medidas de seguridad sólidas. Estas medidas deberían salvaguardar los datos y la privacidad de los usuarios. Las medidas proactivas de Google para mejorar las funciones de seguridad de su aplicación Google Play Protect representan un paso significativo. Podría mitigar el fraude financiero y proteger a los usuarios de Android en todo el mundo. Al monitorear los permisos confidenciales, se otorga a los usuarios un mayor control sobre sus datos. Por ello, la compañía refuerza su compromiso con el fomento de un ecosistema digital seguro. La colaboración con la Agencia de Seguridad Cibernética de Singapur ejemplifica el enfoque colaborativo de Google. De esta manera, la empresa espera combatir las amenazas a la ciberseguridad a escala global. A medida que Google Play Protect se optimiza contra el fraude financiero, los usuarios pueden esperar medidas más proactivas. La empresa también utilizará un mecanismo de defensa vigilante contra posibles violaciones de seguridad. Este avance no sólo refuerza la resiliencia de la plataforma Android sino que también refleja la dedicación de Google hacia los usuarios. Está aprovechando la tecnología para mantener la confianza y la seguridad de los usuarios. A medida que el panorama digital continúa evolucionando, las empresas de tecnología deben priorizar la seguridad y privacidad del usuario. La iniciativa de Google subraya la importancia de medidas proactivas para abordar los desafíos emergentes de ciberseguridad y subraya la responsabilidad colectiva de las partes interesadas en salvaguardar el bienestar digital de los usuarios. Con la integración de funciones de seguridad mejoradas, los usuarios pueden navegar en el ámbito digital con mayor confianza, sabiendo que sus datos y su privacidad están protegidos contra amenazas en evolución. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

La IA podría estar leyendo tus mensajes de Slack y Teams usando tecnología de Aware

Fotos_insta | Stock | Getty Images Indique la referencia de George Orwell. Dependiendo de dónde trabaje, existe una gran posibilidad de que la inteligencia artificial esté analizando sus mensajes en Slack, Microsoft Teams, Zoom y otras aplicaciones populares. Grandes empleadores estadounidenses como Walmart, Delta Air Lines, T-Mobile , Chevron y Starbucks, así como marcas europeas como Nestlé y AstraZeneca, han recurrido a una startup de siete años, Aware, para monitorear las conversaciones entre sus bases, según la compañía. Jeff Schumann, cofundador y director ejecutivo de la startup con sede en Columbus, Ohio, dice que la IA ayuda a las empresas a «comprender el riesgo en sus comunicaciones», obteniendo una lectura del sentimiento de los empleados en tiempo real, en lugar de depender de una encuesta anual o dos veces al año. Según Schumann, con los datos del producto analítico de Aware, los clientes pueden ver cómo los empleados de un determinado grupo de edad o en una geografía particular están respondiendo a una nueva política corporativa o campaña de marketing. Las docenas de modelos de inteligencia artificial de Aware, creados para leer texto y procesar imágenes, también pueden identificar intimidación, acoso, discriminación, incumplimiento, pornografía, desnudez y otros comportamientos, dijo. La herramienta de análisis de Aware, la que monitorea el sentimiento y la toxicidad de los empleados, no Según Schumann, no tenemos la posibilidad de marcar los nombres de los empleados individuales. Pero su herramienta eDiscovery separada puede hacerlo, en caso de amenazas extremas u otros comportamientos de riesgo predeterminados por el cliente, agregó. CNBC no recibió una respuesta de Walmart, T-Mobile, Chevron, Starbucks o Nestlé con respecto a su uso de Consciente. Un representante de AstraZeneca dijo que la compañía utiliza el producto eDiscovery pero no utiliza análisis para monitorear el sentimiento o la toxicidad. Delta le dijo a CNBC que utiliza los análisis y eDiscovery de Aware para monitorear tendencias y sentimientos como una forma de recopilar comentarios de los empleados y otras partes interesadas, y para la retención de registros legales en su plataforma de redes sociales. No hace falta ser un entusiasta de las novelas distópicas para ver dónde todo podría salir muy mal. Jutta Williams, cofundadora de Humane Intelligence, una organización sin fines de lucro dedicada a la responsabilidad de la IA, dijo que la IA añade un aspecto nuevo y potencialmente problemático a los llamados programas de riesgo interno, que han existido durante años para evaluar cosas como el espionaje corporativo, especialmente dentro de las comunicaciones por correo electrónico. Hablando en términos generales sobre la inteligencia artificial de vigilancia de los empleados en lugar de la tecnología de Aware específicamente, Williams dijo a CNBC: «Mucho de esto se convierte en un crimen de pensamiento». Y añadió: «Esto es tratar a las personas como si fueran inventario de una manera que nunca había visto». La IA de vigilancia de los empleados es una pieza de rápido crecimiento pero de nicho de un mercado de IA más grande que se disparó el año pasado, tras el lanzamiento del chatbot ChatGPT de OpenAI en finales de 2022. La IA generativa se convirtió rápidamente en la frase de moda en las llamadas sobre ganancias corporativas, y alguna forma de tecnología está automatizando tareas en casi todas las industrias, desde servicios financieros e investigación biomédica hasta logística, viajes en línea y servicios públicos. Los ingresos de Aware han aumentado un 150% por año en promedio durante los últimos cinco años, dijo Schumann a CNBC, y su cliente típico tiene alrededor de 30.000 empleados. Los principales competidores incluyen Qualtrics, Relativity, Proofpoint, Smarsh y Netskope. Según los estándares de la industria, Aware se mantiene bastante eficiente. La compañía recaudó dinero por última vez en 2021, cuando recaudó 60 millones de dólares en una ronda liderada por Goldman Sachs Asset Management. Compárese eso con grandes empresas de modelos de lenguaje, o LLM, como OpenAI y Anthropic, que han recaudado miles de millones de dólares cada una, en gran parte de socios estratégicos. ‘Seguimiento de la toxicidad en tiempo real’ Schumann fundó la empresa en 2017 después de pasar casi ocho años trabajando en Colaboración empresarial en la compañía de seguros Nationwide. Antes de eso, fue empresario. Y Aware no es la primera empresa que fundó y que le hace pensar en Orwell. En 2005, Schumann fundó una empresa llamada BigBrotherLite.com. Según su perfil de LinkedIn, la empresa desarrolló un software que «mejoró la experiencia de visualización digital y móvil» de la serie de telerrealidad «Gran Hermano» de CBS. En la novela clásica de Orwell «1984», Gran Hermano era el líder de un estado totalitario en el que los ciudadanos estaban bajo vigilancia perpetua. «Construí un reproductor simple enfocado en una experiencia de consumo más limpia y fácil para que la gente vea el programa de televisión en su computadora, «, dijo Schumann en un correo electrónico. En Aware, está haciendo algo muy diferente. Cada año, la compañía publica un informe que agrega información sobre los miles de millones (en 2023, la cantidad fue de 6,5 mil millones) de mensajes enviados entre grandes empresas, tabulando el riesgo percibido. factores y puntuaciones de sentimiento en el lugar de trabajo. Schumann se refiere a los billones de mensajes enviados a través de plataformas de comunicación en el lugar de trabajo cada año como «el conjunto de datos no estructurados de más rápido crecimiento en el mundo». Al incluir otros tipos de contenido que se comparten, como imágenes y videos, la IA analítica de Aware analiza más de 100 millones de contenidos cada día. Al hacerlo, la tecnología crea un gráfico social de la empresa, observando qué equipos internamente hablan entre sí más que otros. «Siempre rastrea el sentimiento de los empleados en tiempo real y siempre rastrea la toxicidad en tiempo real», dijo Schumann sobre el análisis. herramienta. «Si usted fuera un banco que utiliza Aware y el sentimiento de la fuerza laboral se disparó en los últimos 20 minutos, es porque están hablando de algo positivo, colectivamente. La tecnología podría decirles lo que sea», confirmó Aware a CNBC. que utiliza datos de sus clientes empresariales para entrenar sus modelos de aprendizaje automático. El repositorio de datos de la compañía contiene alrededor de 6,5 mil millones de mensajes, lo que representa alrededor de 20 mil millones de interacciones individuales entre más de 3 millones de empleados únicos, dijo la compañía. Cuando un nuevo cliente se registra en la herramienta de análisis, los modelos de IA de Aware tardan unas dos semanas en entrenarse con los mensajes de los empleados y conocer los patrones de emoción y sentimiento dentro de la empresa para poder ver qué es normal y qué es anormal, dijo Schumann». No tendrá nombres de personas, para proteger la privacidad», dijo Schumann. Más bien, dijo, los clientes verán que «tal vez la fuerza laboral mayor de 40 años en esta parte de Estados Unidos esté viendo los cambios en [a] política muy negativamente debido al costo, pero todos los demás fuera de ese grupo de edad y ubicación lo ven de manera positiva porque los impacta de una manera diferente». Pero la herramienta eDiscovery de Aware funciona de manera diferente. Una empresa puede configurar el acceso basado en roles a los nombres de los empleados dependiendo de la categoría de «riesgo extremo» elegida por la empresa, que indica a la tecnología de Aware que extraiga el nombre de un individuo, en ciertos casos, para recursos humanos u otro representante de la empresa. «Algunos de los más comunes son violencia extrema, intimidación extrema, acoso, pero varía según la industria», dijo Schumann, y agregó que en los servicios financieros, se rastrearía la sospecha de uso de información privilegiada. Por ejemplo, un cliente puede especificar una política de «amenazas violentas», o cualquier otra categoría, utilizando la tecnología de Aware, dijo Schumann. y hacer que los modelos de IA monitoreen las infracciones en Slack, Microsoft Teams y Workplace by Meta. El cliente también podría combinar eso con indicadores basados ​​en reglas para ciertas frases, declaraciones y más. Si la IA encuentra algo que viola las políticas específicas de una empresa, podría proporcionar el nombre del empleado al representante designado del cliente. Este tipo de práctica se ha utilizado durante años en las comunicaciones por correo electrónico. Lo nuevo es el uso de la IA y su aplicación en plataformas de mensajería en el lugar de trabajo como Slack y Teams. Amba Kak, directora ejecutiva del AI Now Institute de la Universidad de Nueva York, se preocupa por el uso de la IA para ayudar a determinar qué se considera comportamiento de riesgo. «Tiene un efecto paralizador sobre lo que la gente dice en el lugar de trabajo», dijo Kak, añadiendo que la Comisión Federal de Comercio, el Departamento de Justicia y la Comisión de Igualdad de Oportunidades en el Empleo han expresado preocupaciones sobre el asunto, aunque no estaba hablando específicamente de la tecnología de Aware. «Se trata tanto de cuestiones de derechos de los trabajadores como de privacidad». Schumann dijo que aunque la herramienta eDiscovery de Aware permite a los equipos de investigaciones de seguridad o de recursos humanos utilizar IA para buscar en cantidades masivas de datos, hoy en día ya existe una «capacidad similar pero básica» en Slack, Teams y otras plataformas. «Una distinción clave aquí es que Aware y sus modelos de IA no toman decisiones», afirmó Schumann. «Nuestra IA simplemente hace que sea más fácil examinar este nuevo conjunto de datos para identificar riesgos potenciales o violaciones de políticas». Preocupaciones por la privacidad Incluso si los datos se agregan o se anonimizan, sugiere la investigación, es un concepto erróneo. Un estudio histórico sobre privacidad de datos que utilizó datos del censo estadounidense de 1990 mostró que el 87% de los estadounidenses podían identificarse únicamente mediante el código postal, la fecha de nacimiento y el sexo. Los clientes de Aware que utilizan su herramienta de análisis tienen el poder de agregar metadatos al seguimiento de mensajes, como la edad, ubicación, división, antigüedad o función laboral del empleado. «Lo que están diciendo se basa en una noción muy obsoleta y, yo diría, completamente desacreditada en este momento de que la anonimización o la agregación es como una panacea para resolver la preocupación por la privacidad», dijo Kak. Además, el tipo de modelo de IA Aware Los usos pueden ser efectivos para generar inferencias a partir de datos agregados, haciendo conjeturas precisas, por ejemplo, sobre identificadores personales basados ​​en el idioma, el contexto, los términos de jerga y más, según una investigación reciente. «Ninguna empresa está esencialmente en condiciones de hacer garantías amplias sobre la privacidad y seguridad de los LLM y este tipo de sistemas», dijo Kak. «No hay nadie que pueda decirte con seriedad que estos desafíos están resueltos». ¿Y qué pasa con los recursos de los empleados? Si se marca una interacción y un trabajador es disciplinado o despedido, es difícil para él ofrecer una defensa si no está al tanto de todos los datos involucrados, dijo Williams. «¿Cómo enfrenta a su acusador cuando sabemos que la explicabilidad de la IA ¿Todavía es inmaduro?» «Cuando el modelo señala una interacción», dijo Schumann, «proporciona un contexto completo sobre lo que sucedió y qué política desencadenó, brindando equipos de investigación la información que necesitan para decidir los próximos pasos de acuerdo con las políticas de la empresa y la ley.»MIRAR: La IA está ‘realmente en juego aquí’ con los recientes despidos tecnológicos

Source link

Las organizaciones australianas necesitan generar confianza con los consumidores a través de los datos y la inteligencia artificial

Los datos globales de Cisco destacan una tendencia preocupante: las organizaciones australianas están empezando a quedarse atrás en una “brecha de confianza” entre lo que los clientes esperan que hagan con los datos y la privacidad y lo que realmente está sucediendo. Los nuevos datos muestran que el 90% de las personas quieren que las organizaciones se transformen para gestionar adecuadamente los datos y los riesgos. Con un entorno regulatorio que se ha quedado atrás, para que las organizaciones australianas puedan lograrlo, tendrán que avanzar más rápido que el entorno regulatorio. Las empresas australianas deben tomarse en serio Según un importante estudio global reciente de Cisco, más del 90% de las personas cree que la IA generativa requiere nuevas técnicas para gestionar los datos y los riesgos (Figura A). Mientras tanto, al 69% le preocupa la posibilidad de que los derechos legales y de propiedad intelectual se vean comprometidos, y al 68% le preocupa el riesgo de divulgación al público o a los competidores. Figura A: Preocupaciones de la organización y los usuarios con la IA generativa. Imagen: Cisco Básicamente, si bien los clientes aprecian el valor que la IA puede aportarles en términos de personalización y niveles de servicio, también se sienten incómodos con las implicaciones para su privacidad si sus datos se utilizan como parte de los modelos de IA. PREMIUM: Las organizaciones australianas deberían considerar una política de ética de IA. Alrededor del 8% de los participantes en la encuesta de Cisco eran de Australia, aunque el estudio no desglosa las preocupaciones anteriores por territorio. Los australianos tienen más probabilidades de violar las políticas de seguridad de los datos a pesar de las preocupaciones sobre la privacidad de los datos. Otras investigaciones muestran que los australianos son particularmente sensibles a la forma en que las organizaciones utilizan sus datos. Según una investigación de Quantum Market Research y Porter Novelli, el 74% de los australianos están preocupados por el ciberdelito. Además, al 45% le preocupa que se robe su información financiera y al 28% le preocupan sus documentos de identidad, como pasaportes y licencias de conducir (Figura B). Figura B: Los australianos están más preocupados por los datos financieros que por cualquier otra información personal. Imagen: Porter Novelli y Quantum Market Research Sin embargo, los australianos también tienen el doble de probabilidades que el promedio mundial de violar las políticas de seguridad de datos en el trabajo. Como dijo el vicepresidente y analista de Gartner, Nader Henein, las organizaciones deberían estar profundamente preocupadas por esta violación de la confianza del cliente porque los clientes estarán felices de tomar sus billeteras y caminar. “El hecho es que los consumidores de hoy están más que felices de cruzar el camino hacia la competencia y, en algunos casos, pagar una prima por el mismo servicio, si es allí donde creen que sus datos y los de su familia están mejor cuidados. “, Dijo Henein. La regulación voluntaria en las organizaciones australianas no es buena para la privacidad de los datos. Parte del problema es que, en Australia, hacer lo correcto en torno a la privacidad de los datos y la IA es en gran medida voluntario. VER: En qué deben centrarse los líderes australianos de TI antes de las reformas de privacidad. “Desde una perspectiva regulatoria, la mayoría de las empresas australianas se centran en la divulgación y presentación de informes sobre infracciones, dados todos los incidentes de alto perfil de los últimos dos años. Pero cuando se trata de aspectos básicos de privacidad, existen pocos requisitos para las empresas en Australia. Los principales pilares de la privacidad, como la transparencia, los derechos de privacidad del consumidor y el consentimiento explícito, simplemente faltan”, afirmó Henein. Sólo aquellas organizaciones australianas que han hecho negocios en el extranjero y se han topado con regulaciones externas han necesitado mejorar; Henein señaló como ejemplos el RGPD y las leyes de privacidad de Nueva Zelanda. Otras organizaciones deberán hacer de la generación de confianza con sus clientes una prioridad interna. Más cobertura de Australia Generar confianza en el uso de datos Si bien el uso de datos en IA puede no estar regulado y ser voluntario en Australia, hay cinco cosas que el equipo de TI puede (y debe) defender en toda la organización: Transparencia sobre la recopilación y el uso de datos: Transparencia en torno a la recopilación de datos se puede lograr a través de políticas de privacidad, formularios de consentimiento y opciones de exclusión voluntaria claros y fáciles de entender. Responsabilidad con la gobernanza de datos: todos en la organización deben reconocer la importancia de la calidad e integridad de los datos en la recopilación, el procesamiento y el análisis de datos, y deben existir políticas para reforzar el comportamiento. Alta calidad y precisión de los datos: la recopilación y el uso de datos deben ser precisos, ya que la información errónea puede hacer que los modelos de IA no sean confiables y, posteriormente, eso puede socavar la confianza en la seguridad y la gestión de los datos. Detección y respuesta proactivas a incidentes: un plan de respuesta a incidentes inadecuado puede provocar daños a la reputación y los datos de la organización. Control del cliente sobre sus propios datos: todos los servicios y funciones que implican la recopilación de datos deben permitir al cliente acceder, administrar y eliminar sus datos en sus propios términos y cuando lo desee. Autorregulación ahora para prepararse para el futuro Actualmente, la ley de privacidad de datos, incluidos los datos recopilados y utilizados en modelos de IA, está regulada por antiguas regulaciones creadas antes de que se utilizaran los modelos de IA. Por lo tanto, la única regulación que aplican las empresas australianas es la autodeterminada. Sin embargo, como dijo Henein de Gartner, existe mucho consenso sobre el camino correcto a seguir para la gestión de datos cuando se utilizan de estas formas nuevas y transformadoras. VER: Las organizaciones australianas se centrarán en la ética de la recopilación y el uso de datos en 2024. “En febrero de 2023, se publicó el Informe de revisión de la Ley de Privacidad con muchas buenas recomendaciones destinadas a modernizar la protección de datos en Australia”, dijo Henein. “Siete meses después, en septiembre de 2023, el Gobierno Federal respondió. De las 116 propuestas del informe original, el gobierno respondió favorablemente a 106”. Por ahora, algunos ejecutivos y juntas directivas pueden resistirse a la idea de una regulación autoimpuesta, pero el beneficio de esto es que una organización que pueda demostrar que está tomando estas medidas se beneficiará de una mayor reputación entre los clientes y será vista como que toma en cuenta sus preocupaciones. en torno al uso de datos en serio. Mientras tanto, algunos dentro de la organización podrían estar preocupados de que imponer la autorregulación pueda impedir la innovación. Como dijo Henein en respuesta a eso: «¿habría retrasado la introducción de cinturones de seguridad, zonas de deformación y bolsas de aire por temor a que estos aspectos frenaran los avances en la industria automotriz?» Ahora es el momento de que los profesionales de TI se hagan cargo y comiencen a cerrar esa brecha de confianza.

Source link

La gobernanza de datos será un enfoque renovado para la TI australiana en 2024

En toda Australia, hasta la fecha gran parte de la atención se ha centrado en comprender el papel de la inteligencia artificial en cada sector y dar esos primeros pasos hacia su adopción. Fue un año de experimentación y exploración. Pero mientras que 2023 fue el año en el que la IA irrumpió en la conciencia generalizada, 2024 parece que será un año más reflexivo, con la regulación del gobierno australiano a medida que la presión de los consumidores obliga a las empresas y a los equipos de TI a dar un paso atrás y analizar adecuadamente los aspectos éticos. Implicaciones detrás de la adopción de la IA. Y para ello, habrá una mirada renovada a la forma en que los datos alimentan los modelos de IA y cómo los científicos que construyen los modelos recopilan y gestionan esos datos. Para que la IA continúe su trayectoria positiva, 2024 también debe ser el año en el que la gobernanza de datos alcance la velocidad de la innovación. Cómo ve CSIRO, la agencia líder de Australia, a la IA Australia está decidida a ser líder en el desarrollo de la IA. La agencia científica nacional, CSIRO, ha establecido un Centro Nacional de IA, que organizó el primer Mes de la IA del país del 15 de noviembre al 15 de diciembre de 2023. VER: El aumento continuo de la IA en 2024 requerirá que la TI australiana supere desafíos importantes. Una de las predicciones clave de la NAIC para la IA en 2024 es que “la IA responsable y la buena gobernanza ocuparán un lugar central”. Para lograrlo, NAIC recomienda que las organizaciones se centren en cuatro prioridades clave: Tener una mejor comprensión del papel que tienen los datos en la IA. Comprender las vulnerabilidades que la IA abre a los datos. Desarrollar mejores procesos sobre cómo se recopilan los datos. Desarrollar mejores formas de aprovechar los datos en los modelos. Como señaló Jade Haar, jefa de privacidad y ética de datos del Banco Nacional de Australia, en las predicciones de NAIC, es necesario que haya un equilibrio entre el deseo de construir modelos a partir de grandes lagos de datos que simplemente estén llenos de la mayor cantidad de datos posible y la gobernanza. valor y obligaciones éticas de recopilar sólo los datos que sean necesarios. «Si ChatGPT nos ha enseñado algo, es que lo que comúnmente se conoce como información ‘pública’ no es lo mismo que información ‘libre y abierta'», dijo Haar según citó NAIC. “Los compradores de soluciones de IA deben seguir preguntando sobre la procedencia y los derechos de los datos o simplemente aceptar lo desconocido. Estos últimos son menos atractivos para las entidades públicas o reguladas”. Por qué es una urgencia apremiante Este llamado a un enfoque renovado en la gobernanza de datos en el camino hacia la adopción de la IA es oportuno. Una de las consecuencias que tuvo la IA el año pasado es que, ahora, todos los sectores quieren utilizarla, pero pueden correr un gran riesgo al hacerlo sin darse cuenta. VER: La estrategia de seguridad cibernética de seis escudos de Australia podría depender de qué tan bien la nación gestione los vastos conjuntos de datos. Por ejemplo, en su propio artículo de predicciones para 2024, Australian Property Investor señaló: “La IA está impulsando una adquisición de datos aún mayor, procesando el flujo interminable de datos que se produce a medida que diseñamos, construimos, compramos, vendemos y vivimos en nuestros hogares… Los macrodatos también están impulsando la transformación de industrias que se han quedado rezagadas en la adopción de la digitalización, incluidos los ayuntamientos y el gobierno local, la construcción y la logística”. Más cobertura de Australia Mientras tanto, si bien las pequeñas y medianas empresas han tardado en adoptar la IA, de las que participan en el comercio electrónico, más del 40% de las PYMES están utilizando la IA de alguna manera. Como destaca un artículo de Forbes Australia, la IA se está impulsando como una forma para que estas empresas lleguen a la Generación Z y otros consumidores “emergentes”. Para estos sectores, combinar datos de clientes e inteligencia artificial les permite orientar mejor los esfuerzos de marketing y ventas a estos clientes. Lo preocupante es que la gobernanza de datos suele ser una preocupación secundaria. Las organizaciones australianas entienden que los datos son un riesgo. La profundidad y amplitud de las violaciones de datos que han ocurrido en los últimos años lo han dejado claro. También son conscientes de que el gobierno está realizando esfuerzos para aumentar la regulación en la gobernanza de datos como parte de su amplia estrategia de seguridad cibernética. Sin embargo, a pesar de esto, el Instituto de Gobernanza de Australia descubrió recientemente que casi el 60% de las organizaciones tienen juntas directivas que no comprenden los desafíos de la gobernanza de datos de la organización. Además, las tecnologías emergentes y la IA son dos de los tres mayores riesgos en torno a la gobernanza de datos, siendo el otro los ciberataques directos. La promesa de la IA es liderar las juntas directivas y otros altos ejecutivos para presionar a las organizaciones para que adopten la tecnología sin considerar primero los requisitos subyacentes de gobernanza de datos. VER: Australia ha estado adoptando la IA generativa mientras intenta anticiparse a los riesgos. «No podemos subestimar el papel de la gobernanza a medida que avanzamos hacia la creación y el uso seguro, responsable y ético de la IA y la protección de datos vitales», dijo en el informe la presidenta y presidenta del Instituto de Gobernanza de Australia, Pauline Vamos. El papel de la TI en la promoción de la gobernanza de datos La realidad es que para que los modelos y aplicaciones de IA tengan éxito, las organizaciones necesitan aprovechar en gran medida sus datos, ya sea recopilando vastos lagos de big data de manera indiscriminada o siendo más específicos en los datos que recopilan e incluyen. en modelos. De cualquier manera, esto abre los datos a nuevos niveles de riesgo y, actualmente, las juntas directivas y los ejecutivos no están necesariamente preparados para afrontar este desafío. Esto significa que recaerá en los equipos de TI defender la gobernanza de datos dentro de la organización. A medida que el entusiasmo por el desarrollo de la IA se enfríe en 2024, habrá un enfoque renovado en cómo las organizaciones manejan y gestionan los datos de forma étnica. Por razones tanto regulatorias como de reputación, los profesionales de TI tienen la oportunidad de demostrar liderazgo y proteger sus organizaciones al mismo tiempo que ofrecen los beneficios de TI.

Source link

Los usuarios de la UE podrán cancelar la asociación de Google Apps

En los últimos años ha habido una creciente preocupación por la privacidad de los datos y la publicidad personalizada en la Unión Europea. Con el auge del big data y la creciente influencia de los gigantes tecnológicos, los reguladores de la UE han tomado medidas para proteger los datos de los usuarios y garantizar mercados digitales justos y abiertos. Google ahora está tomando medidas para garantizar que cumple con la Ley del Mercado Digital (DMA) de la UE. Google publicó recientemente un nuevo documento de soporte que presenta una medida que tomó en respuesta a la Ley del Mercado Digital de la UE que entró en vigor el 6 de marzo. Los usuarios de la UE podrán cancelar la Asociación de Google Apps entre servicios específicos. En términos simples, los usuarios de la UE pueden decidir no vincular los servicios de Google. Si la asociación o el vínculo de la aplicación de Google están activos, los datos y las actividades del usuario se compartirán entre todos los productos de Google. Por ejemplo, los vídeos que un usuario ve en YouTube pueden afectar el contenido que se muestra en el feed de la página de inicio de la aplicación Google. Cuando todos los datos están integrados, se puede crear una cartera publicitaria más potente. De esta forma, el usuario puede recibir anuncios “más personalizados”. Sin embargo, no a todo el mundo le gusta esto y los usuarios deberían tener derecho a elegir. Hasta ahora, la opción para decidir si permitir o no la asociación de aplicaciones de Google no estaba disponible. Sin embargo, Google ahora está haciendo cambios. A través de esta medida, los usuarios de la UE podrán elegir qué datos compartir en los servicios de Google. Servicios de Google cuya asociación se puede cancelar Gracias a la Ley de Mercados Digitales, los usuarios de la UE podrán cancelar la asociación de 7 servicios de Google en las próximas semanas. Buscar Youtube Publicidad Servicios Play Store Navegador Chrome Google Shopping Google Map El documento también aclara que cancelar el servicio de asociación no cancelará la cuenta de Google del usuario para ningún servicio. Incluso si el usuario cancela la asociación «interna» con los servicios de Google antes mencionados, los datos aún pueden compartirse con plataformas de terceros. Según Android Central, la redacción utilizada en este documento es muy obvia y aún anima a los usuarios a mantener la conexión entre los servicios. Google dijo que los servicios vinculados de Google trabajan juntos para ayudar a personalizar su contenido y anuncios, y «algunas funciones desaparecerán» cuando desvincule el servicio. Si la Búsqueda, YouTube y Chrome no están conectados, las páginas Qué mirar y Descubrir serán menos personalizadas. Si las reservas anteriores del usuario (billetes de avión, hoteles) a través de búsquedas de Google no están asociadas con Google Maps, (estos resultados) no se mostrarán en Google Maps. Esta no es la mayor concesión que ha hecho Google para cumplir con la Ley de Mercados Digitales. También se exige a Google que deje de “preferir” sus servicios en los rankings de resultados de búsqueda, dando prioridad al contenido de sus productos. Sin embargo, este movimiento de Google es un paso decente. También muestra que la empresa tiene la intención de obedecer la DMA. Gizchina Noticias de la semana La Ley de Mercados Digitales (DMA) La Ley de Mercados Digitales (DMA) es una legislación que tiene como objetivo garantizar mercados digitales justos y abiertos mediante el establecimiento de reglas para los gigantes tecnológicos guardianes, que son empresas que brindan servicios esenciales entre empresas y consumidores. . Estas empresas, como Amazon, Google y otras, se consideran guardianes debido a su importante poder de mercado y su influencia en diversos sectores. La DMA impone varias obligaciones a los guardianes, entre ellas: Permitir que terceros interoperen con sus servicios. Proporcionar a las empresas herramientas publicitarias e información necesaria para sus usuarios comerciales. Garantizar la compatibilidad con los productos de la competencia. Uno de los aspectos clave de la DMA es la regulación de las transferencias de datos y la publicidad personalizada. La legislación exige que los datos de los usuarios se recopilen de diferentes fuentes sólo con el consentimiento explícito del usuario. Esto significa que las empresas deben obtener el permiso de los usuarios antes de recopilar y utilizar sus datos con fines publicitarios personalizados. Desafíos y oportunidades Si bien la DMA representa un importante paso adelante en la protección de datos y los mercados digitales justos, todavía existen desafíos y oportunidades que deben abordarse: Desafíos 1. Falta de una ley federal de privacidad en los EE. UU.: La ausencia de una ley de privacidad integral La legislación estadounidense dificulta que las empresas con sede en Estados Unidos, como Google, cumplan con las normas de protección de datos de la UE. Esto podría generar inseguridad jurídica y posibles conflictos entre las normas de protección de datos de la UE y los EE. UU. 2. Desafíos de aplicación: hacer cumplir la DMA y garantizar el cumplimiento de sus reglas puede resultar difícil, especialmente cuando se trata de grandes empresas de tecnología que cuentan con amplios recursos y operaciones internacionales complejas. La UE necesitará invertir en mecanismos de aplicación sólidos. También deberá garantizar que la legislación se aplique efectivamente. Oportunidades 1. Mayor transparencia: La DMA exige que los guardianes proporcionen información clara y transparente sobre sus prácticas de procesamiento de datos y el consentimiento del usuario. Esta mayor transparencia puede ayudar a los usuarios a comprender mejor cómo se utilizan y comparten sus datos, lo que lleva a decisiones más informadas sobre sus actividades en línea. 2. Mercados digitales más justos: al garantizar que los guardianes cumplan con las reglas de la DMA, la legislación tiene como objetivo crear mercados digitales más justos, permitiendo que nuevos actores ingresen al mercado y desarrollen servicios innovadores. Esto también puede conducir a una mayor competencia y a una gama más diversa de productos y servicios para los consumidores. Conclusión Google ahora está tomando buenas medidas para garantizar el cumplimiento de la Ley de Mercados Digitales. La empresa ahora permitirá a los usuarios cancelar la vinculación de los servicios de Google. Esto significa que cuando el usuario hace algo en una aplicación, los datos no se compartirán con otros servicios. La Ley de Mercados Digitales de la Unión Europea representa un paso importante hacia la protección de los datos de los usuarios y la garantía de mercados digitales justos y abiertos. Al regular las transferencias de datos y la publicidad personalizada, la DMA tiene como objetivo crear un panorama digital más transparente y equitativo. Sin embargo, se deben abordar desafíos como la inseguridad jurídica y los desafíos de aplicación para garantizar el éxito de la legislación. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

Tendencias de transformación digital para 2024: a qué prestar atención

La transformación digital ha sido un imperativo continuo para las empresas a nivel mundial y, a medida que nos acercamos a 2024, varias tendencias importantes están preparadas para redefinir el terreno. Estas tendencias desempeñarán un papel crucial en la configuración de cómo las organizaciones en los EE. UU. utilizan la tecnología para fomentar la innovación, sostener la competitividad y responder a las preferencias cambiantes de los clientes y la dinámica del mercado. Según estadísticas recientes del Departamento de Comercio de EE. UU., más del 70% de las empresas del país se han embarcado en iniciativas de transformación digital. Además, se prevé que aumente la adopción de la computación en la nube, y las estimaciones indican que casi el 80% de las empresas estadounidenses habrán migrado a la nube para 2024. Se prevé que la inteligencia artificial (IA) y el aprendizaje automático se conviertan en componentes integrales de las estrategias comerciales, con Se espera que el 60% de las empresas estadounidenses incorporen aplicaciones impulsadas por IA en sus operaciones. Además, la ciberseguridad seguirá siendo una preocupación primordial a medida que las amenazas cibernéticas sigan aumentando. Exploremos las principales tendencias en transformación digital a tener en cuenta. Hiperautomatización y toma de decisiones impulsada por IA La evolución de la automatización está avanzando con la llegada de la hiperautomatización. Esta tendencia combina la automatización de procesos robóticos (RPA) con la inteligencia artificial (IA) y el aprendizaje automático, lo que lleva a la automatización de procesos comerciales complejos, mejorando su eficiencia y precisión. Las organizaciones se apoyarán progresivamente en procedimientos de toma de decisiones impulsados ​​por la IA, lo que les permitirá aprovechar el potencial del análisis de datos para una toma de decisiones más rápida y mejor informada. Ecosistemas digitales integrados La trayectoria de la digitalización empresarial está preparada para pasar de iniciativas aisladas a ecosistemas integrados. Esto marcará el comienzo del surgimiento de plataformas digitales diseñadas para unir una amplia gama de socios, tecnologías y salidas de datos. Estos ecosistemas interconectados permitirán a las empresas forjar nuevos canales de ingresos, elevar las interacciones con los clientes y promover la colaboración en un espectro expansivo. En consecuencia, se prevé que la floreciente economía de plataformas digitales ejerza una influencia transformadora en numerosos sectores, lo que indica un cambio profundo en la forma en que las empresas operan e innovan en la era digital. A medida que las organizaciones aprovechen cada vez más estas plataformas para mejorar la conectividad y la colaboración, obtendrán una ventaja competitiva al desbloquear nuevas oportunidades, optimizar sus operaciones y ofrecer un mayor valor a sus clientes. Privacidad de datos y ciberseguridad La privacidad y seguridad de los datos también son preocupaciones importantes. Para afrontar este desafío, se espera que las empresas realicen inversiones sustanciales en medidas de ciberseguridad de vanguardia. Adoptar la tecnología blockchain se convertirá en una práctica común por su capacidad para garantizar transacciones seguras y registros de datos inmutables. Se prevé que las empresas estadounidenses destinen una parte sustancial de sus presupuestos de TI a fortalecer sus medidas de seguridad digital. Además, la privacidad de los datos y el cumplimiento de regulaciones como la Ley de Privacidad del Consumidor de California (CCPA) y el Reglamento General de Protección de Datos (GDPR) serán puntos focales para las organizaciones que operan en el panorama digital de EE. UU. en 2024. Además, la aplicación de estrictas regulaciones de protección de datos obligará a las organizaciones a fortalecer sus prácticas de manejo de datos. En este entorno, generar y preservar la confianza con los clientes dependerá del establecimiento y mantenimiento de protocolos sólidos de seguridad de datos. Estas medidas proactivas no solo salvaguardarán la información confidencial sino que también reafirmarán el compromiso de las empresas con la confidencialidad y la integridad de los datos que se les confían, asegurando a los clientes que sus datos están en buenas manos. 5G y Edge Computing La proliferación de redes 5G se acelerará, ofreciendo mayor velocidad y conectividad inquebrantable. Los atributos excepcionales de 5G, que incluyen una latencia mínima y un ancho de banda expansivo, potenciarán el procesamiento instantáneo de datos, revolucionando la IoT y las exigentes aplicaciones en tiempo real. Esto, junto con el aumento de la computación de punta, respaldará los avances en vehículos autónomos, ciudades inteligentes e industrias impulsadas por tecnologías de IoT. En conjunto, estos avances tecnológicos prometen remodelar el panorama de la conectividad y allanar el camino para innovaciones sin precedentes en diversos sectores. Sostenibilidad en la transformación digital Las empresas están colocando la sostenibilidad a la vanguardia de sus iniciativas de transformación digital, reconociéndola como un impulsor fundamental y no como una mera palabra de moda. Este cambio fundamental implica la integración de prácticas ecológicas en sus estrategias. El enfoque se extiende a adoptar tecnologías verdes, frenar el uso de energía y defender la responsabilidad social corporativa. Este movimiento hacia la transformación digital sostenible significa un doble compromiso: no solo con la gestión ambiental sino también con la obtención de una ventaja competitiva en un mundo donde las cuestiones ecológicas cobran gran importancia. Al aprovechar el poder de las prácticas sostenibles, las organizaciones se están posicionando como líderes responsables, cumpliendo con las expectativas de los consumidores conscientes del medio ambiente y garantizando un futuro próspero a largo plazo. En este panorama, la transformación digital sostenible no es simplemente una opción; se ha convertido en una vía fundamental para que las empresas prosperen, innoven y generen un impacto positivo en el planeta. Charter Global se dedica a unir a la comunidad global a través de la tecnología. Nuestro equipo está formado por solucionadores de problemas con visión de futuro impulsados ​​por el deseo de proporcionar soluciones de vanguardia a nuestros clientes. Haciendo hincapié en resultados tangibles, nos hemos convertido en líderes en la industria de TI, reconocidos por nuestro compromiso con la excelencia. Nuestro grupo diverso de personas proviene de varios rincones del mundo, unidos por una visión común y una dedicación para lograr cambios positivos. En Charter Global, hacemos que la TI suceda; Póngase en contacto con nosotros para ayudar a dar forma al futuro de la innovación digital.

Source link

Funciona con WordPress & Tema de Anders Norén