Imagínese caminando por una estación de tren llena de gente. Tiene prisa, se abre paso entre la multitud, sin darse cuenta de que las cámaras no solo lo están observando, sino que también lo están reconociendo. En la actualidad, nuestros datos biométricos son valiosos para las empresas por motivos de seguridad, para mejorar la experiencia del cliente o para mejorar su propia eficiencia. La biometría son rasgos físicos o de comportamiento únicos y forman parte de nuestra vida cotidiana. Entre ellos, el reconocimiento facial es el más común. La tecnología de reconocimiento facial proviene de una rama de la IA llamada visión artificial y es similar a dar vista a las computadoras. La tecnología escanea imágenes o videos de dispositivos como cámaras de CCTV y selecciona rostros. El sistema generalmente identifica y mapea 68 puntos específicos conocidos como puntos de referencia faciales. Estos crean una huella digital de su rostro, lo que permite que el sistema lo reconozca en tiempo real. Los puntos de referencia faciales incluyen las esquinas de los ojos, la punta de la nariz y los bordes de los labios. Ayudan a crear una representación matemática del rostro sin almacenar la imagen completa, lo que mejora tanto la privacidad como la eficiencia. Desde supermercados hasta estacionamientos y estaciones de tren, las cámaras de CCTV están en todas partes, haciendo su trabajo en silencio. Pero, ¿cuál es exactamente su trabajo ahora? Las empresas pueden justificar la recopilación de datos biométricos, pero el poder conlleva responsabilidad y el uso del reconocimiento facial plantea importantes preocupaciones en materia de transparencia, ética y privacidad. Cuando incluso el uso policial del reconocimiento facial puede considerarse poco ético, entonces la justificación empresarial se vuelve menos convincente, especialmente porque se sabe poco sobre cómo las empresas almacenan, gestionan y utilizan los datos. La captura y el almacenamiento de datos biométricos sin consentimiento podría violar nuestros derechos, incluida la protección contra la vigilancia y la retención de imágenes personales. Equilibrar la seguridad, la eficiencia y los derechos de privacidad es una elección ética compleja para las empresas. Como consumidores, a menudo podemos ser reacios a compartir nuestra información personal. Sin embargo, el reconocimiento facial plantea riesgos más graves, como las falsificaciones profundas y otras amenazas de suplantación de identidad. Tomemos como ejemplo la reciente revelación de que Network Rail ha estado monitoreando en secreto a miles de pasajeros utilizando el software de inteligencia artificial de Amazon. Esta vigilancia pone de relieve una cuestión crítica: la necesidad de transparencia y regulaciones estrictas, incluso cuando una empresa nos está observando para mejorar sus servicios. Un portavoz de Network Rail dijo: “Cuando implementamos tecnología, trabajamos con la policía y los servicios de seguridad para asegurarnos de que tomamos medidas proporcionadas y siempre cumplimos con la legislación pertinente en relación con el uso de tecnologías de vigilancia”. Uno de los principales desafíos es la cuestión del consentimiento. ¿Cómo puede el público dar su consentimiento informado si está constantemente monitoreado por cámaras y no sabe quién está almacenando y utilizando sus datos biométricos? Este problema fundamental subraya la dificultad de resolver las preocupaciones sobre la privacidad. Las empresas se enfrentan a la abrumadora tarea de obtener el consentimiento claro e informado de personas que tal vez ni siquiera sepan que están siendo observadas. Sin prácticas transparentes y mecanismos de consentimiento explícito, es casi imposible garantizar que el público esté realmente al tanto y acepte el uso de sus datos biométricos. Piense en su seguridad digital. Si le roban su contraseña, puede cambiarla. Si su tarjeta de crédito está comprometida, puede cancelarla. ¿Pero su rostro? Eso es permanente. Los datos biométricos son increíblemente sensibles porque no se pueden alterar una vez que están comprometidos. Esto los convierte en un juego de alto riesgo cuando se trata de seguridad. Si se viola una base de datos, los piratas informáticos podrían usar indebidamente estos datos para el robo de identidad, el fraude o incluso el acoso. Otro problema es el sesgo algorítmico y la discriminación. Si los datos se utilizan para la toma de decisiones, ¿cómo pueden las empresas garantizar que se incluyan datos diversos y suficientes para entrenar el algoritmo? Los algoritmos deben incluir un conjunto diverso de datos de referencia facial. Frame Stock Footage/Shutterstock Las empresas pueden usar datos biométricos para la autenticación, el marketing personalizado, el monitoreo de empleados y el control de acceso. Existe un riesgo significativo de sesgos de género y raciales si el algoritmo se entrena principalmente con datos de un grupo homogéneo, como hombres blancos. Las empresas también deben asegurarse de que no se perpetúe el sesgo digital. No hacerlo puede conducir a desigualdades sociales. Legislación y concienciación A medida que el reconocimiento facial se vuelve más común, la necesidad de una legislación sólida se vuelve urgente. Las leyes deben exigir un consentimiento claro antes de capturar los datos biométricos de cualquier persona. También deben establecer estándares estrictos sobre cómo se almacenan y protegen estos datos para evitar violaciones. Es igualmente crucial que el público tome más conciencia de este problema. Aunque las personas son cada vez más conscientes de la protección de datos, el reconocimiento facial suele pasar desapercibido. Es invisible en nuestra vida cotidiana y muchos no se dan cuenta de los riesgos y las cuestiones éticas. Educar al público es vital. Incorporar los principios de la IA responsable en el despliegue de la tecnología de reconocimiento facial sería un buen punto de partida. La IA responsable hace hincapié en la equidad, la responsabilidad, la transparencia y la ética. Esto significa que los sistemas de IA, incluido el reconocimiento facial, deben diseñarse y utilizarse de manera que respeten los derechos humanos, la privacidad y la dignidad. Sin embargo, las empresas no necesariamente priorizarán estos principios si no son responsables ante los organismos reguladores o el público. La transparencia es una piedra angular de la IA responsable. Si las organizaciones que utilizan el reconocimiento facial mantienen el secreto sobre sus prácticas, no podemos confiarles nuestros datos biométricos. Las empresas armadas solo con su información personal pueden ser muy poderosas en términos de marketing manipulador. Solo se necesita un «me gusta» para que las campañas personalizadas se dirijan a usted con mucha precisión. Ahora, los partidos políticos como el PTI en Pakistán han adoptado la tecnología de inteligencia artificial de visión para permitir que el líder Imran Khan haga campaña a pesar de cumplir una sentencia de prisión. La inteligencia artificial permitió a Imran Khan dirigirse a sus seguidores desde la prisión. La captura y el análisis de datos visuales son particularmente críticos en comparación con los datos no visuales porque brindan información más rica, más íntima y más inmediata sobre el comportamiento y la identidad humana. Es por eso que su creciente uso por parte de las empresas plantea tantas preocupaciones sobre la privacidad y el consentimiento. Mientras el público siga sin ser consciente de hasta qué punto se capturan y utilizan sus datos visuales, su información será vulnerable a un uso indebido o explotación. Kamran Mahroof, profesor asociado, Análisis de la cadena de suministro, Universidad de Bradford; Amizan Omar, profesor asociado de Gestión estratégica, Universidad de Bradford, e Irfan Mehmood, profesor asociado de Análisis de negocios, Universidad de Bradford Este artículo se republica de The Conversation bajo una licencia Creative Commons. Lea el artículo original.