Dependiendo de los titulares más populares del día, la IA es o una panacea o el presagio definitivo de la fatalidad. Podríamos resolver los problemas del mundo si simplemente le preguntáramos al algoritmo cómo. O te quitará el trabajo y se volverá demasiado inteligente para su propio bien. La verdad, como siempre, se encuentra en algún punto intermedio. Es probable que la IA tenga muchos impactos positivos que no cambien el mundo y al mismo tiempo ofrezca una buena cantidad de negatividad que no sea una amenaza para la sociedad. Para identificar el punto medio es necesario responder algunas preguntas interesantes sobre el uso apropiado de la IA. 1. ¿Podemos utilizar la IA sin supervisión humana? La respuesta completa a esta pregunta probablemente podría llenar volúmenes, pero no iremos tan lejos. En cambio, podemos centrarnos en un caso de uso que se está volviendo cada vez más popular y democratizado: los asistentes de IA generativa. A estas alturas, probablemente hayas utilizado ChatGPT o Bard o una de las docenas de plataformas disponibles para cualquier persona con una computadora. ¿Pero puedes activar estos algoritmos y estar completamente satisfecho con lo que escupen? La respuesta corta es no.» Estos chatbots son bastante capaces de tener alucinaciones, casos en los que la IA inventará respuestas. Las respuestas que proporciona provienen del conjunto de datos de entrenamiento del algoritmo, pero es posible que en realidad no se puedan rastrear hasta el conocimiento de la vida real. Tomemos como ejemplo la historia reciente de un abogado que presentó un escrito en un tribunal. Resulta que utilizó ChatGPT para escribir el informe completo, en el que la IA citó casos falsos para respaldar el informe.1 Cuando se trata de IA, la supervisión humana probablemente siempre será necesaria. Ya sea que el modelo analice patrones climáticos para predecir precipitaciones o evalúe un modelo de negocios, aún puede cometer errores o incluso proporcionar respuestas que no tienen sentido lógico. El uso apropiado de la IA, especialmente con herramientas como ChatGPT y similares, requiere un verificador de hechos humano. 2. ¿Pueden los creadores de IA corregir el sesgo algorítmico después del hecho? Una vez más, ésta es una cuestión más complicada de lo que permite este espacio. Pero podemos intentar examinar una aplicación más limitada de la pregunta. Considere que se ha descubierto que muchos algoritmos de IA en el mundo real exhiben un comportamiento discriminatorio. Por ejemplo, una IA tenía una tasa de error mucho mayor según el sexo o la raza de los sujetos. Otro riesgo de recluso clasificado incorrectamente, que conduce a tasas desproporcionadas de reincidencia.2 Entonces, ¿pueden quienes escriben estos algoritmos solucionar estas preocupaciones una vez que el modelo esté activo? Sí, los ingenieros siempre pueden revisar su código e intentar realizar ajustes después de publicar sus modelos. Sin embargo, el proceso de evaluación y auditoría puede ser un esfuerzo continuo. En cambio, lo que pueden hacer los creadores de IA es centrarse en reflejar los valores en la infancia de sus modelos. Los resultados de los algoritmos son tan sólidos como los datos con los que fueron entrenados. Si un modelo se entrena con una población de datos desproporcionada con respecto a la población que intenta evaluar, esos sesgos inherentes aparecerán una vez que el modelo esté activo. Por más sólido que sea un modelo, seguirá careciendo de la comprensión humana básica de lo que está bien y lo que está mal. Y probablemente no pueda saber si un usuario lo está aprovechando con intenciones nefastas en mente. Si bien los creadores ciertamente pueden realizar cambios después de construir sus modelos, el mejor curso de acción es centrarse en arraigar los valores que la IA debe exhibir desde el primer día. 3. ¿Quién es responsable de las acciones de una IA? Hace unos años, un vehículo autónomo atropelló y mató a un peatón.3 La pregunta que se convirtió en el centro del incidente fue: “¿quién fue el responsable del accidente?” ¿Fue Uber, de quién era el auto? ¿El operador del coche? En este caso, el conductor del vehículo, que estaba sentado en el vehículo, fue acusado de peligro. Pero ¿y si el coche hubiera estado vacío y fuera completamente autónomo? ¿Qué pasaría si un automóvil autónomo no reconociera a un peatón que cruza imprudentemente porque el semáforo era del color correcto? A medida que la IA se abre paso en más y más casos de uso públicos, la cuestión de la responsabilidad cobra gran importancia. Algunas jurisdicciones, como la UE, están avanzando en la legislación que rige la culpabilidad de la IA. La norma se esforzará por establecer diferentes “obligaciones para proveedores y usuarios dependiendo del nivel de riesgo de” la IA. Lo mejor para todos es ser lo más cuidadoso posible al usar la IA. Por ejemplo, el conductor del vehículo autónomo podría haber prestado más atención a la carretera. Las personas que comparten contenido en las redes sociales pueden hacer más diligencia para asegurarse de que lo que comparten no sea un contenido deepfake u otra forma de contenido generado por IA. 4. ¿Cómo equilibramos los beneficios de la IA con sus preocupaciones de seguridad y privacidad? Esta puede ser la cuestión más apremiante de todas las relacionadas con el uso adecuado de la IA. Cualquier algoritmo necesita grandes cantidades de datos de entrenamiento para desarrollarse. En los casos en que el modelo evalúe a personas de la vida real para medidas antifraude, por ejemplo, probablemente será necesario capacitarlo con información del mundo real. ¿Cómo se aseguran las organizaciones de que los datos que utilizan no corren riesgo de ser robados? ¿Cómo saben las personas qué información están compartiendo y para qué fines se utiliza? Esta gran pregunta es claramente un collage de preguntas más pequeñas y específicas que intentan llegar al meollo del asunto. El mayor desafío relacionado con estas preguntas para las personas es si pueden confiar en que las organizaciones aparentemente utilizan sus datos para siempre o de forma segura. 5. Las personas deben tomar medidas para garantizar el uso adecuado de su información. Para las personas preocupadas por si su información se utiliza para capacitación en IA o si corre algún riesgo, existen algunas medidas que pueden tomar. La primera es realizar siempre una selección de cookies durante la navegación online. Ahora que la GDPA y la CCPA están en vigor, casi todas las empresas que hacen negocios en los EE. UU. o la UE deben colocar una señal de advertencia en su sitio web de que recopila información de navegación. Verificar esas preferencias es una buena manera de evitar que las empresas utilicen información cuando usted no lo desea. El segundo es aprovechar herramientas de terceros como McAfee+, que proporciona servicios como VPN, privacidad y protección de identidad como parte de una plataforma de seguridad integral. Con protección total contra el robo de identidad, tendrá una capa adicional de seguridad además de las opciones de cookies y otros buenos hábitos de navegación que haya desarrollado. No espere únicamente que sus datos se utilicen de forma adecuada: protéjalos hoy mismo. Presentamos McAfee+ Protección contra robo de identidad y privacidad para su vida digital Descargue McAfee+ ahora \x3Cimg height=»1″ width=»1″ style=»display:none» src=»https://www.facebook.com/tr?id= 766537420057144&ev=PageView&noscript=1″ />\x3C/noscript>’);