La inteligencia artificial (IA) es un tema candente en este momento. Está en todas partes. Probablemente ya la uses todos los días. ¿Ese chatbot con el que estás hablando sobre tu paquete perdido? Impulsado por IA conversacional. ¿Los artículos «recomendados» alineados bajo tus compras de Amazon más frecuentes? Impulsados ​​por algoritmos de IA/ML (aprendizaje automático). Incluso podrías usar IA generativa para ayudar a escribir tus publicaciones o correos electrónicos de LinkedIn. Pero ¿dónde termina la línea? Cuando la IA aborda tareas monótonas y repetitivas, así como investiga y crea contenido a un ritmo mucho más rápido que cualquier humano, ¿por qué necesitaríamos humanos? ¿Es realmente necesario el «elemento humano» para que una empresa funcione? Profundicemos en los beneficios, desafíos y riesgos con respecto a la mejor persona (¿o entidad?) para el trabajo: ¿robot o humano? Por qué funciona la IA La IA tiene el poder de optimizar los procesos comerciales y reducir el tiempo dedicado a tareas que consumen la productividad general de los empleados y el resultado comercial durante su jornada laboral. Las empresas ya están adoptando la IA para múltiples funciones, ya sea revisar currículums para solicitudes de empleo, identificar anomalías en conjuntos de datos de clientes o escribir contenido para redes sociales. Y pueden hacer todo esto en una fracción del tiempo que les llevaría a los humanos. En circunstancias en las que el diagnóstico y la intervención tempranos son fundamentales, la implementación de la IA puede tener un impacto enormemente positivo en todos los ámbitos. Por ejemplo, se informa que un análisis de sangre mejorado con IA podría ayudar a predecir la enfermedad de Parkinson hasta siete años antes de la aparición de los síntomas, y eso es solo la punta del iceberg. Gracias a su capacidad para descubrir patrones en grandes cantidades de datos, las tecnologías de IA también pueden respaldar el trabajo de las agencias de aplicación de la ley, incluso ayudándolas a identificar y predecir posibles escenas y tendencias del crimen. Las herramientas impulsadas por IA también tienen un papel que desempeñar en la lucha contra el crimen y otras amenazas en el ámbito en línea y en ayudar a los profesionales de la ciberseguridad a hacer su trabajo de manera más eficaz. La capacidad de la IA para ahorrar dinero y tiempo a las empresas no es nada nuevo. Piénselo: cuanto menos tiempo dediquen los empleados a tareas tediosas como escanear documentos y cargar datos, más tiempo podrán dedicar a la estrategia y el crecimiento empresarial. En algunos casos, es posible que ya no se necesiten contratos a tiempo completo, por lo que la empresa gastaría menos dinero en gastos generales (es comprensible que esto no sea bueno para las tasas de empleo). Los sistemas basados ​​en IA también pueden ayudar a eliminar el riesgo de error humano. Existe el dicho «somos humanos» por una razón. Todos podemos cometer errores, especialmente después de cinco cafés, solo tres horas de sueño y una fecha límite inminente. Los sistemas basados ​​en IA pueden funcionar las 24 horas del día sin cansarse nunca. En cierto modo, tienen un nivel de confiabilidad que no se obtiene ni siquiera con el humano más orientado a los detalles y metodológico. Las limitaciones de la IA Sin embargo, no se equivoque: si se analiza más de cerca, las cosas se complican un poco más. Si bien los sistemas de IA pueden minimizar los errores asociados con la fatiga y la distracción, no son infalibles. La IA también puede cometer errores y «alucinar»; es decir, decir falsedades mientras se presenta como si fuera correcto, especialmente si hay problemas con los datos con los que se entrenó o con el algoritmo en sí. En otras palabras, los sistemas de IA son tan buenos como los datos con los que se entrenan (lo que requiere experiencia y supervisión humanas). Siguiendo con este tema, si bien los humanos pueden afirmar ser objetivos, todos somos susceptibles a sesgos inconscientes basados ​​en nuestras propias experiencias vividas, y es difícil, incluso imposible, desactivarlo. La IA no crea sesgos inherentemente; más bien, puede amplificar los sesgos existentes presentes en los datos con los que se entrena. Dicho de otra manera, una herramienta de IA entrenada con datos limpios e imparciales puede, de hecho, producir resultados puramente basados ​​en datos y corregir la toma de decisiones humana sesgada. Dicho esto, esto no es una hazaña fácil y garantizar la imparcialidad y la objetividad en los sistemas de IA requiere un esfuerzo continuo en la curación de datos, el diseño de algoritmos y el monitoreo continuo. Un estudio de 2022 mostró que el 54% de los líderes tecnológicos declararon estar muy o extremadamente preocupados por el sesgo de la IA. Ya hemos visto las desastrosas consecuencias que puede tener para las empresas el uso de datos sesgados. Por ejemplo, debido al uso de conjuntos de datos sesgados de una compañía de seguros de automóviles en Oregón, a las mujeres se les cobra aproximadamente un 11,4 % más por su seguro de automóvil que a los hombres, ¡incluso si todo lo demás es exactamente igual! Esto puede conducir fácilmente a una reputación dañada y a la pérdida de clientes. Como la IA se alimenta de conjuntos de datos expansivos, esto plantea la cuestión de la privacidad. Cuando se trata de datos personales, los actores con intenciones maliciosas pueden encontrar formas de eludir los protocolos de privacidad y acceder a estos datos. Si bien existen formas de crear un entorno de datos más seguro en todas estas herramientas y sistemas, las organizaciones aún deben estar atentas a cualquier brecha en su ciberseguridad con esta superficie de datos adicional que implica la IA. Además, la IA no puede comprender las emociones de la misma manera que lo hacen (la mayoría de) los humanos. Los humanos que están al otro lado de una interacción con la IA pueden sentir una falta de empatía y comprensión que podrían obtener de una interacción «humana» real. Esto puede afectar la experiencia del cliente/usuario, como lo demuestra el juego World of Warcraft, que perdió millones de jugadores al reemplazar su equipo de servicio al cliente (que solía estar formado por personas reales que incluso entraban al juego para mostrarles a los jugadores cómo realizar acciones) por robots de IA que carecen de humor y empatía. Con su conjunto de datos limitado, la falta de contexto de la IA puede causar problemas en torno a la interpretación de los datos. Por ejemplo, los expertos en ciberseguridad pueden tener un conocimiento previo de un actor de amenaza específico, lo que les permite identificar y señalar señales de advertencia que una máquina puede no tener si no se alinea perfectamente con su algoritmo programado. Son estos matices intrincados los que tienen el potencial de tener enormes consecuencias en el futuro, tanto para la empresa como para sus clientes. Entonces, mientras que la IA puede carecer de contexto y comprensión de sus datos de entrada, los humanos carecen de una comprensión de cómo funcionan sus sistemas de IA. Cuando la IA opera en «cajas negras», no hay transparencia sobre cómo o por qué la herramienta ha dado el resultado o las decisiones que ha proporcionado. Ser incapaz de identificar los «funcionamientos» detrás de escena puede hacer que las personas cuestionen su validez. Además, si algo sale mal o sus datos de entrada están contaminados, este escenario de «caja negra» dificulta la identificación, la gestión y la solución del problema. Por qué necesitamos personas Los humanos no son perfectos. Pero cuando se trata de hablar y resonar con las personas y tomar decisiones estratégicas importantes, seguramente los humanos son los mejores candidatos para el trabajo. A diferencia de la IA, las personas pueden adaptarse a situaciones cambiantes y pensar de manera creativa. Sin las reglas predefinidas, los conjuntos de datos limitados y las indicaciones que utiliza la IA, los humanos pueden usar su iniciativa, conocimiento y experiencias pasadas para abordar desafíos y resolver problemas en tiempo real. Esto es particularmente importante al tomar decisiones éticas y equilibrar los objetivos comerciales (o personales) con el impacto social. Por ejemplo, las herramientas de IA utilizadas en los procesos de contratación pueden no considerar las implicaciones más amplias de rechazar candidatos en función de sesgos algorítmicos y las consecuencias adicionales que esto podría tener en la diversidad e inclusión en el lugar de trabajo. Como el resultado de la IA se crea a partir de algoritmos, también corre el riesgo de ser formulístico. Considere la IA generativa utilizada para escribir blogs, correos electrónicos y subtítulos de redes sociales: las estructuras de oraciones repetitivas pueden hacer que el texto sea torpe y menos atractivo de leer. El contenido escrito por humanos probablemente tendrá más matices, perspectiva y, admitámoslo, personalidad. Especialmente en lo que respecta a los mensajes y el tono de voz de la marca, puede resultar difícil imitar el estilo de comunicación de una empresa utilizando los estrictos algoritmos que sigue la IA. Teniendo esto en cuenta, aunque la IA podría proporcionar una lista de posibles marcas, por ejemplo, son las personas detrás de la marca las que realmente entienden a sus audiencias y sabrían qué tendría más repercusión. Y con la empatía humana y la capacidad de «leer el ambiente», los humanos pueden conectarse mejor con los demás, fomentando relaciones más sólidas con los clientes, socios y partes interesadas. Esto es particularmente útil en el servicio de atención al cliente. Como se menciona más adelante, un servicio de atención al cliente deficiente puede provocar la pérdida de lealtad y confianza en la marca. Por último, pero no por ello menos importante, los humanos pueden adaptarse rápidamente a las condiciones cambiantes. Si necesita una declaración urgente de la empresa sobre un evento reciente o necesita alejarse del mensaje específico de una campaña, necesita un humano. Reprogramar y actualizar las herramientas de IA lleva tiempo, lo que puede no ser apropiado en determinadas situaciones. ¿Cuál es la respuesta? El enfoque más eficaz en materia de ciberseguridad no consiste en confiar únicamente en la IA o en los seres humanos, sino en aprovechar las ventajas de ambos. Esto podría significar utilizar la IA para gestionar el análisis y el procesamiento de datos a gran escala y, al mismo tiempo, confiar en la experiencia humana para la toma de decisiones, la planificación estratégica y las comunicaciones. La IA debe utilizarse como una herramienta para ayudar y mejorar su fuerza de trabajo, no para reemplazarla. La IA es la base de los productos de ESET, lo que permite a nuestros expertos en ciberseguridad centrar su atención en crear las mejores soluciones para los clientes de ESET. Descubra cómo ESET aprovecha la IA y el aprendizaje automático para mejorar la detección, la investigación y la respuesta ante amenazas.