Cada vez más personas están preocupadas por perder sus trabajos por inteligencia artificial o robots. La amarga verdad es que no solo reemplaza el trabajo humano, sino que incluso decide por sí mismo quién recibirá la bota cada vez más. Una encuesta de los Estados Unidos está haciendo que las personas se sienten y se den cuenta. ResumeBuilder (una aplicación/plataforma para solicitantes de empleo) pidió a más de 1.300 gerentes HR (recursos humanos) sobre su uso de IA en el trabajo. Es poco probable que la tendencia complace a muchos empleados: los chatbots como ChatGPT juegan cada vez más en futuras decisiones de reclutamiento. Pulgares hacia arriba o pulgares hacia abajo? Así es como ChatGPT decide si mantiene su trabajo de hecho, el 78 por ciento de los encuestados compartió que usan LLM (modelos de idiomas grandes) para decidir si alguien es elegible para un aumento salarial. La proporción de aquellos que usan ChatGPT, Claude o Gemini para determinar quién tiene derecho a una promoción es igualmente alta, un enorme 77 por ciento. Otro 66 por ciento buscó consejos de inteligencia artificial cuando se trata de despidos. Casi tantos preguntan a ChatGPT y modelos de IA similares sobre cómo exactamente deben proceder con estos despidos. Esto significa que la IA no solo juega un papel en la decisión en sí, sino que también ayuda a dar forma a la redacción, tal vez para formar un aterrizaje más suave. Aquí es donde surgen preguntas éticas. De hecho, esto es aún más cierto para otro valor: ¡uno de cada cinco de los encuestados mencionados ChatGPT incluso toma la decisión final sobre si alguien es despedido o no! AI decide: ¿es esta una buena o mala idea? La encuesta reveló que alrededor de la mitad de los tomadores de decisiones de recursos humanos confían en ChatGPT, seguido de cerca por Microsoft Copilot y Google Gemini. Lo que todas estas plataformas tienen en común es que no tienen preferencias personales cuando se trata de decisiones de personal. Esto suena positivo al principio: después de todo, no hay desventajas porque a un gerente no le gusta la nariz del empleado, y no hay promociones inmerecidas porque la persona está relacionada con el jefe. Entonces, sí, en teoría, una decisión con la ayuda de la IA podría ser más justa, siempre y cuando los datos y las reglas sean justos y todo se comunique de manera transparente. La preselección de los candidatos relevantes podría ser más eficiente y objetivo. Sin embargo, lo que habla en contra de la asistencia de IA, debemos hacernos preguntas éticas y también cuestionar el grado de objetividad. Cualquiera que use regularmente ChatGPT habrá notado que al LLM le gusta hablar con nosotros. Esto significa que nuestras impresiones personales a menudo son reforzadas y apoyadas por AI. También tenemos que tener en cuenta un sesgo que puede resultar de la capacitación y las indicaciones utilizadas. Sobre todo, sin embargo, una IA también carece de contexto: ¿cómo se ha desarrollado una persona a lo largo de los años, ¿qué papel juegan en el equipo y qué tan bueno/malo es el ajuste interpersonal? Estas son cosas que pueden estar subrepresentadas en la base de datos. También es posible que una decisión de IA pueda ayudar a una empresa a eludir la responsabilidad cuando se trata de hacer situaciones difíciles para los humanos. En combinación con la sensación de que la fuerza laboral se está deshumanizada e intercambiable de alguna manera, esto podría tener un impacto dramático en la atmósfera de trabajo. ¿Ai inclinando la balanza? ¡No en este momento! La tendencia probablemente será imparable, pero aún debe observarse con mucho escepticismo. La IA ya puede proporcionar un valioso apoyo en el área de los recursos humanos, pero tal como están las cosas, es cualquier cosa menos una buena idea dejar la decisión final de Chatgpt. Vivimos en tiempos en que la IA no (todavía) reemplaza nuestros trabajos en grandes cantidades. Sin embargo, ya se está utilizando como excusa para los despidos. Es de temer que el umbral de inhibición para tales despidos disminuya si la culpa ahora también puede colocarse en la IA.