Getty Images/JLGutierrez El auge de la inteligencia artificial generativa ha ayudado a los profesionales a delegar tareas menores y cambiar su enfoque hacia tareas de mayor importancia. Sin embargo, la consultora Gartner informa que la IA generativa también ha aumentado las preocupaciones en torno a la infracción de derechos de autor, lo que ralentizará la adopción de la tecnología. Además: los errores de clasificación de imágenes de la IA podrían arruinarle la vida. He aquí una forma de reducirlos: los modelos de IA generativa deben entrenarse con grandes cantidades de datos, que frecuentemente (como en el caso de ChatGPT) incluyen contenido en Internet. Este proceso significa que muchos modelos de IA generan respuestas basadas en el trabajo de otras personas, incluso si los autores originales no otorgaron permiso explícito para que su trabajo se utilice para el entrenamiento del modelo de IA. Como resultado, muchas organizaciones, como The New York Times, han emprendido acciones legales, alegando que los chatbots resultantes están cometiendo una infracción de derechos de autor. Sin embargo, a medida que la IA generativa se convierta en la norma, las empresas comenzarán a adoptar un enfoque preventivo, lo que les costará tiempo y dinero a las empresas de IA. Gartner predice que, para 2026, el gasto defensivo de las empresas para reducir el riesgo de pérdida de propiedad intelectual (PI) y La infracción de los derechos de autor ralentizará la adopción de la tecnología emergente y disminuirá sus beneficios. «A medida que GenAI avanza, los reguladores se apresuran a mantener el ritmo», afirmó Rita Sallam, distinguida vicepresidenta analista de Gartner. «El riesgo de propiedad intelectual no es un problema nuevo. Sin embargo, el riesgo de infracción de derechos de autor, que anteriormente era un riesgo limitado, ahora afecta potencialmente a todos en la organización». Además: ¿Puede la IA ser un jugador de equipo en el desarrollo de software colaborativo? Gartner también predice que, para 2028, Más del 50% de las empresas que optaron por construir sus grandes modelos lingüísticos desde cero renunciarán a sus esfuerzos debido a los costos, la complejidad y la deuda técnica requerida para mantener esos modelos. Como resultado, la firma dice que los directores de datos y análisis deberían equilibrar su ambición de IA con su tolerancia al riesgo para maximizar los resultados. Salam añadió: «La clave será diseñar sistemas abiertos para cambiar de modelo cuando la innovación lo justifique».

Source link