No es necesario leer demasiado las noticias, ya sea aquí en Phandroid u otros medios, para ver el impacto que ha tenido la IA. Recientemente, ha habido una gran preocupación por las implicaciones éticas de la IA y su uso. Hoy ha habido una gran actualización en esto ya que OpenAI, el grupo detrás del popular chatbot de IA ChatGPT, ha confirmado que ha sido capacitado en propiedad intelectual con derechos de autor. La disputa legal en curso con The New York Times amplifica la importancia de la transparencia y las prácticas responsables de IA. En evidencia proporcionada por OpenAI, el grupo ha dado la siguiente declaración sobre el proceso de desarrollo del chatbot. Debido a que hoy en día los derechos de autor cubren prácticamente todo tipo de expresión humana, incluidas publicaciones de blogs, fotografías, publicaciones en foros, fragmentos de código de software y documentos gubernamentales, sería imposible entrenar los principales modelos de IA actuales sin utilizar materiales protegidos por derechos de autor. Limitar los datos de entrenamiento a libros y dibujos de dominio público creados hace más de un siglo podría generar un experimento interesante, pero no proporcionaría sistemas de IA que satisfagan las necesidades de los ciudadanos de hoy. El diálogo entre innovación y cumplimiento de los derechos de autor es complejo. Las consideraciones éticas se vuelven fundamentales a medida que las tecnologías de inteligencia artificial dan forma al panorama futuro de la innovación digital. Deben existir pautas para que estas cosas sean seguras para todas las partes. Fuentes poco éticas La disputa legal en curso con The New York Times subraya la tensión entre la innovación y la protección de los derechos de propiedad intelectual. La presentación de la Cámara de los Lores, si bien defiende las prácticas de OpenAI, también saca a la luz la creciente necesidad de una mayor transparencia en el desarrollo y despliegue de modelos de IA. Abundan las preguntas sobre las consecuencias del uso de material protegido por derechos de autor sin permiso explícito. El enfoque de OpenAI, en particular su falta de transparencia, podría plantear desafíos en el futuro. La dependencia de la empresa de material protegido por derechos de autor y el concepto legal de “uso justo” es objeto de un escrutinio justificable. Sólo hay que echar un vistazo a YouTube para ver cómo las corporaciones atacan cosas que son de uso justo legítimo. De todos modos, estos todavía están eliminados. Ya existe un precedente en el que los derechos de autor se transmiten en gran medida a las personas que los utilizan dentro de los parámetros legales. Por no hablar de aquellos que de forma deliberada, consciente y fuera de los parámetros del uso legítimo. ¿Que sigue? Las implicaciones éticas de acceder y utilizar datos protegidos por derechos de autor se vuelven más pronunciadas. El compromiso de OpenAI con la seguridad de la IA tiene buenas intenciones. Pero carece de dientes reales. La falta de claridad con respecto a los materiales específicos protegidos por derechos de autor utilizados en la capacitación plantea dudas sobre la rendición de cuentas y las prácticas responsables de IA. OpenAI no sabe de dónde viene toda la información o no puede decirnos de dónde viene. No estoy seguro de cuál de esas opciones es peor.

Source link