R. Bhattacharyya Resumen de viñetas: • La demanda del New York Times sobre la infracción de derechos de autor destaca los desafíos que enfrenta la sociedad al implementar la tecnología de inteligencia artificial de manera responsable y ética. • GlobalData ha identificado seis grandes categorías clave de cuestiones relacionadas con la IA responsable: explicabilidad; inclinación; ética; alucinaciones, toxicidad y envenenamiento; privacidad de datos y fuga de datos; e infracción de derechos de autor. Durante la semana entre Navidad y Año Nuevo, el New York Times demandó a Microsoft y OpenAI por infracción de derechos de autor, apareciendo en los titulares durante lo que normalmente es una época del año muy tranquila. La organización de noticias afirma que las dos empresas de tecnología utilizaron ilegalmente su contenido para entrenar ChatGPT y otros servicios que ofrecen a consumidores y empresas. La medida representa un cambio de estrategia para el New York Times. Desde abril pasado, el periódico había estado negociando con OpenAI y Microsoft para recibir una compensación por el uso de su trabajo para entrenar grandes modelos de lenguaje (LLM; Associated Press tiene un acuerdo de licencia vigente), pero hasta el momento no se ha llegado a ningún acuerdo. Probablemente, esta última medida del New York Times revitalizará esas conversaciones. Como es habitual, el entorno regulatorio no ha seguido el ritmo de la innovación tecnológica. Esta vez, las aguas turbias se relacionan con la protección de los derechos de autor. La IA generativa (GenAI) ha planteado varias cuestiones. Los productores de contenido no quieren que su material se utilice para capacitar a los LLM y afirman que está protegido contra dicho uso por derechos de autor. Por otro lado, muchos que trabajan en la industria de la tecnología creen que utilizar dicho contenido para capacitar a los LLM es legalmente aceptable según la doctrina del uso justo. En ausencia de un camino claro a seguir, varias organizaciones están implementando código que impide que los LLM extraigan material de sus sitios. El debate sobre los derechos de autor no gira solo en torno a los insumos utilizados para los LLM; también se extiende a las salidas. ¿Puede el trabajo producido por GenAI estar protegido por derechos de autor? La respuesta generalmente es no, no puede hacerlo, a menos que exista una contribución humana sustancial. En una decisión muy debatida en febrero de 2023, la Oficina de Derechos de Autor de EE. UU. otorgó protección de derechos de autor al texto y el trabajo (pero no a las imágenes generadas por IA) de un cómic creado con la ayuda de IA, ya que incluía aportaciones humanas sustanciales. Más importante aún, la demanda del New York Times destaca los desafíos que enfrenta nuestra sociedad al implementar la IA de manera responsable. La IA responsable se refiere al ideal de que los proyectos de IA, ya sea que se basen en IA predictiva o generativa, se implementen de manera que salvaguarden la privacidad, no causen daño, sean lo más transparentes posible, estén libres de sesgos y sean justos para todos. se ven impactados por ellos. GlobalData ha identificado seis grandes categorías clave de cuestiones relacionadas con la IA responsable: explicabilidad; inclinación; ética; alucinaciones, toxicidad y envenenamiento; privacidad de datos y fuga de datos; e infracción de derechos de autor. Los desafíos relacionados con la IA responsable existen desde hace años, pero han aumentado en número con el lanzamiento de GenAI y ChatGPT, y también se han vuelto más apremiantes y públicos. Las organizaciones que implementan IA deben asegurarse de que utilizan la tecnología de una manera responsable y ética; de lo contrario, corren el riesgo de sufrir daños significativos a la reputación de su marca, si no repercusiones legales y financieras. Es un objetivo muy ambicioso y alcanzarlo es una tarea de enormes proporciones.

Source link