Gguy/Shutterstock Anthrope anunció el jueves planes para recopilar datos de chat de Claude para entrenar versiones futuras del chatbot de IA, dando a los usuarios la capacidad de elegir si se incluye sus chats en esos datos de capacitación. Ese es el comportamiento habitual para productos de IA generativos como ChatGPT y Gemini. Los chatbots están capacitados en muchas fuentes de datos durante el desarrollo, incluida la información de las conversaciones que los usuarios podrían tener con la IA. En realidad, es sorprendente que Anthrope no haya recopilado datos de chat en años anteriores, considerando que OpenAi y Google tienen la configuración activada por defecto. Debe optar por no participar para evitar que sus datos se utilicen para capacitar a futuras versiones de ChatGPT y Gemini. La misma configuración de privacidad ahora está disponible para los usuarios de Claude, incluidos los clientes actuales y nuevos. Podrá optar por no participar en la recopilación de datos de Anthrope si lo desea, y puede cambiar de opinión en cualquier momento. Es posible que desee ayudar a Anthrope a desarrollar mejores versiones de Claude; No hay nada de malo en eso. Si desea que sus datos formen parte de las futuras ejecuciones de capacitación de Claude, aún debe tener en cuenta qué información le da al chatbot durante sus conversaciones y evitar compartir datos que son demasiado personales. El cambio de privacidad de Anthrope se aplica a los planes Claude Free, Pro y Max. Estas son las únicas cuentas de Claude que se verán afectadas. Claude for Work, Claude Gov, Claude for Education y el uso de API no se verán afectados, lo que significa que estas cuentas de Claude no contribuirán con datos para la capacitación de modelos en el futuro. Cómo evitar que Claude capacite en sus chats Anthrope no activará la recopilación de datos automáticamente para usuarios nuevos y existentes. La compañía explicó en una publicación de blog que a partir del jueves enviará notificaciones a los usuarios existentes de Claude para revisar la nueva configuración de privacidad. Tendrán hasta el 28 de septiembre para aceptar los nuevos términos de servicio y elegir si se deben hacer que sus datos entrenen futuras versiones de Claude. Anthrope dice que aceptar los cambios cuando recibe la notificación significa que la actualización de privacidad se aplicará inmediatamente a chats nuevos y reanudados o sesiones de codificación. Una vez que pase la fecha límite, deberá elegir seguir usando Claude. Detener a Claude para entrenar en sus chats es muy fácil. Una vez que vea la notificación anterior, deshabilite la opción «Puede ayudar a mejorar Claude». Eso significa alternar la configuración. Luego toque «Aceptar» y continúe con sus chats de Claude. La alternancia estará disponible en la configuración de privacidad de Claude si cambia de opinión en el futuro, o si presiona ese botón de aceptación demasiado rápido. Si es un nuevo usuario de Claude, se le mostrará la configuración para la capacitación del modelo durante el proceso de registro. Al igual que los usuarios existentes, podrá cambiar de opinión más tarde. Dado que los usuarios de Claude también pueden usar productos rivales como ChatGPT y Gemini, debe saber que puede evitar que ChatGPT entrene en sus chats. Del mismo modo, puede evitar que Gemini entrene en sus datos personales. Debe verificar la configuración de privacidad de cualquier otro chatbot que pueda usar para opciones similares. Cómo el antrópico almacena y utiliza sus datos para la capacitación de Claude Robert Way/Getty Images La compañía también anunció que conservará sus datos durante cinco años si elige ayudar a Anthrope Train Claude. La nueva política de retención de datos se aplica a las sesiones de chat nuevas y reanudadas. Si elige evitar que Claude entrene en sus chats personales, Anthrope retendrá sus datos por un período de 30 días. Además, Anthrope retendrá chats durante cinco años si envía comentarios sobre las interacciones con Claude. Si elimina un chat de Claude, esa conversación no se utilizará para la capacitación de modelos en caso de que anthrope recoja sus chats para mejorar el modelo. Si desactiva la capacitación modelo en el futuro, Anthrope dejará de recopilar datos de las interacciones de Claude que ocurren después de deshabilitar la función. Cualquier chats que permitiera que Anthrope use para el entrenamiento de Claude continuará utilizándose para las carreras de entrenamiento modelo que ya han comenzado. Pero Anthrope no usará esos datos para futuras ejecuciones de capacitación. Es importante destacar que Anthrope también explicó que utiliza «una combinación de herramientas y procesos automatizados para filtrar u ofuscar datos confidenciales» si permite que sus datos se utilicen para la capacitación de Claude. Aún así, debe evitar dar información confidencial a cualquier chatbot. Finalmente, Anthrope dice que no vende los datos de los usuarios a terceros.
Deja una respuesta