Evaluar la seguridad de los datos con más detalle después de los recientes cambios en la política antrópica y cómo AWS puede proteger sus datos de los modelos de IA ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ⚙. Automatización de seguridad (Pre-Ai). El código.. AI Automatización. El código.🔒 Historias relacionadas: CyberSecurity | Pruebas de penetración💻 Contenido gratuito en trabajos en ciberseguridad | ✉️ Regístrese en la lista de correo electrónico ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~. Hoy me levanté para escribir algún código con AI y comencé a hacer preguntas sobre cómo proteger mi código enviado a modelos AI. Pregunté específicamente sobre Claude Code y Amazon Q.ANTROPY acaba de cambiar su política para usar su Datathat cuando supe que literalmente hace unos días, Anthrope cambió sus políticas para usar sus datos para entrenar sus modelos de forma predeterminada. Estuve en un evento de AWS Heroes hace solo un mes, donde estaba probando algunas ideas con Claude Code y uno de mis compañeros Héroes de AWS me dijo que Anthrope era una de las buenas compañías que prometió nunca usar sus datos con algunas excepciones cuando creen que podría estar ocurriendo algunos abusos. Bueno, supongo que eso cambió.