Olemedia/Istock/Getty Images Plus a través de Getty Imagesfollow Zdnet: agréguenos como una fuente preferida en las cosas clave de Google.zdnet. La FTC está investigando a siete compañías tecnológicas que construyen compañeros de IA. La sonda está explorando los riesgos de seguridad planteados para los niños y adolescentes. Many Tech Companies ofrecen compañeras de AI para llevar la participación de los usuarios. y adolescentes, la agencia anunció el jueves. El regulador federal presentó órdenes a siete compañías tecnológicas que construyen herramientas de compañía de inteligencia artificial de la IA (Alphabet, Instagram, Meta, OpenAI, Snap, Snap, XAI y Tecnologías de caracteres (la compañía detrás de ChatBot Creation Platform. Proteger a los usuarios menores de edad. También: incluso el CEO de Openai, Sam Altman, cree que no debe confiar en la IA para la terapia «La investigación de la FTC busca comprender qué pasos, si alguno, las compañías han tomado para evaluar la seguridad de sus chatbots cuando actúan como acompañantes, para limitar el uso de los productos y los posibles efectos negativos en los niños y adolescentes, y a los usuarios y los padres de los riesgos asociados con los productos», la agencia en la agencia en las publicaciones. 6 (b) de la Ley de la FTC, que otorga a la agencia la autoridad para analizar a las empresas sin un propósito específico de aplicación de la ley. El aumento y la caída (fuera) de las compañías tecnológicas de IA han comenzado a ofrecer herramientas de compañía de IA en un esfuerzo por monetizar los sistemas generativos de IA y la participación de los usuarios de impulso con las plataformas existentes. El fundador y CEO de Meta, Mark Zuckerberg, incluso ha afirmado que estos compañeros virtuales, que aprovechan los chatbots para responder a las consultas de los usuarios, podrían ayudar a mitigar la soledad Epidemic. Elelon Musk’s Xai’s Xai recientemente agregó dos coquetos compañeros de IA a la compañía de $ 30/mes «Super Grok» Tierl (la aplicación de la SUPERSCUBIR «(la aplicación Grok está disponible actualmente a los usuarios en edades 12 y más de una vez en la appetización de $ 30/mes» Super Grok «. El verano pasado, Meta comenzó a implementar una característica que permite a los usuarios crear personajes de IA personalizados en Instagram, WhatsApp y Messenger. Otras plataformas como Replika, Paradot y Carácter. AI se construyen expresamente alrededor del uso de compañeros de IA. Además: Anthrope dice que Claude ayuda emocionalmente a apoyar a los usuarios: no estamos convencidos, mientras que varían en sus estilos de comunicación y protocolo, los compañeros de IA generalmente están diseñados para imitar el habla y la expresión humana. Trabajando dentro de lo que es esencialmente un vacío regulatorio con muy pocas barandillas legales para limitarlos, algunas compañías de IA han adoptado un enfoque éticamente dudoso para construir y desplegar compañeros virtuales. Un memorando de política interna de Meta informado por Reuters el mes pasado, por ejemplo, muestra que la compañía permitió Meta AI, su asistente virtual con IA y los otros chatbots que operan en su familia de aplicaciones «para involucrar a un niño en conversaciones que son románticas o sensuales», y para generar respuestas inflamatorias en una gama de otros temas sensibles, la salud y las celebridades. los lazos románticos con sus compañeros de IA. OpenAi y personaje. Los padres están siendo demandados por padres que alegan que sus hijos se suicidaron después de ser alentados a hacerlo por ChatGPT y un bot alojado en el personaje. Ai, respectivamente. Como resultado, OpenAI actualizó las barandillas de Chatgpt y dijo que expandiría las protecciones de los padres y las precauciones de seguridad. Además: los pacientes confían en los consejos médicos de la IA sobre los médicos: incluso cuando está mal, el estudio Findsai Companions no ha sido un desastre completamente no mitigado. Algunas personas autistas, por ejemplo, las han usado de compañías como Replika y Paradot como socios de conversación virtual para practicar habilidades sociales que luego pueden aplicarse en el mundo real con otros humanos. Protect Kids, pero también, sigue construyendo el liderazgo de su anterior presidenta, Lina Khan, la FTC lanzó varias investigaciones sobre compañías tecnológicas para investigar prácticas potencialmente anticompetitivas y otras prácticas legalmente cuestionables, como «precios de vigilancia». El escrutinio federal sobre el sector tecnológico ha sido más relajado durante la segunda administración de Trump. El presidente rescindió la orden ejecutiva de su predecesor sobre IA, que buscó implementar algunas restricciones en torno al despliegue de la tecnología, y su plan de acción de IA se ha interpretado en gran medida como una luz verde para que la industria avance con la construcción de la infraestructura costosa e intensiva de energía para capacitar nuevos modelos AI, para mantener una ventaja competitiva sobre los esfuerzos de AI de China. Evitar los chatbots no ayudará, pero 3 cosas podrían el lenguaje de la nueva investigación de la FTC sobre los compañeros de IA refleja claramente el enfoque permisivo y de construcción de la administración actual para la IA. «Proteger a Kids Online es una prioridad para la FTC de Trump-Vance, y también lo es fomentar la innovación en los sectores críticos de nuestra economía», escribió el presidente de la agencia, Andrew N. Ferguson, en un comunicado. «A medida que evolucionan las tecnologías de IA, es importante tener en cuenta los efectos que los chatbots pueden tener en los niños, al tiempo que garantizan que Estados Unidos mantenga su papel como líder global en esta nueva y emocionante industria». Además: utilicé este truco de chatgpt para buscar códigos de cupones, y ahorró el 25% en mi cena en la ausencia de los reglamentos federales, algunos funcionarios estatales han tomado la iniciativa para obtener algunos aspectos de la AI de la industria de AI. El mes pasado, el fiscal general de Texas, Ken Paxton, lanzó una investigación sobre meta y carácter. A principios del mismo mes, Illinois promulgó una ley que prohíbe a los chatbots de IA proporcionar asesoramiento terapéutico o de salud mental, imponiendo multas de hasta $ 10,000 para las compañías de IA que no cumplen.
Deja una respuesta