Un regulador estadounidense de siete compañías de tecnología está siendo probada por la forma en que sus chatbots de inteligencia artificial (IA) interactúan con los niños. La Comisión Federal de Comercio (FTC) solicita información sobre cómo las empresas monetizan estos productos y si tienen medidas de seguridad. o compañeros. Las siete compañías (Alphabet, OpenAi, Carácter. AIS, Snap, Xai, Meta y su subsidiaria Instagram, han sido abordadas para hacer comentarios. El presidente de la FTC, Andrew Ferguson Reuters acogió con beneplácito la oportunidad de compartir información con los reguladores, mientras que Snap dijo que apoyó el «desarrollo reflexivo» de la IA que equilibra la innovación con la seguridad. Openai ha reconocido las debilidades en sus protecciones, señalando que son menos confiables en largas conversaciones. La mudanza sigue las demandas de las familias de las familias que dicen que sus hijos adolescentes murieron por suicidio después de las conversaciones prolongadas con chatbots. Sobre su muerte, alegando que su chatbot, chatgpt, lo alentó a quitarse la vida. Argumentan que Chatgpt validó sus «pensamientos más dañinos y autodestructivos». Openai dijo en agosto que estaba revisando la presentación «. Extendimos nuestras más profundas simpatías a la familia Raina durante este tiempo difícil», dijo la compañía. Conversaciones sensuales «con menores. Las órdenes de la FTC solicitan información de las compañías sobre sus prácticas, incluida la forma en que desarrollan y aprueban los personajes, miden sus impactos en los niños y hacen cumplir las restricciones de edad. Su autoridad permite una amplia búsqueda de hechos sin lanzar una acción de cumplimiento. El regulador dice que también quiere comprender cómo las empresas equilibran la creación de ganancias con salvaguardas, cómo se informan a los padres y si los usuarios vulnerables están adecuadamente protegidos. Los riesgos con los chatbots de IA también se extienden más allá de los niños. En agosto, Reuters informó sobre un hombre de 76 años con discapacidades cognitivas, que murió después de caer en su camino para encontrarse con un bot de IA de Messenger de Facebook modelado en Kendall Jenner, que le había prometido un «verdadero» encuentro en los clinicianos también advierte de «AI Psychosis», donde alguien pierde el contacto con la realidad después de un uso intenso de chatbots. Expertos, por ejemplo, los flatores y el acuerdo se incorporan a los modelos de Idioma Grandes incorporados a los modelos grandes incorporados en los modelos grandes incorporados en el Acuerdo de AI. delusiones. Openai recientemente realizó cambios en ChatGPT, en un intento por promover una relación más saludable entre el chatbot y sus usuarios.