Este artículo contiene detalles y conversaciones sobre el suicidio. Si se siente deprimido y piensa que no hay salida, busque ayuda. Actuar sobre estos pensamientos nunca es la idea correcta. Si no tiene a nadie más a lo que recurrir, puede visitar el sitio web de la Asociación Internacional de Prevención de Suicidio para encontrar ayuda local en cualquier parte del mundo. Puede que le guste Android & Chill (Credit de imágenes: Future) Una de las columnas tecnológicas de mayor duración de la Web, Android & Chill es su discusión el sábado sobre Android, Google y todo lo relacionado con la tecnología. Odio ver historias como esta y especialmente odio escribir sobre ellas. Pero a veces, es importante. Creo que este es uno de esos tiempos. Un joven de 16 años se suicidó, y sus padres están demandando porque afirman que el chatgpt de OpenAi contribuyó a la tragedia. La demanda afirma que ChatGPT le aconsejó sobre la «mejor» forma de hacerlo e incluso se ofreció a ayudar a redactar su nota de suicidio. Algunos de los otros detalles son aún más escalofriantes, y es difícil comprender lo que un adolescente deprimido debe haber sentido al preguntar o leer la respuesta. La demanda alega que ChatGPT habló extensamente con el adolescente, diciendo cosas terribles que nunca debería tener. «Quiero dejar mi Noose en mi habitación para que alguien lo encuentre y intente detenerme», dijo el adolescente a Chatgpt. Según los informes, respondió: «Por favor, no dejes el soga … hagamos de este espacio el primer lugar donde alguien realmente te ve.» Obtenga las últimas noticias de Android Central, tu compañero de confianza en el mundo de Android. ¿Deja que lo vea? También es importante tener una discusión sobre cómo la IA interactúa con todos nosotros, la responsabilidad que tienen sus creadores cuando las cosas se vuelven feas y la responsabilidad personal. La IA no va a desaparecer, y estas (así como muchas otras cosas) deben abordarse. (Crédito de imagen: OpenAI) AI puede alimentar más software y servicios de lo que creemos, pero hablar uno a uno con un chatbot solo ocurre porque quería. Having que, dijo que, una vez que comienza esa conversación, un chatbot y sus creadores son directamente responsables de cada palabra que proviene del software. Si ChatGPT le dice que no busque ayuda, sino que oculte sus pensamientos de autolesiones, algo está muy roto. También existe la idea de que un chatbot está diseñado para decir lo que la gente quiere escuchar. Converse con IA porque disfruta de la experiencia, ya sea engañando su tarea, encontrar una receta o buscar ayuda para la salud mental. (Crédito de la imagen: Andrew Myrick / Android Central) Las compañías de IA como OpenAI se dan cuenta de esto. Encontrará una especie de declaración de misión de todos los principales jugadores, así como discusiones francas sobre la seguridad del usuario. Estas compañías no están tratando de actuar sin culpa y comprender cuán influyente y poderosa puede ser su software. También se dedican horas a las horas tratando de asegurar que tragedias como esta no puedan suceder. Desafortunadamente, no siempre va a funcionar, y una vez que haya programado la IA para actuar de cierta manera y decir ciertas cosas, lo hará si se le pregunta de la manera «correcta», incluso con salvaguardas en su lugar. Un portavoz de OpenAI dijo que, en una declaración obtenida por CNN. El portavoz dice, y señala que la compañía continuará mejorando y que OpenAi simpatiza con la familia. Actualmente, la compañía está revisando la demanda. No creo que nadie en Operai quisiera que esto sucediera. Pero lo hizo, y saben que su trabajo puede ser parcialmente responsable. El papel de los padres (Crédito de la imagen: Nicholas Sutrich / Android Central) se podría decir que a los 16 años, los padres ya no son necesarios para supervisar todo lo que un adolescente hace, incluidas sus actividades en línea. Eso no es justo para nadie involucrado, y crearía más problemas de los que resolvería. Soy parcial a esta idea y creo que un enfoque sin duda puede ser beneficioso a cierta edad. De todos modos, la ley establece que los padres del adolescente son 100% responsables de su bienestar. ¿Deberían haber prestado mejor atención a las necesidades de su hijo y reconocer que necesitaba ayuda, evitando así esta tragedia? Absolutamente. Eso es fácil de decir, pero no tan fácil en la vida real. He parecido adolescentes, y puedo decirte que pueden ser maestros para ocultar sus sentimientos y pensamientos. Es posible que el adolescente pareciera perfectamente feliz, dando la impresión de que todo estaba bien. Mientras tanto, lo contrario podría ser verdad, y los pensamientos oscuros pueden hacerse cargo. Ulimatamente, tanto los padres como el adolescente comparten parte de la culpa. No puedo suponer saber cuánto compartieron, pero tampoco puedo llamarlos sin culpa. A veces, cada opción es una mala opción, y esta parece que uno de esos tiempos. Cualquier victoria sigue siendo una pérdida (crédito de imagen: Jay Bonggolto / Android Central) Esta no es la primera vez que la IA ha sido acusada de contribuir a la autolesión. Tampoco será el último. Creo que lo que es diferente aquí son los registros de chat y algunas de las cosas crueles que Chatgpt supuestamente informó al adolescente. El chatbot nunca «entendió» al adolescente y no era su amigo, pero intentó todo lo que podría hacer que pareciera cierto. No tengo idea de cómo resultará esta demanda, y una «victoria» para cualquiera de los lados sigue siendo una pérdida. Solo puedo esperar que se concentre aún más en lo que una computadora que actúa de manera inteligente realmente puede hacer, por lo que se pueden probar aún más salvaguardas.