Todo lo que necesitas saber sobre tecnología

Etiqueta: Abuso infantil

Omegle: Cierra un popular sitio web anónimo de vídeos y chats

El popular sitio web de chat en línea Omegle, que conectaba a extraños al azar para realizar videollamadas y chats, cerró después de que su fundador admitiera que permitía “crímenes atroces”. El sitio gratuito, que se lanzó en 2009, emparejaba usuarios aleatoriamente para chatear de forma anónima en sesiones individuales. Si los usuarios ya no deseaban hablar con su pareja, simplemente podían finalizar el chat y ser transferidos inmediatamente con alguien nuevo. Omegle pretendía conectar a extraños con «gente interesante» en línea, pero su lado más oscuro se ocultaba a plena vista. Omegle anunció su cierre el miércoles y compartió una imagen de una lápida para marcar su muerte junto con una extensa declaración. El fundador Leif K-Brooks dijo que se había vuelto demasiado difícil combatir el uso indebido de la plataforma, en medio de multitud de quejas de que estaba siendo utilizada por depredadores para conectarse con niños y abusar de ellos. “En los últimos años, parece que el mundo entero se ha vuelto más intratables… cualquiera que sea la razón, las personas se han vuelto más rápidas para atacar y más lentas para reconocer la humanidad compartida de cada uno”, dijo. “Un aspecto de esto ha sido un aluvión constante de ataques a los servicios de comunicación, incluido Omegle, basados ​​en el comportamiento de un subconjunto malicioso de usuarios”. Afirmaciones de abuso infantil y pedofilia en Omegle Antes de ser cerrado, el sitio web tenía alrededor de 73 millones de visitantes al mes, en su mayoría de India, Estados Unidos, Reino Unido, México y Australia, según la BBC. Los usuarios de las redes sociales describieron la noticia como el “fin de una era”, recordando las noches que pasaban navegando en Omegle en las fiestas de pijamas de la infancia. Pero la popularidad del sitio entre los niños, combinada con sus características anónimas y aleatorias, generó casos inquietantes de abuso. Según la BBC, el sitio ha sido mencionado en más de 50 casos contra pedófilos en países como el Reino Unido, Estados Unidos y Australia. En sólo dos horas en el sitio, la publicación afirmó estar conectada al azar con 12 hombres masturbándose, ocho hombres desnudos y siete anuncios porno, así como con “docenas de menores de 18 años”, algunos de los cuales “parecían ser tan jóvenes como siete u ocho”. En 2022, en Australia, un hombre de Umina fue declarado culpable de procurar y abusar de un niño en Omegle. En otro caso histórico que amenaza con cambiar la forma en que se regulan las empresas de redes sociales en Estados Unidos, una joven acusó al sitio de emparejarla aleatoriamente con un pedófilo que abusó de ella durante tres años. K-Brooks reconoció las denuncias de abuso que han afectado a la plataforma, pero dijo que Omegle había implementado «medidas razonables para combatir el crimen y otros usos indebidos». «No puede haber una contabilidad honesta de Omegle sin reconocer que algunas personas lo usaron indebidamente, incluso para cometer crímenes atroces indescriptibles», escribió. K-Brooks describió el estrés de gestionar una plataforma bajo presión. «Por mucho que desearía que las circunstancias fueran diferentes, el estrés y los gastos de esta lucha, junto con el estrés y los gastos existentes de operar Omegle y luchar contra su uso indebido, son simplemente demasiado», escribió. «Operar Omegle ya no es sostenible Ni económica ni psicológicamente. “Francamente, no quiero sufrir un infarto cuando tenga 30 años”. Agradeció a los usuarios que accedieron al sitio por motivos positivos y contribuyeron a su éxito. “Lamento mucho no haber podido seguir luchando por ti”, finaliza el comunicado. Publicado originalmente como El popular sitio web de chat en línea Omegle cierra

Source link

Apple escaneará iPhones estadounidenses en busca de imágenes de abuso sexual infantil

Los grupos de protección infantil han aplaudido el anuncio, pero algunos investigadores de seguridad temen que el sistema pueda ser mal utilizado. PUBLICIDADApple reveló planes para escanear iPhones estadounidenses en busca de imágenes de abuso sexual infantil, lo que generó aplausos de grupos de protección infantil, pero generó preocupación entre algunos investigadores de seguridad de que el sistema podría ser mal utilizado, incluso por gobiernos que buscan vigilar a sus ciudadanos. La herramienta diseñada para detectar imágenes conocidas de abuso sexual infantil, llamado «neuralMatch», escaneará las imágenes antes de cargarlas en iCloud. Si encuentra una coincidencia, un humano revisará la imagen. Si se confirma la pornografía infantil, la cuenta del usuario será desactivada y se notificará al Centro Nacional para Niños Desaparecidos y Explotados. Por otra parte, Apple planea escanear los mensajes cifrados de los usuarios en busca de contenido sexual explícito como medida de seguridad infantil, lo que también alarmó a los defensores de la privacidad. El sistema de detección sólo marcará imágenes que ya estén en la base de datos de pornografía infantil conocida del centro. Los padres que toman fotografías inocentes de un niño en el baño probablemente no deben preocuparse. Pero los investigadores dicen que la herramienta de comparación, que no «ve» esas imágenes, sólo «huellas digitales» matemáticas que las representan, podría utilizarse para propósitos más nefastos. Matthew Green, un importante investigador de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría usarse para incriminar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para generar coincidencias con pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a las autoridades. «Los investigadores han podido hacer esto con bastante facilidad», dijo sobre la capacidad de engañar a tales sistemas. Potencial de abusoOtros abusos podrían incluir la vigilancia gubernamental de disidentes o manifestantes. «¿Qué sucede cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que usted analice’?», preguntó Green. «¿Apple dice que no? Espero que digan que no, pero su tecnología no dirá que no». Empresas tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo huellas digitales de imágenes conocidas de abuso sexual infantil. Apple los ha utilizado para escanear archivos de usuario almacenados en su servicio iCloud, que no está cifrado de forma tan segura como los datos del dispositivo, en busca de pornografía infantil. Apple ha estado bajo presión gubernamental durante años para permitir una mayor vigilancia de los datos cifrados. con las nuevas medidas de seguridad requirió que Apple realizara un delicado acto de equilibrio entre tomar medidas enérgicas contra la explotación infantil y al mismo tiempo mantener su compromiso de alto perfil de proteger la privacidad de sus usuarios. Pero una abatida Electronic Frontier Foundation, la pionera de las libertades civiles en línea, llamó El compromiso de Apple en materia de protección de la privacidad es «un cambio radical para los usuarios que han confiado en el liderazgo de la compañía en privacidad y seguridad». Mientras tanto, el científico informático que hace más de una década inventó PhotoDNA, la tecnología utilizada por las fuerzas del orden para identificar la pornografía infantil online, reconoció el potencial de abuso del sistema de Apple, pero dijo que era superado con creces por el imperativo de luchar contra el abuso sexual infantil.»¿Es posible? Por supuesto. ¿Pero es algo que me preocupa? No», dijo Hany Farid, investigador de la Universidad de California en Berkeley, quien sostiene que muchos otros programas diseñados para proteger dispositivos contra diversas amenazas no han visto «este tipo de misión progresiva». Por ejemplo, WhatsApp proporciona a los usuarios cifrado de extremo a extremo para proteger su privacidad, pero también emplea un sistema para detectar malware y advertir a los usuarios que no hagan clic en enlaces dañinos.’Gamechanger’Apple fue una de las primeras empresas importantes en adoptar el «cifrado de extremo a extremo, en el que los mensajes se codifican para que sólo sus remitentes y destinatarios puedan leerlos. Sin embargo, las fuerzas del orden han presionado durante mucho tiempo a la compañía para que acceda a esa información con el fin de investigar delitos como terrorismo o explotación sexual infantil. PUBLICIDAD Apple dijo que los últimos cambios se implementarán este año como parte de las actualizaciones de su software operativo para iPhones, Macs y Apple Watches. «La protección ampliada de Apple para los niños cambia las reglas del juego», dijo en un comunicado John Clark, presidente y director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados. «Con tanta gente usando productos Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños». Julia Cordua, directora ejecutiva de Thorn, dijo que la tecnología de Apple equilibra «la necesidad de privacidad con la seguridad digital de los niños». Thorn, una organización sin fines de lucro fundada de Demi Moore y Ashton Kutcher, utiliza la tecnología para ayudar a proteger a los niños del abuso sexual identificando a las víctimas y trabajando con plataformas tecnológicas. Rompiendo la seguridadPero en una crítica feroz, el Centro para la Democracia y la Tecnología, una organización sin fines de lucro con sede en Washington, pidió a Apple que abandonara los cambios. que, según dijo, destruyen efectivamente la garantía de la compañía de «cifrado de extremo a extremo». El escaneo de mensajes en busca de contenido sexual explícito en teléfonos o computadoras rompe efectivamente la seguridad, dijo. PUBLICIDAD La organización también cuestionó la tecnología de Apple para diferenciar entre contenido peligroso y algo así. «Tales tecnologías son notoriamente propensas a errores», dijo CDT en un comunicado enviado por correo electrónico. Apple niega que los cambios representen una puerta trasera que degrade su cifrado. Dice que son innovaciones cuidadosamente consideradas que no perturban la privacidad del usuario sino que la protegen fuertemente. Por otra parte, Apple dijo que su aplicación de mensajería utilizará el aprendizaje automático en el dispositivo para identificar y difuminar fotos sexualmente explícitas en los teléfonos de los niños y también puede advertir a los padres de niños más pequeños a través de mensajes de texto. También dijo que su software «intervendría» cuando los usuarios intentaran buscar temas relacionados con el abuso sexual infantil. Para recibir advertencias sobre imágenes sexualmente explícitas en los dispositivos de sus hijos, los padres deberán registrar el teléfono de sus hijos. Los niños mayores de 13 años pueden darse de baja, lo que significa que los padres de adolescentes no recibirán notificaciones. Apple dijo que ninguna característica comprometería la seguridad de las comunicaciones privadas ni notificaría a la policía.

Source link

Funciona con WordPress & Tema de Anders Norén