Los robots de uso general son difíciles de entrenar. El sueño es tener un robot como el Rosie de Jetson que puede realizar una variedad de tareas domésticas, como ordenar o doblar la ropa. Pero para que eso suceda, el robot necesita aprender de una gran cantidad de datos que coincidan con las condiciones del mundo real; que los datos pueden ser difíciles de recopilar. Actualmente, la mayoría de los datos de capacitación se recopilan de múltiples cámaras estáticas que deben configurarse cuidadosamente para recopilar información útil. Pero, ¿qué pasaría si Bots pudiera aprender de las interacciones cotidianas que ya tenemos con el mundo físico? Esa es una pregunta que el laboratorio de robótica de uso general y AI en la Universidad de Nueva York, dirigido por el profesor asistente Lerrel Pinto, espera responder con Egozero, un sistema de vidrios inteligentes que ayuda al aprendizaje de los robots al recopilar datos con una versión mejorada de las gafas de Meta. En una preimpresión reciente, que sirve como prueba de concepto para el enfoque, los investigadores entrenaron a un robot para completar siete tareas de manipulación, como recoger un pedazo de pan y colocarlo en un plato cercano. Para cada tarea, recopilaron 20 minutos de datos de humanos que realizan estas tareas mientras registraban sus acciones con anteojos del Proyecto Aria de Meta. (Estas gafas cargadas de sensores se usan exclusivamente para fines de investigación). Cuando se implementan para completar autónomos estas tareas con un robot, el sistema logró una tasa de éxito del 70 por ciento. La ventaja de la parte del «ego» de Datathe egocéntrico de Egozero se refiere a la naturaleza «egocéntrica» de los datos, lo que significa que se recopila desde la perspectiva de la persona que realiza una tarea. «La cámara se mueve contigo», como cómo nuestros ojos se mueven con nosotros, dice Raunaq Bhirangi, un investigador postdoctoral en el laboratorio de la NYU. Esto tiene dos ventajas principales: primero, la configuración es más portátil que las cámaras externas. En segundo lugar, es más probable que las gafas capturen la información necesaria porque los usuarios se asegurarán de que ellos, y, por lo tanto, la cámara, puedan ver lo que se necesita para realizar una tarea. «Por ejemplo, digamos que tenía algo enganchado debajo de una mesa y quiero desengancharlo. Me doblaría, miraría ese gancho y luego lo desabrochaba, a diferencia de una cámara en tercera persona, que no está activa», dice Bhirangi. «Con esta perspectiva egocéntrica, obtienes esa información horneada en sus datos de forma gratuita». La segunda mitad del nombre de Egozero se refiere al hecho de que el sistema está capacitado sin datos de robot, que puede ser costoso y difícil de recopilar; Los datos humanos por sí solos son suficientes para que el robot aprenda una nueva tarea. Esto está habilitado por un marco desarrollado por el laboratorio de Pinto que rastrea los puntos en el espacio, en lugar de las imágenes completas. Al entrenar robots en datos basados en imágenes, «el desajuste es demasiado grande entre cómo se ven las manos humanas y cómo se ven los brazos de robot», dice Bhirangi. En su lugar, este marco rastrea los puntos en la mano, que se asignan a los puntos del robot. El sistema Egozero toma datos de humanos que usan anteojos inteligentes y los convierten en datos utilizables de navegación 3D para que los robots realicen tareas de manipulación general. «Mientras los puntos de robot se muevan en relación con el objeto de la misma manera que los puntos humanos se mueven, somos buenos», dice Bhirangi. Todo esto lleva a un modelo generalizable que de otro modo requeriría muchos datos de robot diversos para entrenar. Si el robot fue entrenado en datos recogiendo una pieza de pan, por ejemplo, un rollo de delicatessen, puede generalizar esa información para recoger un pedazo de Ciabatta en un nuevo entorno. Una solución escalable en la adición de Egozero, el grupo de investigación está trabajando en varios proyectos para ayudar a hacer realidad los robots de uso general una realidad, incluidos los diseños de robots de código abierto, sensores táctiles flexibles y métodos adicionales para recopilar datos de capacitación en el mundo real. Por ejemplo, como alternativa a Egozero, los investigadores también han diseñado una configuración con una pinza de mano impresa en 3D que se parece más a la mayoría de las «manos» robot. Un teléfono inteligente conectado a la pinza captura el video con el mismo método de espacio de punto que se usa en Egozero. El equipo, al hacer que las personas recopilen datos sin traer un robot a sus hogares, proporciona dos enfoques que podrían ser más escalables para recopilar datos de capacitación. Esa escalabilidad es, en última instancia, el objetivo del investigador. Los modelos de idiomas grandes pueden aprovechar todo el Internet, pero no hay equivalente en Internet para el mundo físico. Aprovechar las interacciones cotidianas con gafas inteligentes podría ayudar a llenar ese vacío. De los artículos de su sitio, artículos relacionados con
Etiqueta: meta Página 1 de 4


Meta se está asociando con MidJourney para licenciar la tecnología de generación de imágenes y videos de IA de la startup, el director de IA de Meta, Alexandr Wang, anunció el viernes en una publicación sobre Threads. Wang dice que los equipos de investigación de Meta colaborarán con MidJourney para llevar su tecnología a futuros modelos y productos de IA. «Para garantizar que Meta pueda entregar los mejores productos posibles para las personas, requerirá adoptar un enfoque de todo el terreno», dijo Wang. «Esto significa talento de clase mundial, ambiciosa hoja de ruta de cómputo y trabajar con los mejores jugadores de la industria». La asociación MidJourney podría ayudar a Meta a desarrollar productos que compitan con los modelos de imágenes y videos de IA líderes de IA, como Sora de Openai, Black Forest Lab y Veo de Google. El año pasado, Meta lanzó su propia herramienta de generación de imágenes de IA, Imagine, en varios de sus productos, incluidos Facebook, Instagram y Messenger. Meta también tiene una herramienta de generación de videos de IA, Gen de películas, que permite a los usuarios crear videos a partir de indicaciones. El acuerdo de licencia con MidJourney marca el último acuerdo de Meta para avanzar en la carrera de IA. A principios de este año, el CEO Mark Zuckerberg realizó una juerga de contratación para el talento de IA, ofreciendo a algunos investigadores paquetes de compensación por valor de más de $ 100 millones. El gigante de las redes sociales también invirtió $ 14 mil millones en AI de escala, y adquirió la AI Startup Play AI. Meta ha mantenido conversaciones con varios otros laboratorios líderes de IA sobre otras adquisiciones, y Zuckerberg incluso habló con Elon Musk sobre unirse a su oferta de adquisición de $ 97 mil millones de OpenAi (Meta finalmente no se unió a la oferta, y OpenAi negó la oferta de Musk). Si bien los términos del acuerdo de Meta con MidJourney siguen siendo desconocidos, el CEO de la startup, David Holz, dijo en una publicación sobre X que su compañía sigue siendo independiente sin inversores; MidJourney es uno de los pocos desarrolladores de modelos de IA principales que nunca ha asumido fondos externos. En un momento, Meta habló con MidJourney sobre la adquisición de la startup, según Upstarts Media. MidJourney se fundó en 2022 y rápidamente se convirtió en un líder en el espacio de generación de imágenes de IA para su estilo realista y único. Para 2023, la startup estaba en ritmo para generar $ 200 millones en ingresos. La startup vende suscripciones a partir de $ 10 por mes. Ofrece niveles más caros, que ofrecen más generaciones de imágenes de IA, que cuestan hasta $ 120 por mes. En junio, la startup lanzó su primer modelo de video AI, V1. Evento de TechCrunch San Francisco | El 27 al 29 de octubre, la asociación de 2025 Meta con MidJourney se produce solo dos meses después de que Disney y Universal demandaron la startup, alegando que entrenó modelos de imagen de IA en obras con derechos de autor. Varios desarrolladores de modelos de IA, incluido Meta, enfrentan acusaciones similares de los titulares de derechos de autor, sin embargo, los casos judiciales recientes relacionados con los datos de capacitación de IA se han puesto del lado de las compañías tecnológicas. Siempre estamos buscando evolucionar, y al proporcionar una idea de su perspectiva y comentarios sobre TechCrunch y nuestras cobertura y eventos, ¡puede ayudarnos! ¡Complete esta encuesta para informarnos cómo estamos y tener la oportunidad de ganar un premio a cambio!

El anuncio de Meta de la nueva función de «mapa» de Instagram demostró ser un punto de discusión bastante polarizante en línea, especialmente con respecto a la privacidad del usuario. Dicho esto, si bien agrega un poco de conveniencia al usar Instagram, afortunadamente es opcional, y los usuarios pueden, por supuesto, elegir mantener su información de ubicación privada. LEA: El lanzamiento de Meta Smartwatch finalmente podría estar sucediendo este septiembre para comenzar con la función del mapa, los usuarios deberán abrir sus mensajes directos (DMS) y tocar el icono del mapa en la parte superior. Luego, la aplicación lo guiará a través de cómo funciona la función y requerirá que habilite los servicios de ubicación en su teléfono. Una vez que esté en el mapa, puede ver las ubicaciones de sus amigos (si han elegido compartirlos), ver publicaciones etiquetadas con ubicaciones específicas, buscar ubicaciones de amigos y tocar los íconos de amigos para ver su perfil. Dicho esto, compartir su ubicación en vivo en el mapa de Instagram se desactiva de forma predeterminada, aunque cualquier publicación que cree con una ubicación etiquetada aún aparecerá en el mapa a menos que cambie su configuración. Los usuarios tienen cuatro opciones para compartir su ubicación: amigos (personas a las que sigues y que te siguen) amigos cercanos (personas en tu lista de amigos cercanos existentes) solo a estos amigos (un grupo específico de personas que eliges manualmente) nadie (esto desactiva compartir la ubicación en vivo por completo) para ajustar la configuración de compartir ubicaciones en Instagram, los usuarios también pueden cambiar su opción preferida simplemente seleccionando a nadie, que oculta su información de ubicación. Para ocultar ubicaciones específicas, también puede abrir el mapa y ir a la configuración de ubicación> ocultar lugares. Luego aparecerá un pin en el mapa, que puede arrastrar a la ubicación que desea ocultar. Los usuarios también pueden ajustar el tamaño del área oculta con el control deslizante, luego darle a la ubicación un nombre y tocar.

Edgar Cervantes / Android AuthorityTL;DR La aplicación Messenger ha adquirido cuatro funciones nuevas esta semana. Una de las características más destacables es la opción de enviar fotografías de mayor calidad a un contacto. Los límites de tamaño de archivos también se han incrementado de 25 MB a 100 MB. Messenger es una de las aplicaciones de mensajería móvil más populares en los EE. UU. y ha recibido varias adiciones útiles en los últimos tiempos. Meta no se detiene aquí, ya que acaba de anunciar varias funciones más. La compañía anunció en una publicación de blog que ahora puedes enviar fotos «HD» en los chats gracias a la disponibilidad de un interruptor «HD» en la ventana de vista previa de la imagen. Más tarde, Meta aclaró a The Verge que «HD» en este caso se refiere a imágenes que miden 4.096 x 4.096, es decir, 4K en otras palabras. Siguiendo con las fotos, la compañía confirmó que los álbumes de fotos compartidos ahora son una cosa. Simplemente necesita seleccionar varias fotos y tocar «crear álbum». Todos en el chat pueden ver el álbum, agregar o eliminar imágenes y más. Meta también ha aumentado los límites de tamaño para compartir archivos de 25 MB a 100 MB. Sin embargo, esto va por detrás del límite de archivos de 2 GB previamente anunciado por WhatsApp, pero aún así es una actualización bienvenida. Finalmente, Messenger ahora permite a los usuarios agregar un contacto mediante un código QR. WhatsApp también ha ofrecido esta función durante años, pero todavía estamos felices de verla aquí, ya que en teoría es más conveniente que escribir el nombre o el número de alguien. Comentarios

Los gigantes tecnológicos han derrocado al capitalismo. Ese es el argumento del ex ministro de Finanzas griego Yanis Varoufakis, quien se hizo famoso tratando de defender a una Grecia endeudada de sus acreedores alemanes. Varoufakis nunca recuperó la notoriedad de 2015, pero sigue siendo una voz prominente de izquierda. Después de una campaña fallida por un escaño en el Parlamento Europeo en 2019, planea presentarse nuevamente este junio. Esta vez su adversario no es Berlín ni los bancos. Son las empresas de tecnología a las que acusa de distorsionar la economía y poner a las personas en contra de otras. Cortesía de Penguin Random House Varoufakis también es un autor prolífico; Su libro número 17, escrito como una carta a su padre, curioso por la tecnología, narra la evolución del capitalismo desde el auge publicitario de los años 60, pasando por Wall Street en los 80, hasta la crisis financiera de 2008 y la pandemia. En sus tramos más convincentes, el tecnofeudalismo sostiene que Apple, Facebook y Amazon han cambiado tanto la economía que ahora se parece al sistema feudal medieval de Europa. Los gigantes tecnológicos son los señores, mientras que todos los demás son campesinos que trabajan su tierra por poco a cambio. Para Varoufakis, cada vez que publicas en X, antes Twitter, esencialmente estás trabajando arduamente en la propiedad de Elon Musk como un siervo medieval. Musk no te paga. Pero su trabajo gratuito le remunera, en cierto sentido, al aumentar el valor de su empresa. En X, cuantos más usuarios activos haya, a más personas se les podrá mostrar publicidad o vender suscripciones. En Google Maps, sostiene, los usuarios mejoran el producto: alertan al sistema sobre atascos en su ruta. La comparación feudal no es novedosa. Pero el tecnofeudalismo intenta introducir la idea a un público más amplio. Su lanzamiento en Estados Unidos, lanzado un mes antes de que los reguladores de Estados Unidos y la Unión Europea iniciaran simultáneamente acciones antimonopolio contra Apple, también tuvo un momento impecable. A través de Zoom, hablé con Varoufakis, desde su casa cerca de Atenas, sobre cómo los gigantes tecnológicos han cambiado la economía. —Y por qué debería importarnos. Esta entrevista ha sido editada para brindar extensión y claridad. WIRED: Esa palabra, tecnofeudalismo, ¿qué significa? ¿Qué relevancia tiene aquí el sistema feudal? Yanis Varoufakis: Las ganancias impulsan el capitalismo, la renta impulsa el feudalismo. ahora nos hemos mudado [from one system to the other] debido a esta nueva forma de capital súper tonto, que todo canta y todo baila: capital de la nube, capital algorítmico. Si estoy en lo cierto, eso significa crear nuevos feudos digitales como Amazon.com, como Airbnb, donde el principal modo de extracción de riqueza no es la forma de ganancias sino de renta. Tomemos como ejemplo la Apple Store. Estás produciendo una aplicación, Apple puede retener el 30 por ciento de tus ganancias [through a commission fee]. Eso es un alquiler. Eso es como el alquiler del terreno. Es un poco como si la Apple Store fuera un feudo. Es un feudo de la nube y Apple obtiene una renta exactamente igual que en el feudalismo. Así que mi argumento no es que volvimos del capitalismo al feudalismo. Mi argumento es que hemos avanzado hacia un nuevo sistema, que tiene muchas de las características del feudalismo, pero está un paso por delante del capitalismo. Para señalarlo, agregué la palabra techno.
Aamir Siddiqui / Android AuthorityTL;DR Con la Ley de Mercados Digitales (DMA) ahora vigente en la UE, la Comisión Europea está investigando las medidas de cumplimiento de Alphabet (Google), Apple y Meta. Google y Apple están siendo investigados por su cumplimiento de las normas anti-dirección, ya que la DMA los obliga a ya no prohibir a las empresas en sus tiendas de aplicaciones informar a los usuarios sobre opciones más baratas. Se está investigando el modelo de “pago o consentimiento” de Meta para recopilar datos para sus plataformas de redes sociales. La Ley de Mercados Digitales (DMA) de la Comisión Europea es una de las regulaciones más amplias que apunta al dominio de las grandes tecnologías en la región de la UE. Empresas como Apple, Meta y Google (Alphabet) han tenido que cambiar significativamente su forma de operar en la región. Con la DMA ya en funcionamiento, la Comisión Europea está abriendo investigaciones contra Alphabet, Apple y Meta por sus medidas de cumplimiento aparentemente a medias. Como se anunció en un comunicado de prensa, la Comisión Europea ha abierto investigaciones por incumplimiento contra las tres destacadas grandes empresas tecnológicas. Más concretamente, la Comisión está investigando estas prácticas: las normas de Alphabet sobre la dirección en Google Play Store. Las preferencias propias de Alphabet en la Búsqueda de Google. Las reglas de Apple sobre la dirección en la App Store de Apple. La pantalla elegida por Apple para Safari. Modelo de “pago o consentimiento” de Meta para el uso de sus servicios. La Comisión sospecha que las medidas de las empresas para cumplir la DMA no llegan a ser un cumplimiento efectivo. Según las disposiciones anti-dirección, las empresas no pueden prohibir a las empresas que operan en su plataforma informar a sus usuarios sobre opciones más baratas de compra o suscripción fuera de esta plataforma. La Comisión tiene previsto concluir sus investigaciones en los próximos 12 meses. Le dirá a cada empresa qué debe hacer para abordar sus preocupaciones y qué medidas tomará la Comisión. Si las empresas son declaradas culpables de infracción de la DMA, la Comisión Europea puede imponer una multa de hasta el 10% del volumen de negocios total de la empresa en todo el mundo, y hasta el 20% en caso de reincidencia. Además, la Comisión también ha iniciado una investigación. pasos relacionados con la nueva estructura de tarifas de Apple para las tiendas de aplicaciones alternativas y las prácticas de clasificación del mercado de Amazon. Además, la Comisión ha concedido a Meta una prórroga de seis meses para cumplir con las obligaciones de interoperabilidad para Facebook Messenger. ¿Cree que todas las empresas mencionadas han cumplido con la DMA? ¿equitativamente? ¿Es la acción de la Comisión Europea de mano dura? ¡Háganos saber en los comentarios a continuación! ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección.Comentarios
Source link
Threads está llegando al Fediverso, y está sucediendo antes de lo que piensas. El jueves (21 de marzo), Meta, los propietarios de Threads, anunció una versión beta que permite a los usuarios de ciertos países compartir sus publicaciones de Threads en muchas otras plataformas. La capacidad de compartir publicaciones de Threads en otras plataformas se debe a que están en servidores que cumplen con algo llamado ActivityPub. ActivityPub es un protocolo abierto y descentralizado que permite que las redes sociales sean interoperables. Entonces, por ejemplo, los usuarios podrían compartir una publicación de Threads en otro servidor compatible con ActivityPub como Mastodon. Protocolos como este reciben el sobrenombre de ‘Fediverse’ porque permiten redes sociales federadas, lo que, básicamente, es sólo otra forma de decir redes sociales interoperables. Por lo tanto, los usuarios de Threads que ‘habiliten’ sus publicaciones se compartirán en todo Fediverse, pero las respuestas de otras redes sociales no se podrán ver desde Threads. En cambio, los espectadores tendrán que ir al otro servidor Fediverse en cuestión. ¿Cuándo se unirán Threads al Fediverso del Meta? En una publicación, el ingeniero de software de Meta, Christopher Su, y el ingeniero de seguridad, Simon Blackstein, explicaron que Meta está adoptando un enfoque «por fases» para la integración de Fediverse. «En el futuro, esperamos que el contenido fluya desde el fediverso hacia Threads», escribieron. “Los usuarios de Federated Threads podrán ver e interactuar con las respuestas a sus publicaciones provenientes de otros servidores, o seguir a personas en otros servidores fediverse e interactuar con su contenido directamente en Threads. Nuestro plan es que los perfiles de Threads habilitados para fediverse tengan en última instancia un número consolidado de seguidores que combine los usuarios que los siguieron desde Threads y los usuarios de otros servidores. Concluyeron: “Crear una aplicación de red social federada es un proceso complejo y delicado si se quiere realizar de forma segura. Si bien todavía no tenemos fechas exactas ni detalles sobre nuestros hitos, estamos comprometidos con una experiencia totalmente interoperable y nos tomaremos el tiempo para hacerlo bien y hacer crecer la diversidad de manera responsable”. La integración de Threads en Fediverse es el último de una larga lista de cambios que se han implementado en Meta. Más recientemente, la red social ha estado jugando con temas de actualidad, denominados ‘Temas de hoy’, y una nueva función para guardar similar a X. Imagen destacada: Foto de Dave Adamson en Unsplash
TL;DR Meta ha introducido una nueva forma de mapear digitalmente una habitación, llamada SceneScript. SceneScript puede identificar automáticamente objetos y características de la habitación, como paredes, sofás y mesas, con la ayuda de IA. Los LLM pueden utilizar los datos resultantes para responder preguntas sobre la sala. Meta ha presentado un nuevo método para escanear una habitación llamado SceneScript. Esta nueva forma de escanear una habitación podría hacer que el proceso sea más rápido y sencillo en los auriculares Quest, y también podría tener otras implicaciones útiles. Antes de utilizar un casco de realidad virtual, se recomienda escanear la habitación para poder establecer límites. De esta manera no tendrás que preocuparte por chocar con varios objetos ya que tu visión se verá oscurecida. El escaneo de habitaciones también se utiliza para AR para anclar y alinear con precisión el contenido 3D con el espacio interior en el que se encuentra. Sin embargo, la forma actual en que se realiza el escaneo de habitaciones puede ser un poco compleja y poco amigable para el usuario. En una publicación detallada de Threads, Meta Research El director de proyecto Edward Miller presentó SceneScript, cuyo objetivo es resolver este problema. Según Miller, la tecnología utiliza inteligencia artificial para identificar automáticamente objetos y características de la habitación, como paredes, sofás, mesas, techos y más. Entonces, en lugar de tener que mapear estas cosas manualmente, la IA lo hace por usted mientras mira a su alrededor. Vision Pro de Apple también puede mapear automáticamente una habitación. Sin embargo, los auriculares no pueden identificar y etiquetar objetos como lo hace SceneScript. Además de hacer el trabajo de mapeo de la habitación por usted, Miller dice que los datos se pueden usar con chatbots como Llama 2 para plantear preguntas sobre el área. Por ejemplo, el usuario podría preguntar «¿Cuántos botes de pintura se necesitarían para pintar esta habitación?» Es de suponer que Llama 2 podría responder estas preguntas si decide compartir los datos de la sala con el LLM. En una publicación de blog, Meta dice que SceneScript podría «desbloquear casos de uso clave tanto para auriculares MR como para futuras gafas AR», como proporcionar pasos Navegación paso a paso para personas con discapacidad visual. La compañía también afirma que la tecnología podría «liberar el potencial de los asistentes digitales de próxima generación, proporcionándoles el contexto del mundo físico necesario para responder consultas espaciales complejas». Meta no dice si llevará la tecnología al Meta Quest 3. o el Meta Quest 3 Lite entrante. Pero esta sería una gran mejora para la función Guardian de los auriculares. ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer anónimo u obtener crédito por la información, es tu elección.Comentarios
Source link
WIRED colaboró con Der Spiegel, Recorder y The Washington Post en este informe. Cada uno escribió historias separadas que las organizaciones de noticias acordaron publicar en conjunto. Esta historia contiene descripciones de abuso, autolesión, asesinato y suicidio. Se recomienda discreción del lector. Suena como una conspiración barata para un crimen real: una red internacional de depredadores inmersos en el satanismo atrae a niños desde plataformas en línea aparentemente inofensivas como Discord, Minecraft y Roblox y los extorsiona para explotarlos sexualmente y dañarse gravemente a sí mismos. Algunas víctimas incluso son empujadas al suicidio. Excepto que es cierto. Un consorcio de informes que incluye a Der Spiegel, Recorder, The Washington Post y WIRED ha desenterrado un ecosistema en expansión que se ha dirigido a miles de personas y ha victimizado a docenas, si no cientos, de niños que utilizan algunos de las plataformas más grandes de Internet. Las fuerzas del orden creen que la red “com” abarca una franja de grupos entrelazados con miles de usuarios, incluidos cientos de miembros incondicionales que victimizan a niños a través de campañas coordinadas en línea de extorsión, doxing, swatting y acoso. Este consorcio de informes ha obtenido y analizado más de 3 millones de mensajes de más de 50 grupos de chat en Discord y Telegram. Los mensajes exponen múltiples subgrupos de comunicaciones y miles de usuarios en casi una docena de países en tres continentes. Nuestra investigación encontró amplia evidencia de conducta predatoria y una presencia persistente en aplicaciones como Telegram y Discord, mientras que WIRED también encontró actividad en las comunicaciones en Instagram, SoundCloud y Roblox. Las plataformas son conscientes de la existencia de estos grupos, pero aún tienen que erradicarlos con éxito. El abuso perpetrado por miembros de los grupos de comunicación es extremo. Han obligado a niños a cometer abusos sexuales o autolesiones, provocando que se laceren profundamente el cuerpo para grabar en su piel “signos de corte” del alias en línea del abusador. Las víctimas se tiraron la cadena en los inodoros, atacaron a sus hermanos, mataron a sus mascotas y, en algunos casos extremos, intentaron o se suicidaron. Registros judiciales de Estados Unidos y países europeos revelan que los participantes de esta red también han sido acusados de robos, abuso sexual de menores en persona, secuestro, violaciones de armas, golpes y asesinato. Algunos miembros de la red extorsionan a niños para obtener placer sexual. algunos por poder y control. Algunos lo hacen simplemente por el placer que produce la manipulación. Otros venden el contenido explícito producido por la extorsión CSAM en la web oscura. “Quieren hacerte sufrir. Y que te quites la vida. Realmente son gente muy sádica”. Anna, una víctima de 764 “Su principal objetivo es traumatizarte”, dice Anna, una joven preparada y victimizada por 764, uno de los grupos más notorios bajo el paraguas de com. “Quieren hacerte sufrir. Y que te quites la vida. Realmente son personas muy sádicas”. El Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro, recibió cientos de informes de menores extorsionados para hacerse daño en 2023, dice Fallon McNulty, director de CyberTipline del NCMEC, un fuerte aumento con respecto a años anteriores. La organización, que envía informes de las empresas de redes sociales y del público a las fuerzas del orden, todavía recibe docenas cada mes, dice. “Desde 2022 hasta el año pasado, especialmente, la escala de lo que está llegando parece que continúa creciendo”, McNulty dice, y agrega que en 2022 el NCMEC solo vio “un puñado” de informes de extorsión de este tipo. Estos grupos en línea, dice, son responsables de “algunos de los informes de seducción en línea más atroces que estamos viendo en términos de lo que están siendo estos niños”. obligado a hacerlo”.
Source link
Andy Boxall / Digital Trends Llevo gafas para poder ver lo que estoy haciendo. Esto significa que tengo que usarlos todo el tiempo, por lo que tienen que ser ligeros, cómodos y elegantes. Las gafas inteligentes fabricadas en los últimos años nunca cumplían todos estos requisitos, y colocarles lentes recetados también solía ser una molestia. Por mucho que quisiera, nunca podría considerar vivir con ellos como lo hago con mi pareja no inteligente. Pero entonces aparecieron las gafas inteligentes Ray-Ban Meta. ¿Podrían ser el primer par que podría usar todo el tiempo? Eso creo y me estoy embarcando en una prueba a largo plazo para averiguarlo. ¿Qué me hace pensar que funcionarán? Andy Boxall / Digital Trends Las Ray-Ban Meta son gafas de sol inteligentes, ¿verdad? Probablemente no seas el único que piensa que este es el caso, pero puedes conseguir lentes recetados transparentes para ellos, y eso es lo que he hecho. Está muy bien ver a la gente probar Ray-Ban Meta como gafas de sol, pero esto no encaja muy bien en mi vida y estoy seguro de que muchos otros sienten lo mismo. Vivo en el Reino Unido, donde la luz del sol está racionada. No sólo quiero disfrutar de las Ray-Ban Meta los pocos días en los que debo usar gafas de sol. Quiero saber cómo son los otros 300 días tristes en los que yo no. Tienen que quedar bien con lentes transparentes, pero como también necesito gafas de sol, elegí los lentes Transitions, que van de claros a oscuros dependiendo de las condiciones de iluminación. Significa que puedo usarlos dentro y fuera de casa sin quedar sumido en la oscuridad ni cegado por el sol. Como referencia, llevo la forma Wayfarer negra brillante de tamaño mediano con lentes Transitions verdes y mi propia graduación varifocal. Es este nivel de personalización lo que inicialmente me hizo pensar que las Ray-Ban Meta realmente podrían reemplazar mis gafas habituales. Andy Boxall / Digital Trends Más allá de la personalización, la decisión de utilizar el diseño clásico de Wayfarer es inspirada, ya que la forma tiende a adaptarse a la mayoría de los rostros. El peso es razonable, 47 gramos, que, si bien es más pesado que mis anteojos habituales de 24 gramos, no es inmanejable. Luego está el costo. El último par de gafas normales no inteligentes que compré con lentes varifocales costó 1.000 libras esterlinas, lo que equivale a unos 1.280 dólares, y las lentes representan dos tercios del precio. Las Ray-Ban Meta cuestan lo mismo. Obviamente puedes gastar mucho menos en gafas, pero no si quieres un buen diseño y las mejores y más finas lentes posibles. El hecho de que los Ray-Ban Meta no sean más caros que un par no inteligente de esta calidad también los convierte en una opción viable. Una semana después, las cosas van bien Andy Boxall / Digital Trends Cuando compré las Ray-Ban Meta recién regladas de mi óptico y me las probé con las lentes transparentes, fue un shock. El diseño de las Wayfarer es mucho más atrevido que mis otras gafas y, sin duda, llaman la atención. Sin embargo, no parecen fuera de lugar, cómicamente grandes ni se parecen en nada a una pieza de tecnología. A primera vista, parece que llevo un par de Wayfarer normales con lentes transparentes, hasta que no lo llevo y parecen gafas de sol. Si es lo suficientemente bueno para Johnny Knoxville, es lo suficientemente bueno para mí. Pero, ¿por qué esto hará que lo que estoy planeando sea diferente de una revisión directa de las Ray-Ban Meta como gafas de sol? Usar gafas todo el tiempo es muy diferente a usar gafas de sol sólo cuando sales de casa en un día soleado. Las mejores gafas son aquellas que olvidas que las llevas puestas, ya que si hay alguna irritación, se convierte en un problema constante en el que no puedes dejar de pensar. Cambiar de mi habitual par de monturas Gottï Switzerland, apenas visibles, a las Wayfarers mejoradas con tecnología me implica lanzarme al fondo para ayudar a informar a los millones de usuarios de gafas si vale la pena hacer lo mismo. Además, me encanta el potencial de la tecnología portátil en general, ya sea en la cara, la muñeca, los dedos o el cuerpo. Este es el primer paso en mi vida con Ray-Ban Meta. ¿Cómo ha sido después de una semana? Definitivamente puedo sentir las Ray-Ban Meta en mi cara, y me cansan un poco después de un día completo de trabajo usándolas. Pero la mayor parte del tiempo me olvido de que los llevo puestos. He notado que una de las almohadillas nasales tiende a rozar un poco, pero esto ha disminuido a medida que se «desgastan», y sé que las ajusto en mi cara más que el otro par para encontrar el punto óptimo y cómodo. Pero no son demasiado pesados y no se resbalan ni se sienten mal equilibrados. Realmente no he necesitado quitármelos hasta que llevo unas cinco o seis horas usándolos. En ese momento, el puente de mi nariz suele estar harto. ¿Esto arruinará mi experimento antes de que realmente haya comenzado? Permítanme volver a eso. ¿Son lo suficientemente inteligentes? Andy Boxall / Digital Trends El ajuste y la comodidad son cruciales, pero uso las Ray-Ban Meta principalmente por la tecnología y las características. Como tal, todo debe ser útil, divertido y convincente. De lo contrario, usaré mis gafas normales. Me atrajeron las Ray-Ban Meta por dos razones principales: uso mucho auriculares y también disfruto mucho tomando fotografías. Tener acceso a una cámara y un par de parlantes en mi cara todo el tiempo, y con manos libres, fue realmente atractivo. Pero para llegar a este punto fue necesario obtener el Ray-Ban Meta de “alta especificación” y, por lo tanto, el más caro, lentes de transición y todo, y sé que no serán tan impresionantes desde el punto de vista sonoro como un par de excelentes auriculares ni tomarán fotografías. como el Samsung Galaxy S24 Ultra. Entonces, ¿por qué tomarse todas estas molestias y gastos? No espero que Ray-Ban Meta reemplace ninguno de estos otros productos. Quiero que las gafas inteligentes las complementen, agreguen comodidad y me brinden otra vía creativa para explorar con la cámara. Es todo lo que siempre quise de las gafas inteligentes, pero esta es la primera vez que los elementos cruciales de diseño, lentes y comodidad se combinan con la tecnología adecuada de una manera que me conviene. ¿Voy a usar Ray-Ban Meta todo el tiempo y abandonar mi otro par de gafas? Al principio, esta era mi intención, pero incluso después de una semana de tenerlos, puedo ver que probablemente no funcionará. Lo veo como si fuera a trabajar con traje y luego volviera a casa y me pusiera una sudadera. Los Ray-Ban Meta son perfectos para los días en los que estoy fuera de casa, dentro y fuera. Pero cuando quiero sentarme y relajarme en casa, o simplemente estoy mirando una pantalla en mi oficina, mis gafas no inteligentes, más livianas, menos visibles y que no necesitan cargarse son, con diferencia, la mejor opción. Vivir con gafas inteligentes Andy Boxall / Digital Trends Pero incluso con esta decisión de no ignorar por completo mis otras gafas, todavía estoy muy impresionado con la facilidad de uso de Ray-Ban Meta y la forma en que se vuelven casi imperceptibles después de un corto tiempo de usarlas. No estoy tan comprometido con el experimento como lo planeé originalmente, pero es probable que en el futuro sea una división 70/30 a favor de Ray-Ban Meta sobre mis anteojos habituales. Es un momento emocionante. Las Ray-Ban Meta han evitado la mayoría de los problemas que me impidieron probar las gafas inteligentes anteriores como mi par principal, y serán el primer par de gafas inteligentes que realmente puedo usar casi todo el tiempo. Pero ahora comienza la prueba de si son realmente útiles y la cámara es creativamente emocionante, cómo Meta continúa mejorando la funcionalidad y también si permanecen así con el tiempo, o si no tienen la longevidad para sostenerse. mi interes. Este es el primer paso en mi vida con Ray-Ban Meta y escribiré sobre mi viaje con ellos en el futuro. Recomendaciones de los editores
Página 1 de 4