Todo lo que necesitas saber sobre tecnología

Etiqueta: sitio

¿Puede la aplicación Calmara AI realmente detectar infecciones en parejas sexuales?


A finales del mes pasado, la startup HeHealth, con sede en San Francisco, anunció el lanzamiento de Calmara.ai, un alegre sitio web repleto de emojis que la compañía describe como “su mejor amigo experto en tecnología para controles de ITS”. El concepto es simple. Un usuario preocupado por el estado de salud sexual de su pareja simplemente toma una fotografía (con consentimiento, según las notas del servicio) del pene de su pareja (la única parte del cuerpo humano que el software está capacitado para reconocer) y la sube a Calmara. En segundos, el El sitio escanea la imagen y devuelve uno de dos mensajes: “¡Borrar! No se han detectado signos visibles de ITS por ahora” o “¡¡¡Espera!!! Detectamos algo sospechoso”. Calmara describe el servicio gratuito como “lo mejor después de una prueba de laboratorio para una verificación rápida”, impulsado por inteligencia artificial con “una tasa de precisión de hasta el 94,4%” (aunque una letra más pequeña en el sitio aclara su significado real). El rendimiento es “65% a 96% en diversas condiciones”). Desde su debut, los expertos en privacidad y salud pública han señalado con alarma una serie de descuidos importantes en el diseño de Calmara, como su endeble verificación de consentimiento, su potencial para recibir pornografía infantil. y una dependencia excesiva de las imágenes para detectar afecciones que a menudo son invisibles. Pero incluso como herramienta rudimentaria de detección de signos visuales de infecciones de transmisión sexual en un órgano humano específico, las pruebas de Calmara demostraron que el servicio era inexacto, poco confiable y propenso a el mismo tipo de información estigmatizante que su empresa matriz dice que quiere combatir. Un reportero de Los Angeles Times subió a Calmara una amplia gama de imágenes de pene tomadas de la Biblioteca de Imágenes de Salud Pública de los Centros para el Control y la Prevención de Enfermedades, el STD Center NY y el Royal Colegio Australiano de Médicos Generales. Calmara emitió un “¡¡¡Espera!!!” hasta múltiples imágenes de lesiones y protuberancias en el pene causadas por enfermedades de transmisión sexual, como sífilis, clamidia, herpes y virus del papiloma humano, el virus que causa las verrugas genitales. Las capturas de pantalla, con los genitales oscurecidos por ilustraciones, muestran que Calmara dio un “¡Claro!” a una fotografía de los CDC de un caso grave de sífilis, a la izquierda, subida por The Times; la aplicación decía «¡¡¡Espera!!!» en una fotografía, del Real Colegio Australiano de Médicos Generales, de un pene sin ETS. (Capturas de pantalla vía Calmara.ai; ilustración fotográfica de Los Angeles Times) Pero el sitio no pudo reconocer algunas imágenes de libros de texto de infecciones de transmisión sexual, incluida una úlcera chancroide y un caso de sífilis tan pronunciado que el prepucio ya no podía retraerse. La IA de Calmara Con frecuencia identificaba incorrectamente protuberancias en el pene no patológicas y de origen natural como signos de infección, señalando múltiples imágenes de órganos libres de enfermedades como “algo sospechoso”. También tuvo problemas para distinguir entre objetos inanimados y genitales humanos, emitiendo un alegre “¡Claro!” a imágenes de un novedoso jarrón con forma de pene y un pastel con forma de pene. «Hay tantas cosas mal en esta aplicación que ni siquiera sé por dónde empezar», dijo la Dra. Ina Park, profesora de UC San Francisco. quien se desempeña como consultor médico para la División de Prevención de ETS de los CDC. “Con cualquier prueba que se realice para detectar ITS, siempre existe la posibilidad de obtener falsos negativos y falsos positivos. El problema con esta aplicación es que parece estar plagada de ambos”. Jeffrey Klausner, especialista en enfermedades infecciosas de la Facultad de Medicina Keck de la USC y asesor científico de HeHealth, reconoció que Calmara «no puede promocionarse como una prueba de detección». “Para hacerse una prueba de detección de ITS, es necesario hacerse un análisis de sangre. Hay que hacerse un análisis de orina”, dijo. “Hacer que alguien mire un pene, o que un asistente digital mire un pene, no podrá detectar el VIH, la sífilis, la clamidia o la gonorrea. Incluso la mayoría de los casos de herpes son asintomáticos”. Calmara, dijo, es “algo muy diferente” del producto exclusivo de HeHealth, un servicio pago que escanea imágenes que un usuario envía de su propio pene y señala cualquier cosa que amerite seguimiento con un profesional de atención médica. proveedor. Klausner no respondió a las solicitudes de comentarios adicionales sobre la precisión de la aplicación. Tanto HeHealth como Calmara utilizan la misma IA subyacente, aunque los dos sitios «pueden tener diferencias a la hora de identificar problemas preocupantes», dijo la cofundadora y directora ejecutiva, la Dra. Yudara Kularathne. «Impulsada por la magia patentada de HeHealth (piense en una IA tan nítida que pensaría que supera a sus SAT), nuestra IA ha sido probada en batalla por más de 40.000 usuarios», se lee en el sitio web de Calmara, antes de señalar que su precisión oscila entre el 65 % y el 96 %. . «Es fantástico que revelen eso, pero el 65% es terrible», afirmó el Dr. Sean Young, profesor de medicina de emergencia de la UCI y director ejecutivo del Instituto de Tecnología de Predicción de la Universidad de California. “Desde una perspectiva de salud pública, si le estás dando a la gente un 65% de precisión, ¿por qué decirle algo a alguien? Eso es potencialmente más dañino que beneficioso”. Kularathne dijo que el rango de precisión “destaca la complejidad de detectar ITS y otras afecciones visibles en el pene, cada una con sus características y desafíos únicos”. Y añadió: “Es importante entender que este es sólo el punto de partida para Calmara. A medida que perfeccionemos nuestra IA con más conocimientos, esperamos que estas cifras mejoren”. En el sitio web de HeHealth, Kularathne dice que se inspiró para iniciar la empresa después de que un amigo se suicidara después de “un susto de ITS magnificado por la desinformación en línea”. “Numerosas condiciones fisiológicas «A menudo se confunden con ITS y nuestra tecnología puede brindar tranquilidad en estas situaciones», publicó Kularathne el martes en LinkedIn. «Nuestra tecnología tiene como objetivo brindar claridad a los jóvenes, especialmente a la Generación Z». La IA de Calmara también confundió algunas condiciones fisiológicas con ITS. El Times subió al sitio una serie de imágenes que se publicaron en un sitio web médico como ejemplos de enfermedades no transmisibles, Variaciones anatómicas no patológicas en el pene humano que a veces se confunden con ITS, incluidas marcas en la piel, glándulas sebáceas visibles y capilares agrandados. Calmara identificó cada una de ellas como “algo sospechoso”. Una información tan inexacta podría tener exactamente el efecto opuesto en los usuarios jóvenes que la «claridad» que pretenden sus fundadores, dijo la Dra. Joni Roberts, profesora asistente de Cal Poly San Luis Obispo que dirige el Laboratorio de Salud Sexual y Reproductiva del campus. «Si tengo 18 años, tomo una fotografía de algo que es un ocurrencia normal como parte del cuerpo humano, [and] ¿Me sale esto que dice que es ‘sus’? Ahora estoy estresado”, dijo Roberts. “Ya sabemos que la salud mental [issues are] extremadamente alto en esta población. Las redes sociales han causado estragos en la autoimagen, el valor, la depresión, etc., de las personas”, dijo. “Decir que algo es ‘sus’ sin proporcionar ninguna información es problemático”. Kularathne defendió la elección del idioma del sitio. «La frase ‘algo sus’ se elige deliberadamente para indicar ambigüedad y sugerir la necesidad de una mayor investigación», escribió en un correo electrónico. «Es un estímulo para que los usuarios busquen asesoramiento profesional, fomentando una cultura de precaución y responsabilidad». Aún así, «la identificación errónea de una anatomía saludable como ‘algo sospechoso’ si eso sucede, de hecho no es el resultado que buscamos», escribió. Los usuarios cuyas fotografías reciben un aviso de «Retención» son dirigidos a HeHealth donde, pagando una tarifa, pueden enviar fotografías adicionales de su pene para su posterior escaneo. A aquellos que obtienen un “Clear” se les dice: “Por ahora no se han detectado signos visibles de ITS”. . . Pero esto no significa que todo esté claro para las ITS”, señalando, correctamente, que muchas enfermedades de transmisión sexual son asintomáticas e invisibles. Los usuarios que hagan clic en las preguntas frecuentes de Calmara también encontrarán un descargo de responsabilidad que indicará que «¡Borrar!» La notificación “no significa que se puedan escatimar en controles adicionales”. Young expresó su preocupación de que algunas personas pudieran usar la aplicación para tomar decisiones inmediatas sobre su salud sexual. «Existen obligaciones más éticas para poder ser transparente y claro acerca de sus datos y prácticas, y no utilizar los enfoques típicos de startups que muchas otras empresas utilizarán en espacios no relacionados con la salud», dijo. En su forma actual, Dijo que Calmara “tiene el potencial de estigmatizar aún más no solo las ITS, sino también estigmatizar aún más la salud digital al dar diagnósticos inexactos y hacer que la gente afirme que cada herramienta o aplicación de salud digital es simplemente una gran farsa”. HeHealth.ai ha planteado 1,1 millones de dólares desde su fundación en 2019, dijo la cofundadora Mei-Ling Lu. Actualmente, la compañía está buscando otros 1,5 millones de dólares de inversores, según PitchBook. Los expertos médicos entrevistados para este artículo dijeron que la tecnología puede y debe usarse para reducir las barreras a la atención médica sexual. Proveedores como Planned Parenthood y Mayo Clinic están utilizando herramientas de inteligencia artificial para compartir información verificada con sus pacientes, dijo Mara Decker, epidemióloga de UC San Francisco que estudia educación sobre salud sexual y tecnología digital. Pero cuando se trata del enfoque de Calmara, «básicamente puedo Sólo veo aspectos negativos y ningún beneficio”, dijo Decker. “Podrían fácilmente reemplazar su aplicación con un letrero que diga: ‘Si tienes un sarpullido o una llaga notable, hazte la prueba’”.

Source link

Elon Musk compró Twitter solo para romperlo y nosotros estamos pagando el precio

Ha pasado casi un año desde que Elon Musk adquirió Twitter, y más que el propietario promedio, ha realizado algunos cambios en el escaparate: reemplazó la alegre mascota alada de la plataforma de redes sociales con una siniestra «X», despojó a todos los suscriptores excepto los de pago del estado verificado, y convertirlo de una encrucijada frenética de noticias y opiniones de última hora a un patio de recreo para falsedades y propaganda sembrada por malos actores. “Las redes sociales siempre son dignas de confianza”, dijo nadie, nunca. Pero una nueva guerra en Medio Oriente está haciendo que los usuarios de la plataforma desde hace mucho tiempo sean muy conscientes del daño que el director ejecutivo de SpaceX y ex presidente de Tesla ha causado en el ámbito público digital. Un nivel sin precedentes de información errónea no controlada en X ha hecho que sea exponencialmente más difícil obtener información creíble, según investigadores y grupos de verificación de hechos. Como si el conflicto entre Israel y Hamas no fuera lo suficientemente complicado, navegar por X para obtener noticias de última hora ahora significa tener que revisar capas de tonterías xenófobas, videos manipulados y/o mal etiquetados y más robots que arrojan desinformación que Facebook. alrededor de 2016. Primer ejemplo: un video viral que dice mostrar a un combatiente de Hamas derribando un helicóptero israelí es en realidad un clip del videojuego Arma 3. Ciudad de Gaza el lunes durante un ataque aéreo israelí. (NurPhoto vía Getty Images) Peor aún, la basura está lloviendo de arriba hacia abajo. El domingo, Musk sugirió que sus más de 159 millones de seguidores revisaran un par de cuentas “buenas” para “seguir la guerra en tiempo real”. Desafortunadamente, su consejo incluyó a un identificador conocido por difundir un informe falso de una explosión en el Pentágono a principios de este año, y otro que había dirigido comentarios antisemitas a un compañero usuario. (Desde entonces, Musk eliminó su recomendación). La avalancha de noticias falsas fue inevitable dados los continuos esfuerzos de Musk para desregular el espacio. Recientemente despidió a la mitad del equipo dedicado a detectar información errónea y fraude electoral en el sitio, que ya había sido reducido cuando adquirió el sitio por primera vez. Y apenas la semana pasada, X comenzó a eliminar titulares de artículos de noticias, lo que hace que sea más fácil engañar a los usuarios sobre el contenido de una historia y más difícil para los usuarios distinguir entre un enlace de un medio de noticias de buena reputación y una foto aleatoria publicada por un individuo. Estos son sólo los últimos de una serie de medidas de Musk que parecen diseñadas para sembrar dudas sobre el trabajo de fuentes legítimas como la BBC y NPR y aumentar la visibilidad de voces “alternativas”, como los supremacistas blancos y los negacionistas electorales. Y tal vez no sea una sorpresa, dado que una de las primeras acciones que tomó Musk después de asumir el control de Twitter fue restablecer muchas cuentas que habían sido previamente suspendidas por conducta de odio (el exlíder del Ku Klux Klan, David Duke), promoviendo teorías de conspiración infundadas sobre el fraude electoral. (Mike Flynn) o sobre COVID-19 (Representante de Georgia Marjorie Taylor Greene). Puede que el Salvaje Oeste de Musk haya tardado un año en gestarse, pero los últimos días han puesto de relieve que la plataforma antes conocida como Twitter -donde la mayoría de los sabuesos se han reunido para circular, celebrar y lamentar las últimas noticias durante más de una década- ya no permite ni siquiera usuarios altamente exigentes para discernir la realidad de la ficción. Cientos de miles de usuarios amplificaron un comunicado de prensa falso de la Casa Blanca publicado el sábado que afirmaba falsamente que Estados Unidos estaba enviando miles de millones de dólares en nueva ayuda a Israel. Y un vídeo que pretendía mostrar a generales israelíes capturados por Hamás, y que había sido visto más de 1,7 millones de veces hasta el lunes, en realidad mostraba, como informó CNN, la detención de separatistas en Azerbaiyán. El equipo de desinformación desnudo de X detectó algunas publicaciones engañosas o falsas, incluido un vídeo que supuestamente retrata los ataques aéreos israelíes en Gaza. Pero el mismo video y título continuaron proliferando en otras cuentas de la plataforma. Durante más de una década, Twitter implementó controles sobre las habituales peleas a gritos, teorías de conspiración y locura general de una plataforma masiva de redes sociales para limitar el comercio de falsedades. Esa diligencia debida no evitó todas las mentiras ni aplastó todos los robots, pero hizo posible que la mayoría de nosotros busquemos (condenadamente) actualizaciones sobre los eventos más importantes: la captura y asesinato de Osama bin Laden, la desaparición del MH370, la saga de Kanye y Kim, Black Lives Matter, #MeToo, la muerte de Kobe Bryant, COVID, Ucrania y más. Musk era uno de esos usuarios en aquel entonces, y su tensa relación con la plataforma se explora en el documental de Frontline “Elon Musk’s Twitter Takeover” (que se estrena el martes en PBS). La sede de Twitter en San Francisco en julio, cuando los trabajadores comenzaron a retirar los carteles después de que Elon Musk cambiara el nombre de la plataforma de redes sociales a «X». (Justin Sullivan/Getty Images) Ahora que el pajarito azul se ha ido, el tenor del lugar ha cambiado y las cosas son mucho más feas. GLAAD la llamó «la plataforma más peligrosa para las personas LGBTQ». La ADL citó un aumento del 61,3% en los tweets antisemitas dos semanas después de que Musk comprara el sitio en comparación con las dos semanas anteriores a que asumiera el control. El Centro para Contrarrestar el Odio Digital informa un aumento del 202% en los tweets que utilizan la palabra N desde que Musk tomó las riendas. El mes pasado, Musk acusó a la Liga Antidifamación (ADL) de “intentar acabar con esta plataforma acusándonos falsamente a ella y a mí de ser antisemitas” e insinuó que podría demandar a la organización anti-odio por difamación. que han convertido el lugar en un vertedero tóxico de personas que influyen en el odio y mala información, el objetivo ya no es compartir información. Se trata de gritar al vacío, por muy mal informado que sea el mensaje o cuán infundada sea la acusación. Se trata de erosionar la confianza en fuentes confiables, individuales o institucionales, y elevar a los usuarios nefastos que deben avivar el miedo, la duda y la confusión para prosperar. Y a medida que se acerca su primer aniversario, nunca ha estado más claro que Musk hará todo lo posible. para entregar.

Source link

Funciona con WordPress & Tema de Anders Norén