Por lo general, cuando las empresas lanzan nuevos software y servicios, generalmente están disponibles en los principales idiomas, como el inglés. Esto puede resultar frustrante para los usuarios que no hablan inglés, pero así son las cosas. La buena noticia es que si eres un usuario de Samsung que usa Galaxy AI, te complacerá saber que la IA ahora es multilingüe. Samsung ha anunciado que está lanzando una actualización de Galaxy AI que admitirá nuevos idiomas. Esto incluye árabe, indonesio y ruso. Samsung también dice que agregará soporte para tres dialectos adicionales en la primavera de 2024. Esto viene en forma de inglés australiano, cantonés y francés canadiense. ¡Pero eso no es todo! La compañía dice que tiene planes de incluir también soporte para rumano, turco, holandés y sueco, junto con chino tradicional y portugués europeo. Se espera que esto llegue a finales de este año, pero no se han mencionado fechas específicas. Para empezar, el Samsung Galaxy AI ya era multilingüe. La suite de IA se lanzó inicialmente con soporte para 13 idiomas, por lo que esta actualización (y la actualización futura) hará que Galaxy AI sea aún más útil para quienes hablan otros idiomas. Entonces, si tienes acceso a Galaxy AI pero no habla tu idioma, ¡esperamos que esta actualización te ayude!
Etiqueta: ai Página 2 de 17

La población de Internet en los EE. UU. es la más alta hasta ahora, encabezando las listas con 299 millones. Se espera que ese número aumente en los próximos años. Sin embargo, este número creciente y la adopción continua de servicios en línea plantean riesgos crecientes de ciberseguridad a medida que los ciberdelincuentes se aprovechan de más usuarios en línea y explotan vulnerabilidades en la infraestructura en línea. Es por eso que necesitamos software respaldado por IA para brindar protección avanzada a los usuarios en línea. La naturaleza de estas amenazas en línea cambia constantemente, lo que dificulta que los sistemas de detección de amenazas heredados monitoreen el comportamiento de las amenazas y detecten nuevos códigos maliciosos. Afortunadamente, los sistemas de detección de amenazas, como el antivirus y la defensa de detección de amenazas de McAfee, se adaptan para incorporar lo último en inteligencia de amenazas y análisis de comportamiento impulsados por inteligencia artificial (IA). Así es como la IA impacta la ciberseguridad para ir más allá de los métodos tradicionales para proteger a los usuarios en línea. ¿Qué es la IA? La mayoría de los programas antivirus y de detección de amenazas actuales aprovechan la detección basada en heurísticas del comportamiento basadas en modelos de aprendizaje automático para detectar comportamientos maliciosos conocidos. Los métodos tradicionales se basan en el análisis de datos para detectar firmas o huellas de amenazas conocidas con una precisión increíble. Sin embargo, estos métodos convencionales no tienen en cuenta el nuevo código malicioso, también conocido como malware de día cero, del que no se dispone de información conocida. La IA es fundamental para la ciberseguridad, ya que permite que el software y los proveedores de seguridad adopten un enfoque más inteligente para la detección de virus y malware. A diferencia del software respaldado por IA, los métodos tradicionales se basan únicamente en software basado en firmas y análisis de datos. De manera similar al razonamiento humano, los modelos de aprendizaje automático siguen un proceso de tres etapas para recopilar información, procesarla y generar una salida en forma de pistas de amenaza. El software de detección de amenazas puede recopilar información de inteligencia sobre amenazas para comprender el malware conocido utilizando estos modelos. Luego procesa estos datos, los almacena y los utiliza para sacar inferencias y tomar decisiones y predicciones. La detección basada en heurísticas del comportamiento aprovecha múltiples facetas del aprendizaje automático, una de las cuales es el aprendizaje profundo. El aprendizaje profundo emplea redes neuronales para emular la función de las neuronas en el cerebro humano. Esta arquitectura utiliza algoritmos de validación para verificar datos y ecuaciones matemáticas complejas, lo que aplica un enfoque de razonamiento de «si esto, entonces aquello». Examina lo que ocurrió en el pasado y analiza datos actuales y predictivos para llegar a una conclusión. A medida que las numerosas capas de este marco procesan más datos, más precisa se vuelve la predicción. Muchos antivirus y sistemas de detección también utilizan el aprendizaje conjunto. Este proceso adopta un enfoque en capas mediante la aplicación de múltiples modelos de aprendizaje para crear uno que sea más sólido y completo. El aprendizaje conjunto puede mejorar el rendimiento de la detección con menos errores para obtener una conclusión más precisa. Además, el software de detección actual aprovecha las técnicas de aprendizaje supervisado adoptando un enfoque de «aprender con el ejemplo». Este proceso se esfuerza por desarrollar un algoritmo mediante la comprensión de la relación entre una entrada determinada y la salida deseada. El aprendizaje automático es sólo una parte de un marco antivirus y de detección de amenazas eficaz. Un marco adecuado combina nuevos tipos de datos con aprendizaje automático y razonamiento cognitivo para desarrollar un marco analítico muy avanzado. Este marco permitirá la detección, prevención y remediación avanzadas de amenazas. ¿Cómo puede la IA ayudar a la ciberseguridad? Las amenazas en línea están aumentando a un ritmo asombroso. McAfee Labs observó una media de 688 amenazas de malware por minuto. Estos riesgos existen y a menudo se ven exacerbados por varias razones, una de las cuales es la complejidad y conectividad del mundo actual. Los analistas de detección de amenazas no pueden detectar manualmente nuevo malware debido a su gran volumen. Sin embargo, la IA puede identificar y categorizar nuevo malware basándose en comportamientos maliciosos antes de que tengan la oportunidad de afectar a los usuarios en línea. El software habilitado para IA también puede detectar malware mutado que intenta evitar la detección de los sistemas antivirus heredados. Hoy en día, hay más dispositivos interconectados y el uso en línea está arraigado en la vida cotidiana de las personas. Sin embargo, el creciente número de dispositivos digitales crea una superficie de ataque más amplia. En otras palabras, los piratas informáticos tendrán más posibilidades de infiltrarse en un dispositivo y en aquellos conectados a él. Además, el uso de dispositivos móviles está poniendo a los usuarios en línea en un riesgo significativo. Más del 90% de los estadounidenses poseen un teléfono inteligente. Los piratas informáticos están notando el creciente número de usuarios de dispositivos móviles y rápidamente están aprovechando este hecho para atacar a los usuarios con malware específico para dispositivos móviles. La mayor conectividad en línea a través de varios dispositivos también significa que se almacena y procesa más información en línea. Hoy en día, cada vez más personas están poniendo sus datos y su privacidad en manos de corporaciones que tienen la responsabilidad fundamental de salvaguardar los datos de sus usuarios. El quid de la cuestión es que no todas las empresas pueden garantizar las salvaguardias necesarias para cumplir esta promesa, lo que en última instancia resulta en violaciones de datos y privacidad. En respuesta a estos riesgos y a la creciente sofisticación del panorama en línea, las empresas de seguridad combinan inteligencia artificial, inteligencia de amenazas y ciencia de datos para analizar y resolver amenazas cibernéticas nuevas y complejas. La protección contra amenazas respaldada por IA identifica y aprende sobre nuevo malware mediante modelos de aprendizaje automático. Esto permite que el software antivirus respaldado por IA proteja a los usuarios en línea de manera más eficiente y confiable que nunca. Los tres principales beneficios del software de detección de amenazas respaldado por IA La IA aborda numerosos desafíos planteados por el aumento de la complejidad y el volumen del malware, lo que la hace fundamental para la seguridad en línea y la protección de la privacidad. Estas son las tres formas principales en que la IA mejora la ciberseguridad para proteger mejor a los usuarios en línea. 1. Detección de amenazas eficaz La diferencia más significativa entre los métodos tradicionales de detección de amenazas basados en firmas y los métodos avanzados respaldados por IA es la capacidad de detectar malware de día cero. Funcionar exclusivamente con cualquiera de estos dos métodos no dará como resultado un nivel de protección adecuado. Sin embargo, combinarlos da como resultado una mayor probabilidad de detectar más amenazas con mayor precisión. En última instancia, cada método aprovechará las fortalezas del otro para lograr un nivel máximo de protección. 2. Gestión de vulnerabilidades mejorada La IA permite que el software de detección de amenazas piense como un hacker. Puede ayudar al software a identificar vulnerabilidades que los ciberdelincuentes normalmente explotarían y señalarlas al usuario. También permite que el software de detección de amenazas identifique mejor las debilidades en los dispositivos de los usuarios incluso antes de que ocurra una amenaza, a diferencia de los métodos convencionales. La seguridad respaldada por IA va más allá de los métodos tradicionales para predecir mejor lo que un pirata informático consideraría una vulnerabilidad. 2. Mejores recomendaciones de seguridad La IA puede ayudar a los usuarios a comprender los riesgos a los que se enfrentan a diario. Un software de detección de amenazas avanzado respaldado por IA puede proporcionar una solución más prescriptiva para identificar riesgos y cómo manejarlos. Una mejor explicación da como resultado una mejor comprensión del problema. Como resultado, los usuarios son más conscientes de cómo mitigar el incidente o la vulnerabilidad en el futuro. Adopte un enfoque más inteligente para la seguridad La IA y el aprendizaje automático son solo una parte de un marco eficaz de detección de amenazas. Un marco de detección de amenazas adecuado combina nuevos tipos de datos con las últimas capacidades de aprendizaje automático para desarrollar un marco analítico muy avanzado. Este marco permitirá una mejor detección, prevención y remediación de amenazas cibernéticas. Presentamos McAfee+ Protección contra robo de identidad y privacidad para su vida digital Descargue McAfee+ ahora \x3Cimg height=»1″ width=»1″ style=»display:none» src=»https://www.facebook.com/tr?id= 766537420057144&ev=PageView&noscript=1″ />\x3C/noscript>’);

«¿Qué es real? ¿Cómo se define real? Morfeo le preguntó a Neo en The Matrix (1999), pero más de 20 años después, es una pregunta que muchos de nosotros nos hemos estado haciendo. El crecimiento exponencial y la conveniencia de utilizar herramientas de IA generativa han facilitado que cualquiera pueda crear imágenes generadas por IA. Si bien herramientas como DALL-E, Midjourney, Stable Diffusion y Bing AI han ayudado a los usuarios de muchas maneras, también se utilizan indebidamente para difundir información errónea y falsificaciones profundas. Estas herramientas son tan buenas en lo que hacen que puede resultar complicado diferenciar entre imágenes reales y generadas por IA. Sin embargo, existen algunas formas de detectar imágenes generadas por IA. Veamos qué puede hacer para evitar ser víctima de una de esas imágenes falsas. Verifique la descripción de la imagen, la marca de agua y los comentarios El primer paso es verificar la descripción, el título, las etiquetas y los comentarios de la imagen. Es muy probable que la persona que compartió la imagen haya mencionado que está generada por IA en el título o en algún lugar de la descripción o las etiquetas. De lo contrario, es posible que alguien haya agregado los detalles en los comentarios/respuestas de la publicación original. Las imágenes de IA también tienen una marca de agua, a veces, que muestra qué herramienta se utilizó para generarlas, pero puede ser un poco difícil de detectar. Por ejemplo, la imagen de arriba tiene cuadrados multicolores en la esquina inferior derecha. Esta es la marca de agua para las imágenes de IA generadas mediante DALL-E. Pero tenga en cuenta que no todas las imágenes tendrán una marca de agua. Si no encuentra ningún detalle de este tipo sobre la imagen, es hora de tomar el asunto en sus propias manos y pasar a los siguientes pasos. Las distorsiones son tus amigas No hay duda de que las herramientas de IA son excelentes en lo que hacen, pero no son perfectas. Significa que a menudo cometen errores al generar imágenes. La distorsión es una de las formas más comunes de detectar si una imagen en particular es real o falsa, especialmente cuando tiene humanos. Puede buscar distorsiones de imágenes alrededor de la cara, la nariz, los ojos y los dientes. En la foto también se pueden observar efectos similares como fondo borroso, asimetría facial, dedos adicionales, extremidades de aspecto extraño, texto galimatías en el fondo y parches que parecen pinturas. Suavidad Se sabe que las imágenes generadas por IA tienen texturas suaves. Bueno, demasiada suavidad que añade ese elemento artificial a los objetos. Puedes detectar esto fácilmente al mirar objetos, especialmente la piel de los humanos en la foto. La textura suave en las imágenes de IA es tan alta que instantáneamente las hace parecer irreales, similar a cómo te sientes después de mirar una foto o un selfie muy editado. Se puede observar un nivel similar de suavidad en el fondo y en otros objetos como la vegetación. Recuerde que si una imagen es demasiado fluida para el mundo real, probablemente sea falsa. Búsqueda inversa de imágenes Puede probar la herramienta de búsqueda inversa de imágenes de Google para comprobar si una imagen en particular está generada por IA o es real. Sube la imagen en cuestión a la herramienta y espera los resultados. Si encuentra resultados de búsqueda con otras imágenes similares a la que subió, es muy probable que sea real. También puede encontrar artículos y enlaces a noticias que ofrezcan más contexto a la imagen. La falta de imágenes similares en Internet generalmente indica que se trata de una imagen falsa. Herramientas de detección de imágenes de IA Al igual que existen herramientas para generar imágenes de IA, también existen herramientas para detectar imágenes generadas por IA como Is It AI, AI or Not y Hugging Face. Puede cargar fotos en estas herramientas para tener una idea de si una foto está generada por IA. Le sugerimos que pruebe varias herramientas para una fotografía en lugar de creer en una sola herramienta. Cuanto mayor sea el número de herramientas que marcan una imagen como IA, mayores serán las posibilidades de que sea falsa. Estas son algunas de las formas en que puedes detectar imágenes generadas por IA. Dado que las herramientas son cada vez mejores con el tiempo, será cada vez más difícil diferenciarlas. El mejor consejo es no creer todo lo que ves en la primera impresión. Mire siempre más de cerca la imagen y utilice una combinación de los consejos antes mencionados para responder la pregunta: «¿Qué es real?»

A finales del mes pasado, la startup HeHealth, con sede en San Francisco, anunció el lanzamiento de Calmara.ai, un alegre sitio web repleto de emojis que la compañía describe como “su mejor amigo experto en tecnología para controles de ITS”. El concepto es simple. Un usuario preocupado por el estado de salud sexual de su pareja simplemente toma una fotografía (con consentimiento, según las notas del servicio) del pene de su pareja (la única parte del cuerpo humano que el software está capacitado para reconocer) y la sube a Calmara. En segundos, el El sitio escanea la imagen y devuelve uno de dos mensajes: “¡Borrar! No se han detectado signos visibles de ITS por ahora” o “¡¡¡Espera!!! Detectamos algo sospechoso”. Calmara describe el servicio gratuito como “lo mejor después de una prueba de laboratorio para una verificación rápida”, impulsado por inteligencia artificial con “una tasa de precisión de hasta el 94,4%” (aunque una letra más pequeña en el sitio aclara su significado real). El rendimiento es “65% a 96% en diversas condiciones”). Desde su debut, los expertos en privacidad y salud pública han señalado con alarma una serie de descuidos importantes en el diseño de Calmara, como su endeble verificación de consentimiento, su potencial para recibir pornografía infantil. y una dependencia excesiva de las imágenes para detectar afecciones que a menudo son invisibles. Pero incluso como herramienta rudimentaria de detección de signos visuales de infecciones de transmisión sexual en un órgano humano específico, las pruebas de Calmara demostraron que el servicio era inexacto, poco confiable y propenso a el mismo tipo de información estigmatizante que su empresa matriz dice que quiere combatir. Un reportero de Los Angeles Times subió a Calmara una amplia gama de imágenes de pene tomadas de la Biblioteca de Imágenes de Salud Pública de los Centros para el Control y la Prevención de Enfermedades, el STD Center NY y el Royal Colegio Australiano de Médicos Generales. Calmara emitió un “¡¡¡Espera!!!” hasta múltiples imágenes de lesiones y protuberancias en el pene causadas por enfermedades de transmisión sexual, como sífilis, clamidia, herpes y virus del papiloma humano, el virus que causa las verrugas genitales. Las capturas de pantalla, con los genitales oscurecidos por ilustraciones, muestran que Calmara dio un “¡Claro!” a una fotografía de los CDC de un caso grave de sífilis, a la izquierda, subida por The Times; la aplicación decía «¡¡¡Espera!!!» en una fotografía, del Real Colegio Australiano de Médicos Generales, de un pene sin ETS. (Capturas de pantalla vía Calmara.ai; ilustración fotográfica de Los Angeles Times) Pero el sitio no pudo reconocer algunas imágenes de libros de texto de infecciones de transmisión sexual, incluida una úlcera chancroide y un caso de sífilis tan pronunciado que el prepucio ya no podía retraerse. La IA de Calmara Con frecuencia identificaba incorrectamente protuberancias en el pene no patológicas y de origen natural como signos de infección, señalando múltiples imágenes de órganos libres de enfermedades como “algo sospechoso”. También tuvo problemas para distinguir entre objetos inanimados y genitales humanos, emitiendo un alegre “¡Claro!” a imágenes de un novedoso jarrón con forma de pene y un pastel con forma de pene. «Hay tantas cosas mal en esta aplicación que ni siquiera sé por dónde empezar», dijo la Dra. Ina Park, profesora de UC San Francisco. quien se desempeña como consultor médico para la División de Prevención de ETS de los CDC. “Con cualquier prueba que se realice para detectar ITS, siempre existe la posibilidad de obtener falsos negativos y falsos positivos. El problema con esta aplicación es que parece estar plagada de ambos”. Jeffrey Klausner, especialista en enfermedades infecciosas de la Facultad de Medicina Keck de la USC y asesor científico de HeHealth, reconoció que Calmara «no puede promocionarse como una prueba de detección». “Para hacerse una prueba de detección de ITS, es necesario hacerse un análisis de sangre. Hay que hacerse un análisis de orina”, dijo. “Hacer que alguien mire un pene, o que un asistente digital mire un pene, no podrá detectar el VIH, la sífilis, la clamidia o la gonorrea. Incluso la mayoría de los casos de herpes son asintomáticos”. Calmara, dijo, es “algo muy diferente” del producto exclusivo de HeHealth, un servicio pago que escanea imágenes que un usuario envía de su propio pene y señala cualquier cosa que amerite seguimiento con un profesional de atención médica. proveedor. Klausner no respondió a las solicitudes de comentarios adicionales sobre la precisión de la aplicación. Tanto HeHealth como Calmara utilizan la misma IA subyacente, aunque los dos sitios «pueden tener diferencias a la hora de identificar problemas preocupantes», dijo la cofundadora y directora ejecutiva, la Dra. Yudara Kularathne. «Impulsada por la magia patentada de HeHealth (piense en una IA tan nítida que pensaría que supera a sus SAT), nuestra IA ha sido probada en batalla por más de 40.000 usuarios», se lee en el sitio web de Calmara, antes de señalar que su precisión oscila entre el 65 % y el 96 %. . «Es fantástico que revelen eso, pero el 65% es terrible», afirmó el Dr. Sean Young, profesor de medicina de emergencia de la UCI y director ejecutivo del Instituto de Tecnología de Predicción de la Universidad de California. “Desde una perspectiva de salud pública, si le estás dando a la gente un 65% de precisión, ¿por qué decirle algo a alguien? Eso es potencialmente más dañino que beneficioso”. Kularathne dijo que el rango de precisión “destaca la complejidad de detectar ITS y otras afecciones visibles en el pene, cada una con sus características y desafíos únicos”. Y añadió: “Es importante entender que este es sólo el punto de partida para Calmara. A medida que perfeccionemos nuestra IA con más conocimientos, esperamos que estas cifras mejoren”. En el sitio web de HeHealth, Kularathne dice que se inspiró para iniciar la empresa después de que un amigo se suicidara después de “un susto de ITS magnificado por la desinformación en línea”. “Numerosas condiciones fisiológicas «A menudo se confunden con ITS y nuestra tecnología puede brindar tranquilidad en estas situaciones», publicó Kularathne el martes en LinkedIn. «Nuestra tecnología tiene como objetivo brindar claridad a los jóvenes, especialmente a la Generación Z». La IA de Calmara también confundió algunas condiciones fisiológicas con ITS. El Times subió al sitio una serie de imágenes que se publicaron en un sitio web médico como ejemplos de enfermedades no transmisibles, Variaciones anatómicas no patológicas en el pene humano que a veces se confunden con ITS, incluidas marcas en la piel, glándulas sebáceas visibles y capilares agrandados. Calmara identificó cada una de ellas como “algo sospechoso”. Una información tan inexacta podría tener exactamente el efecto opuesto en los usuarios jóvenes que la «claridad» que pretenden sus fundadores, dijo la Dra. Joni Roberts, profesora asistente de Cal Poly San Luis Obispo que dirige el Laboratorio de Salud Sexual y Reproductiva del campus. «Si tengo 18 años, tomo una fotografía de algo que es un ocurrencia normal como parte del cuerpo humano, [and] ¿Me sale esto que dice que es ‘sus’? Ahora estoy estresado”, dijo Roberts. “Ya sabemos que la salud mental [issues are] extremadamente alto en esta población. Las redes sociales han causado estragos en la autoimagen, el valor, la depresión, etc., de las personas”, dijo. “Decir que algo es ‘sus’ sin proporcionar ninguna información es problemático”. Kularathne defendió la elección del idioma del sitio. «La frase ‘algo sus’ se elige deliberadamente para indicar ambigüedad y sugerir la necesidad de una mayor investigación», escribió en un correo electrónico. «Es un estímulo para que los usuarios busquen asesoramiento profesional, fomentando una cultura de precaución y responsabilidad». Aún así, «la identificación errónea de una anatomía saludable como ‘algo sospechoso’ si eso sucede, de hecho no es el resultado que buscamos», escribió. Los usuarios cuyas fotografías reciben un aviso de «Retención» son dirigidos a HeHealth donde, pagando una tarifa, pueden enviar fotografías adicionales de su pene para su posterior escaneo. A aquellos que obtienen un “Clear” se les dice: “Por ahora no se han detectado signos visibles de ITS”. . . Pero esto no significa que todo esté claro para las ITS”, señalando, correctamente, que muchas enfermedades de transmisión sexual son asintomáticas e invisibles. Los usuarios que hagan clic en las preguntas frecuentes de Calmara también encontrarán un descargo de responsabilidad que indicará que «¡Borrar!» La notificación “no significa que se puedan escatimar en controles adicionales”. Young expresó su preocupación de que algunas personas pudieran usar la aplicación para tomar decisiones inmediatas sobre su salud sexual. «Existen obligaciones más éticas para poder ser transparente y claro acerca de sus datos y prácticas, y no utilizar los enfoques típicos de startups que muchas otras empresas utilizarán en espacios no relacionados con la salud», dijo. En su forma actual, Dijo que Calmara “tiene el potencial de estigmatizar aún más no solo las ITS, sino también estigmatizar aún más la salud digital al dar diagnósticos inexactos y hacer que la gente afirme que cada herramienta o aplicación de salud digital es simplemente una gran farsa”. HeHealth.ai ha planteado 1,1 millones de dólares desde su fundación en 2019, dijo la cofundadora Mei-Ling Lu. Actualmente, la compañía está buscando otros 1,5 millones de dólares de inversores, según PitchBook. Los expertos médicos entrevistados para este artículo dijeron que la tecnología puede y debe usarse para reducir las barreras a la atención médica sexual. Proveedores como Planned Parenthood y Mayo Clinic están utilizando herramientas de inteligencia artificial para compartir información verificada con sus pacientes, dijo Mara Decker, epidemióloga de UC San Francisco que estudia educación sobre salud sexual y tecnología digital. Pero cuando se trata del enfoque de Calmara, «básicamente puedo Sólo veo aspectos negativos y ningún beneficio”, dijo Decker. “Podrían fácilmente reemplazar su aplicación con un letrero que diga: ‘Si tienes un sarpullido o una llaga notable, hazte la prueba’”.
Source link

Reino Unido y EE. UU. acuerdan colaborar en el desarrollo de pruebas de seguridad para modelos de IA
El gobierno del Reino Unido acordó formalmente trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de inteligencia artificial. El 1 de abril de 2024, la Secretaria de Tecnología del Reino Unido, Michelle Donelan, y la Secretaria de Comercio de los Estados Unidos, Gina Raimondo, firmaron un Memorando de Entendimiento, que es un acuerdo no vinculante legalmente (Figura A). Figura A La secretaria de Comercio de Estados Unidos, Gina Raimondo (izquierda), y la secretaria de Tecnología del Reino Unido, Michelle Donelan (derecha). Fuente: Gobierno del Reino Unido. Imagen: Gobierno del Reino Unido Ambos países ahora “alinearán sus enfoques científicos” y trabajarán juntos para “acelerar e iterar rápidamente conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA”. Esta medida se está tomando para mantener los compromisos establecidos en la primera Cumbre mundial sobre seguridad de la IA en noviembre pasado, donde gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. ¿Qué iniciativas de IA han acordado el Reino Unido y Estados Unidos? Con el MoU, el Reino Unido y los EE. UU. acordaron cómo construirán un enfoque común para las pruebas de seguridad de la IA y compartirán sus desarrollos entre sí. Específicamente, esto implicará: Desarrollar un proceso compartido para evaluar la seguridad de los modelos de IA. Realizar al menos un ejercicio de prueba conjunto sobre un modelo de acceso público. Colaborar en la investigación técnica de seguridad de la IA, tanto para avanzar en el conocimiento colectivo de los modelos de IA como para garantizar que las nuevas políticas estén alineadas. Intercambio de personal entre respectivos institutos. Compartir información sobre todas las actividades realizadas en los respectivos institutos. Trabajar con otros gobiernos en el desarrollo de estándares de IA, incluida la seguridad. «Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia artificial, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas», dijo el secretario Raimondo en un comunicado. VER: Aprenda a utilizar la IA para su negocio (Academia TechRepublic) El MoU se relaciona principalmente con el avance de los planes elaborados por los Institutos de Seguridad de IA en el Reino Unido y EE. UU. Las instalaciones de investigación del Reino Unido se lanzaron en la Cumbre de Seguridad de IA con los tres objetivos principales. de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Empresas como OpenAI, Meta y Microsoft han acordado que el AISI del Reino Unido revise de forma independiente sus últimos modelos de IA generativa. De manera similar, el AISI de EE. UU., establecido formalmente por el NIST en febrero de 2024, fue creado para trabajar en las acciones prioritarias descritas en la Orden Ejecutiva de AI emitida en octubre de 2023; Estas acciones incluyen el desarrollo de estándares para la seguridad de los sistemas de IA. El AISI de EE. UU. cuenta con el apoyo de un consorcio del AI Safety Institute, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. ¿Conducirá esto a la regulación de las empresas de IA? Si bien ni el AISI del Reino Unido ni el de los EE. UU. son un organismo regulador, es probable que los resultados de su investigación combinada sirvan de base para futuros cambios de políticas. Según el gobierno del Reino Unido, su AISI «proporcionará conocimientos fundamentales para nuestro régimen de gobernanza», mientras que la instalación estadounidense «desarrollará directrices técnicas que serán utilizadas por los reguladores». Podría decirse que la Unión Europea todavía está un paso por delante, ya que su histórica Ley de IA se convirtió en ley el 13 de marzo de 2024. La legislación describe medidas diseñadas para garantizar que la IA se utilice de forma segura y ética, entre otras normas relativas a la IA para el reconocimiento facial y la transparencia. . VER: La mayoría de los profesionales de la ciberseguridad esperan que la IA afecte sus trabajos La mayoría de los grandes actores tecnológicos, incluidos OpenAI, Google, Microsoft y Anthropic, tienen su sede en EE. UU., donde actualmente no existen regulaciones estrictas que puedan restringir sus actividades de IA. La EO de octubre proporciona orientación sobre el uso y la regulación de la IA, y se han tomado medidas positivas desde su firma; sin embargo, esta legislación no es ley. El Marco de Gestión de Riesgos de IA finalizado por el NIST en enero de 2023 también es voluntario. De hecho, estas grandes empresas tecnológicas son en su mayoría responsables de regularse a sí mismas y el año pasado lanzaron el Foro Modelo Frontier para establecer sus propias “barandillas” para mitigar el riesgo de la IA. ¿Qué piensan la IA y los expertos legales sobre las pruebas de seguridad? La regulación de la IA debería ser una prioridad La formación del AISI del Reino Unido no fue una forma universalmente popular de controlar la IA en el país. En febrero, el director ejecutivo de Faculty AI, una empresa involucrada con el instituto, dijo que desarrollar estándares sólidos puede ser un uso más prudente de los recursos gubernamentales en lugar de intentar examinar cada modelo de IA. «Creo que es importante que establezca estándares para el resto del mundo, en lugar de intentar hacerlo todo por sí mismo», dijo Marc Warner a The Guardian. Más cobertura de IA de lectura obligada Los expertos en derecho tecnológico tienen un punto de vista similar cuando se trata del MoU de esta semana. «Idealmente, los esfuerzos de los países se gastarían mucho mejor en desarrollar regulaciones estrictas en lugar de investigación», dijo a TechRepublic en un correo electrónico Aron Solomon, analista legal y director de estrategia de la agencia de marketing legal Amplify. “Pero el problema es este: pocos legisladores (yo diría, especialmente en el Congreso de Estados Unidos) tienen un conocimiento tan profundo de la IA como para regularla. Solomon añadió: “Deberíamos salir en lugar de entrar en un período de estudio profundo necesario, en el que los legisladores realmente entiendan colectivamente cómo funciona la IA y cómo se utilizará en el futuro. Pero, como lo puso de relieve la reciente debacle estadounidense en la que los legisladores intentan prohibir TikTok, ellos, como grupo, no entienden la tecnología, por lo que no están bien posicionados para regularla de manera inteligente. “Esto nos deja en la situación difícil en la que nos encontramos hoy. La IA está evolucionando mucho más rápido de lo que los reguladores pueden regular. Pero aplazar la regulación en favor de cualquier otra cosa en este momento es retrasar lo inevitable”. De hecho, dado que las capacidades de los modelos de IA cambian y se expanden constantemente, las pruebas de seguridad realizadas por los dos institutos deberán hacer lo mismo. «Algunos malos actores pueden intentar eludir las pruebas o aplicar incorrectamente las capacidades de IA de doble uso», dijo a TechRepublic en un correo electrónico Christoph Cemper, director ejecutivo de la plataforma de gestión rápida AIPRM. El doble uso se refiere a tecnologías que pueden utilizarse tanto con fines pacíficos como hostiles. Cemper dijo: “Si bien las pruebas pueden señalar problemas de seguridad técnica, no reemplazan la necesidad de directrices sobre cuestiones éticas, políticas y de gobernanza… Idealmente, los dos gobiernos considerarán las pruebas como la fase inicial de un proceso colaborativo continuo”. VER: La IA generativa puede aumentar la amenaza global de ransomware, según un estudio del Centro Nacional de Seguridad Cibernética Se necesita investigación para una regulación eficaz de la IA Si bien las directrices voluntarias pueden no resultar suficientes para incitar un cambio real en las actividades de los gigantes tecnológicos, una legislación de línea dura podría sofocar Según el Dr. Kjell Carlsson, el progreso en IA si no se considera adecuadamente. El ex analista de ML/AI y actual jefe de estrategia de Domino Data Lab dijo a TechRepublic en un correo electrónico: “Hoy en día, hay áreas relacionadas con la IA donde el daño es una amenaza real y creciente. Se trata de áreas como el fraude y el cibercrimen, donde normalmente existe regulación pero es ineficaz. “Desafortunadamente, pocas de las regulaciones de IA propuestas, como la Ley de IA de la UE, están diseñadas para abordar eficazmente estas amenazas, ya que se centran principalmente en ofertas comerciales de IA que los delincuentes no utilizan. Como tal, muchos de estos esfuerzos regulatorios dañarán la innovación y aumentarán los costos, al tiempo que harán poco para mejorar la seguridad real”. Por lo tanto, muchos expertos piensan que priorizar la investigación y la colaboración es más eficaz que apresurarse con las regulaciones en el Reino Unido y los EE. UU. El Dr. Carlsson dijo: “La regulación funciona cuando se trata de prevenir daños establecidos en casos de uso conocidos. Hoy en día, sin embargo, la mayoría de los casos de uso de la IA aún no se han descubierto y casi todo el daño es hipotético. Por el contrario, existe una increíble necesidad de investigar cómo probar, mitigar el riesgo y garantizar la seguridad de los modelos de IA de forma eficaz. «Como tal, el establecimiento y la financiación de estos nuevos Institutos de Seguridad de IA y estos esfuerzos de colaboración internacional son una excelente inversión pública, no sólo para garantizar la seguridad, sino también para fomentar la competitividad de las empresas en los EE.UU. y el Reino Unido».

TL;DR El nuevo dispositivo de inteligencia artificial del ícono del diseño de Apple, Jony Ive, y el fundador de OpenAI, Sam Altman, no se verá como un teléfono, según un informe. El dispositivo podría «teóricamente» funcionar con ChatGPT, según las fuentes. Este producto seguiría los pasos de dispositivos de inteligencia artificial como Humane AI Pin y Rabbit R1. A finales del año pasado se supo que la ex leyenda del diseño de Apple, Jony Ive, y el fundador de OpenAI, Sam Altman, estaban trabajando en un nuevo dispositivo de hardware impulsado por IA. Ahora, parece que han surgido detalles más evidentes. The Information informa que Ive y Altman han iniciado conversaciones con varias firmas de capital de riesgo sobre la financiación de la nueva empresa, citando dos fuentes. Pero el detalle más interesante es que las fuentes del medio dicen que este próximo dispositivo de inteligencia artificial no se parecerá a un teléfono. También se cree que ChatGPT de OpenAI podría potenciar “teóricamente” algunas de las funciones de este dispositivo. Un dispositivo de IA que no parezca un teléfono sería una sorpresa para nosotros. Inicialmente esperábamos que este dispositivo fuera en realidad un teléfono inteligente con tecnología de inteligencia artificial, especialmente a la luz de las credenciales móviles de Jony Ive bajo Apple. Una nueva ola de dispositivos inteligentes de IA Sin embargo, este no sería el primer dispositivo de IA que utiliza un factor de forma novedoso. Startup Humane causó sensación a finales del año pasado y en el MWC 2024 con su próximo dispositivo AI Pin (visto en la parte superior de la página). Este dispositivo se adhiere a la parte delantera de su ropa como un alfiler en el pecho y ofrece acceso a servicios de inteligencia artificial a través de voz o un proyector incorporado. La startup Rabbit también lanzó recientemente el dispositivo Rabbit R1, que aparentemente puede aprender cómo usa las aplicaciones y luego permitirle usas dichas aplicaciones con lenguaje natural. Por lo tanto, tenemos mucha curiosidad por ver en qué se diferenciará el dispositivo de Ive y Altman de estos dispositivos iniciales. Pero todavía es temprano para este campo, por lo que es posible que desee moderar sus expectativas para los productos de primera generación. Comentarios
Source link

Se estima que 62.000 empleos del entretenimiento en California, que abarcan cine, televisión, música y juegos, se verán afectados por el aumento de la inteligencia artificial en los próximos tres años, según un nuevo estudio. Publicado el lunes, el informe estima además que 204.000 empleos del entretenimiento en todo Estados Unidos se verán afectados por la IA durante el mismo período de tiempo. Un trabajo se considera interrumpido cuando una cantidad significativa de tareas dentro de ese rol se consolidan, reemplazan o eliminan como resultado de la IA, explica el estudio. La consultora CVL Economics encuestó a 300 líderes de la industria del entretenimiento, incluidos ejecutivos C-Suite, altos ejecutivos y gerentes y productores de nivel medio, para el estudio, que analiza el impacto y las implicaciones del uso de IA generativa en el negocio. El informe fue encargado por Animation Guild, Concept Art Assn., Human Artistry Campaign y la National Cartoonists Society Foundation. Después de que varios miembros de Animation Guild expresaron su preocupación por la amenaza de la IA, el sindicato tiene la intención de utilizar los resultados de este estudio para informar su estrategia de negociación y sus objetivos, dijo Brandon Jarratt, miembro de la junta ejecutiva y del grupo de trabajo de IA del Animation Guild. Los datos son una ventana a las actitudes e intenciones de las personas más poderosas de la industria en lo que respecta a la IA, que Jarratt espera que resulte invaluable, «especialmente cuando se trata de apuntalar nuestro propio lenguaje contractual en torno al cambio tecnológico». La herramienta en sí casi nunca es el problema”, dijo Jarratt. “Los estudios siempre están buscando formas de gastar menos dinero. Y si sienten que van a poder recortar presupuestos para cumplir con las proyecciones de los accionistas o lo que sea, entonces intentarán explotar eso de cualquier manera que puedan, y de ahí viene el miedo”. En una industria que ya está de rodillas por la pandemia de COVID-19, el gasto excesivo durante las guerras del streaming, las disputas laborales superpuestas y las fusiones corporativas que inducen despidos masivos, la IA es solo una llave más de la que preocuparse para los trabajadores del entretenimiento. ha surgido recientemente como una fuente de tensión en Hollywood, especialmente durante las huelgas de escritores y actores del año pasado, que culminaron con la WGA y SAG-AFTRA asegurando limitaciones y protecciones en torno al uso de la tecnología moderna en sus contratos con los estudios. Sin embargo, los encuestados expresaron menos preocupación por las posibles consecuencias para los escritores y actores que para otros oficios. Adam Fowler, socio fundador de CVL Economics, sospecha que los beneficios obtenidos por los escritores y actores en esos contratos influyeron en el tipo de trabajos que los participantes de la encuesta consideraban susceptibles a la IA. “En términos de los trabajos y roles específicos de los que terminamos hablando en En el informe, las preguntas sobre actuación y escritura fueron mucho menores en general”, observó Fowler. Según el estudio, las tareas laborales con mayor probabilidad de verse afectadas por la IA en la industria del cine y la televisión son el modelado 3D, el diseño de personajes y entornos, generación de voz, clonación y composición, seguido de diseño de sonido, programación de herramientas, escritura de guiones, animación y rigging, arte conceptual/desarrollo visual y generación de luz/texturas. Alrededor de un tercio de los encuestados predijo que la IA desplazaría a los modeladores 3D, editores de sonido, mezcladores de regrabación y técnicos de transmisión, audio y video para 2026, mientras que una cuarta parte esperaba que los diseñadores de sonido, compositores y diseñadores gráficos también se vieran afectados. Sólo el 15% señaló que los artistas de guiones gráficos, ilustradores, animadores y artistas de apariencia, superficies y materiales eran vulnerables a la IA. «Me sorprendió mucho que el modelado 3D fuera tan alto», dijo Nicole Hendrix, cofundadora de Concept Art Assn. ., quien calificó los resultados del estudio como «escalofriantes». «Obviamente se habla mucho en las noticias sobre ChatGPT y programas como Stable Diffusion, por lo que esperábamos ver algo con esas plataformas más disruptivas», agregó Concept Art Assn. cofundadora Rachel Meinerding. «Fue interesante ver que algunas de estas otras posiciones que pensábamos que quizás estaban un poco más lejos de ser desplazadas estuvieran tan arriba». En la industria de la música y la grabación de sonido, las tareas que más probablemente se verán afectadas por la IA son la generación de voz. y clonación, generación musical y grabación y composición de letras, seguido de masterización, mezcla y programación de herramientas, según el estudio. Más del 50% de los participantes en la encuesta anticiparon que la IA desplazaría a los diseñadores de sonido en los próximos tres años, mientras que más del 40% Vio venir la IA para editores de música, técnicos de audio e ingenieros de sonido. Aproximadamente un tercio de los encuestados predijo un destino similar para los compositores, compositores e ingenieros de estudio. Mientras tanto, en la industria del juego, el modelado 3D y el arte conceptual/desarrollo visual son las tareas más vulnerables a la IA, seguidas por el diseño de personajes y entornos, y el diseño de sonido. , programación de herramientas y generación y clonación de voz, afirma el informe. Aproximadamente un tercio de los líderes de la industria encuestados dijeron que los desarrolladores de software, editores de sonido, artistas de efectos especiales y analistas y evaluadores de software estaban en riesgo de ser desplazados por la IA, mientras que el 20% pensaba que 3- Los artistas D, los diseñadores de juegos, los diseñadores de UI/UX y los probadores de videojuegos se verían desplazados. En general, el estudio concluye que los puestos de nivel inicial en la industria del entretenimiento se verán afectados de manera desproporcionada por el ascenso de la IA, un detalle que preocupa especialmente a Hendrix. Cuando se analiza cualquier tecnología que básicamente esté reemplazando [or consolidating] un rol junior o de nivel inicial… está dañando el ecosistema”, dijo. «¿Qué significa eso si nadie entra realmente y el bar es ahora un muro inamovible?» Además, el informe identifica al 72% de las empresas de entretenimiento encuestadas como las primeras en adoptar la IA generativa, mientras que el 75% de los encuestados informaron que la IA ya había facilitado la eliminación, reducción o consolidación de puestos de trabajo en su división de negocio. Aunque la mayoría de los participantes en la encuesta señalaron que la IA también ha creado y seguirá creando nuevas oportunidades laborales, no está claro si esos nuevos empleos serán accesibles para los trabajadores desplazados por la tecnología. [workers in] Los roles que se consolidan y se pierden serán automáticamente elegibles para esos nuevos roles”, explicó Hendrix. “Esas son habilidades diferentes. No es… una conversión uno a uno”. Jarratt, director técnico de Disney Animation, dijo que no busca descartar la IA “al por mayor”. Él cree que hay maneras en que se puede utilizar la IA para mejorar las condiciones de trabajo y permitir que el personal de animación se centre en los aspectos artísticos más gratificantes de sus trabajos eliminando algunas de las tareas más rutinarias, como pintar manualmente una textura de ladrillo en una pared. En última instancia, Jarratt dijo que Animation Guild espera «ayudar a establecer el estándar de la industria sobre qué tipo de herramientas son apropiadas y… van a ayudar a los artistas, y cuáles van a perjudicarlos y dañar sus medios de vida».
Source link

Un rumor del mes pasado sugirió que Apple podría estar colaborando con Google para llevar sus servicios de inteligencia artificial a iOS y sus dispositivos iPhone y iPad. Tiene mucho sentido, especialmente si la propia tecnología de inteligencia artificial de Apple aún no está lista. Pero ahora parece que los usuarios de Apple podrían llevarse una desagradable sorpresa. En un informe del Financial Times, fuentes anónimas le dijeron a la publicación que Google podría cobrar a los usuarios de Apple por acceder a algunos de sus servicios de inteligencia artificial. No está claro si será para todos los servicios de inteligencia artificial de Google o solo para servicios seleccionados. Por ejemplo, algunos servicios que no se consideran “básicos” o “necesarios” podrían estar bloqueados detrás de un muro de pago. En realidad es bastante interesante y un cambio de rumbo. Según se informa, Google está pagando a Apple miles de millones de dólares para seguir siendo la búsqueda predeterminada en Safari. Si Google comenzara a cobrar a los usuarios de iOS por acceder a funciones de inteligencia artificial más avanzadas, podrían ganar bastante dinero. Los usuarios de iOS probablemente no estarán muy entusiasmados con la idea, pero queda por ver cómo se implementa. El concepto de cobrar por las funciones de IA no es nuevo. OpenAI tiene una versión paga de ChatGPT que desbloquea ventajas y funciones adicionales. Samsung también ha confirmado que eventualmente comenzarán a cobrar por algunas de las funciones de Galaxy AI, por lo que no tiene precedentes. Esperamos que se revelen más detalles en la WWDC cuando Apple anuncie iOS 18.

Podría decirse que mantenerse actualizado con lo último en seguridad cibernética nunca ha sido más importante que en 2024. El proveedor de servicios financieros Allianz nombró los ataques cibernéticos como el mayor riesgo de este año para las empresas en el Reino Unido y por primera vez una de las principales preocupaciones para empresas de todos los tamaños. Sin embargo, muchos profesionales aún no saben qué nos dicen los acontecimientos del primer trimestre sobre el panorama cibernético para el resto del año que podría tener consecuencias importantes. TechRepublic consultó a expertos de la industria del Reino Unido para identificar las tres tendencias más importantes en seguridad cibernética (IA, días cero y seguridad de IoT) y brindar orientación sobre cómo las empresas pueden defender mejor su posición. 1. Ciberataques sofisticados con IA En enero de 2024, el Centro Nacional de Seguridad Cibernética del Reino Unido advirtió que se esperaba que la amenaza global de ransomware aumentara debido a la disponibilidad de tecnologías de IA, con ataques aumentando tanto en volumen como en impacto. El riesgo para las empresas del Reino Unido es especialmente pronunciado: un informe reciente de Microsoft encontró que el 87% son “vulnerables” o “en alto riesgo” de sufrir ataques cibernéticos. El Ministro de Inteligencia Artificial y Propiedad Intelectual, Vizconde Camrose, ha destacado específicamente la necesidad de que las organizaciones del Reino Unido «intensifiquen sus planes de ciberseguridad», ya que es el tercer país del mundo más blanco de ciberataques, después de EE.UU. y Ucrania. James Babbage, director general de amenazas de la Agencia Nacional contra el Crimen, dijo en la publicación del NCSC: «Los servicios de inteligencia artificial reducen las barreras de entrada, aumentan el número de ciberdelincuentes y aumentarán su capacidad al mejorar la escala, la velocidad y la eficacia de las amenazas existentes». métodos de ataque”. Los delincuentes pueden utilizar la tecnología para realizar ataques de ingeniería social más convincentes y obtener acceso inicial a la red. Según el informe global Cybersecurity Forecast de Google Cloud, los grandes modelos de lenguaje y la IA generativa «se ofrecerán cada vez más en foros clandestinos como un servicio pago y se utilizarán para diversos fines, como campañas de phishing y difusión de desinformación». VER: Principales predicciones de IA para 2024 (descarga premium gratuita de TechRepublic) Jake Moore, asesor global de ciberseguridad de la empresa antivirus y de seguridad de Internet ESET, ha estado investigando un software de clonación en tiempo real que utiliza IA para intercambiar la cara de una persona que llama por video con la de otra persona. Le dijo a TechRepublic por correo electrónico: «Esta tecnología, junto con el impresionante software de clonación de voz de IA, ya está comenzando a cuestionar la autenticidad de una videollamada, lo que podría tener un impacto devastador en empresas de todos los tamaños». OpenAI anunció el 29 de marzo de 2024 que estaba adoptando un «enfoque cauteloso e informado» a la hora de lanzar su herramienta de clonación de voz al público en general «debido al potencial de uso indebido de la voz sintética». El modelo llamado Voice Engine es capaz de replicar de manera convincente la voz de un usuario con solo 15 segundos de audio grabado. «Los piratas informáticos maliciosos tienden a utilizar una variedad de técnicas para manipular a sus víctimas, pero una nueva e impresionante tecnología sin límites ni regulaciones está facilitando a los ciberdelincuentes influir en las personas para obtener ganancias financieras y agregar otra herramienta más a su creciente conjunto de herramientas», dijo Moore. “Es necesario recordar al personal que estamos entrando en una era en la que ver no siempre es creer y la verificación sigue siendo la clave de la seguridad. Las políticas nunca deben limitarse a las instrucciones habladas y todo el personal debe estar al tanto (del software de clonación en tiempo real) que está a punto de explotar en los próximos 12 meses”. 2. Explotaciones de día cero más exitosas Las estadísticas gubernamentales encontraron que el 32% de las empresas del Reino Unido sufrieron una violación de datos conocida o un ataque cibernético en 2023. Raj Samani, vicepresidente senior científico jefe de la plataforma unificada de seguridad cibernética Rapid7, cree que los ataques empresariales seguirán siendo particularmente frecuentes en el Reino Unido a lo largo de este año, pero agregó que los actores de amenazas también son más sofisticados. Le dijo a TechRepublic en un correo electrónico: “Una de las tendencias más emergentes durante 2023 que vemos que continúa hasta 2024 es la gran cantidad de Días Cero explotados por grupos de amenazas que normalmente no habríamos anticipado que tuvieran tales capacidades. “Lo que esto significa para el sector de ciberseguridad del Reino Unido es la demanda de una clasificación más rápida de la priorización de las actualizaciones de seguridad. Es imperativo que las organizaciones de todos los tamaños implementen un enfoque para mejorar la identificación de avisos críticos que impactan su entorno y que incorporen el contexto en estas decisiones. «Por ejemplo, si una vulnerabilidad se está explotando de forma natural y no hay controles de compensación (y está siendo explotada, por ejemplo, por grupos de ransomware), entonces probablemente será necesario priorizar la velocidad con la que se aplican los parches». VER: Principales predicciones de ciberseguridad para 2024 (descarga gratuita de TechRepublic Premium) La “Encuesta sobre violaciones de seguridad cibernética 2023” realizada por el gobierno del Reino Unido encontró disminuciones en las prácticas clave de higiene cibernética de políticas de contraseñas, firewalls de red, derechos de administrador restringidos y políticas para aplicar actualizaciones de seguridad de software dentro de 14 días. Si bien los datos reflejan en gran medida cambios en las micro, pequeñas y medianas empresas, la laxitud aumenta significativamente el alcance de los objetivos disponibles para los ciberdelincuentes y resalta la necesidad de mejorar en 2024. «Los datos personales siguen siendo una moneda enormemente valiosa», dijo Moore. República Tecnológica. «Una vez que los empleados bajan la guardia (los ataques) pueden ser extremadamente exitosos, por eso es vital que los miembros del personal estén conscientes de (las) tácticas que se utilizan». Cobertura de seguridad de lectura obligada 3. Enfoque renovado en la seguridad de IoT Para el 29 de abril de 2024, todos los proveedores de dispositivos de IoT en el Reino Unido deberán cumplir con la Ley de Telecomunicaciones y Seguridad de Productos de 2022, lo que significa que, como mínimo: Los dispositivos deben estar habilitados con contraseña . Los consumidores pueden informar claramente sobre problemas de seguridad. Se divulga la duración del soporte de seguridad del dispositivo. Si bien este es un paso positivo, muchas organizaciones continúan dependiendo en gran medida de dispositivos heredados que tal vez ya no reciban soporte de su proveedor. Moore le dijo a TechRepublic en un correo electrónico: “Con demasiada frecuencia, los dispositivos IoT han sido empaquetados con características de seguridad integradas débiles, si las hay, por lo que (los usuarios) están a la defensiva desde el principio y, a menudo, no se dan cuenta de las debilidades potenciales. Las actualizaciones de seguridad también tienden a ser poco frecuentes, lo que supone mayores riesgos para el propietario”. Las organizaciones que dependen de dispositivos heredados incluyen aquellas que manejan infraestructura nacional crítica en el Reino Unido, como hospitales, servicios públicos y telecomunicaciones. La evidencia de Thales presentada para un informe del gobierno del Reino Unido sobre la amenaza del ransomware a la seguridad nacional decía que «no es raro dentro del sector CNI encontrar sistemas obsoletos con una larga vida operativa que no se actualizan, monitorean o evalúan de manera rutinaria». Otra evidencia de NCC Group decía que «es mucho más probable que los sistemas OT (tecnología operativa) incluyan componentes que tienen entre 20 y 30 años y/o utilicen software más antiguo que es menos seguro y ya no es compatible». Estos sistemas más antiguos ponen en riesgo de interrupción los servicios esenciales. VER: Principales riesgos de seguridad de IIoT Según la empresa de seguridad de TI ZScaler, 34 de los 39 exploits de IoT más utilizados han estado presentes en dispositivos durante al menos tres años. Además, los analistas de Gartner predijeron que el 75% de las organizaciones albergarán sistemas heredados o no administrados que realizan tareas de misión crítica para 2026 porque no han sido incluidos en sus estrategias de confianza cero. «Los propietarios de IoT deben comprender los riesgos al instalar cualquier dispositivo conectado a Internet en su negocio, pero obligar a los dispositivos de IoT a ser más seguros desde la fase de diseño es vital y podría reparar muchos vectores de ataque comunes», dijo Moore.

No es ningún secreto que Apple está desarrollando su propia IA. El director general de la empresa así lo ha confirmado. De hecho, sería más sorprendente si no lo fueran, especialmente porque sus competidores como Microsoft, Samsung y Google han lanzado su propia IA. Ahora parece que Apple podría habernos dado una pista de lo que está por venir. Según un informe de VentureBeat, se encontraron con un artículo de investigación publicado por investigadores de Apple sobre un nuevo sistema de inteligencia artificial llamado ReALM. Esta es la abreviatura de Resolución de referencia como modelado de lenguaje que utiliza modelos de lenguaje grandes para la resolución de referencia. Para aquellos que no están familiarizados, la resolución de referencia es básicamente la comprensión de sustantivos/pronombres en el contexto de algo así como una conversación. Por ejemplo, si le estuvieras pidiendo a tu amigo que te pasara una bebida del mostrador, simplemente señalarías y dirías: «¿Podrías pasarme eso?». Esto se debe a que los humanos comprenden la resolución de referencia, pero es posible que una IA no, y este sistema ReALM podría abordar ese problema. El sistema ReALM de Apple quiere solucionar ese problema. Puede ayudar a mejorar los asistentes digitales al permitir que la IA comprenda lo que hay en la pantalla del usuario sin que este tenga que proporcionar detalles o instrucciones precisas. No nos sorprendería que Apple introdujera algo similar a su propia plataforma de inteligencia artificial o incluso a Siri a finales de este año, pero tendremos que esperar y ver.