Todo lo que necesitas saber sobre tecnología

Etiqueta: aprendizaje profundo

10 palabras de moda en el campo de la inteligencia artificial que debes conocer

10 palabras de moda en el campo de la inteligencia artificial que debes conocer

La inteligencia artificial solía estar reservada para los científicos más brillantes de la población y aislada en los mejores laboratorios del mundo. Ahora, la IA está disponible para cualquier persona con una conexión a Internet. Herramientas como ChatGPT, Voice.ai, DALL-E y otras han traído la IA a la vida diaria, pero a veces los términos utilizados para describir sus capacidades y funcionamiento interno son todo menos convencionales. Aquí hay 10 términos comunes que probablemente escuchará en la misma oración que su herramienta de IA favorita, en las noticias de la noche o en el dispensador de agua. Tenga a mano este diccionario de IA para mantenerse informado sobre este tema popular (y a veces controvertido). Contenido generado por IA El contenido generado por IA es cualquier pieza de medios escritos, de audio o visuales que fue creada parcial o completamente por una herramienta impulsada por inteligencia artificial. Si alguien usa IA para crear algo, no significa automáticamente que haya hecho trampa o haya tomado atajos de manera irresponsable. La IA suele ser un excelente lugar para comenzar a la hora de crear esquemas, recopilar ideas iniciales o buscar una nueva forma de ver un problema. Alucinación de IA Cuando tu pregunta deja perpleja a una IA, no siempre admite que no sabe la respuesta. Entonces, en lugar de no dar una respuesta, inventa una que cree que quieres escuchar. Esta respuesta inventada se conoce como alucinación de IA. Un caso del mundo real de una costosa alucinación de IA ocurrió en Nueva York, donde un abogado usó ChatGPT para escribir un informe. El informe parecía completo y citaba sus fuentes, pero resulta que ninguna de las fuentes existía. Todo fue un producto de la «imaginación» de la IA. Caja negra Para entender el término caja negra, imagina a la IA como un sistema de engranajes, poleas y cintas transportadoras alojadas dentro de una caja. En una caja transparente, puedes ver cómo la entrada se transforma en el producto final; sin embargo, algunas IA se conocen como caja negra. Eso significa que no sabes cómo llegó la IA a sus conclusiones. La IA oculta completamente su proceso de razonamiento. Una caja negra puede ser un problema si desea verificar dos veces el trabajo de la IA. Deepfake Deepfake es la manipulación de una foto, video o clip de audio para retratar eventos que nunca sucedieron. A menudo se utiliza para sketches humorísticos en las redes sociales y publicaciones virales, los personajes desagradables también están aprovechando deepfake para difundir informes de noticias falsas o estafar a las personas. Por ejemplo, las personas están insertando políticos en poses poco favorecedoras y fondos de fotos. A veces, el deepfake tiene la intención de hacer reír, pero otras veces el creador del deepfake tiene la intención de generar rumores que podrían llevar al disenso o empañar la reputación del sujeto de la foto. Un consejo para detectar una imagen deepfake es mirar las manos y las caras de las personas en el fondo. Los deepfakes a menudo agregan o quitan dedos o distorsionan las expresiones faciales. Las imitaciones de audio asistidas por IA, que se consideran deepfakes, también están aumentando en credibilidad. Según el informe de McAfee “Beware the Artificial Imposter”, el 25 % de los encuestados a nivel mundial afirmó que ellos mismos o alguien que conocía habían sido víctimas de una estafa de voz. El setenta y siete por ciento de las personas que fueron víctimas de una estafa de voz perdieron dinero como resultado. Aprendizaje profundo Cuanto más cercano sea el proceso de pensamiento de una IA al cerebro humano, más precisa será la IA. El aprendizaje profundo implica entrenar a una IA para que razone y recuerde información como un humano, lo que significa que la máquina puede identificar patrones y hacer predicciones. IA explicable La IA explicable, o caja blanca, es lo opuesto a la IA de caja negra. Un modelo de IA explicable siempre muestra su trabajo y cómo llegó a su conclusión. La IA explicable puede aumentar su confianza en el resultado final porque puede verificar dos veces lo que se incluyó en la respuesta. IA generativa La IA generativa es el tipo de inteligencia artificial que impulsa muchas de las herramientas de IA convencionales de la actualidad, como ChatGPT, Bard y Craiyon. Como una esponja, la IA generativa absorbe enormes cantidades de datos y los recupera para informar cada respuesta que crea. Aprendizaje automático El aprendizaje automático es parte integral de la IA porque le permite aprender y mejorar continuamente. Sin instrucciones explícitas para hacerlo, el aprendizaje automático dentro de la IA le permite volverse más inteligente cuanto más se la usa. IA responsable Las personas no solo deben usar la IA de manera responsable, sino que las personas que diseñan y programan la IA también deben hacerlo de manera responsable. Los tecnólogos deben asegurarse de que los datos de los que depende la IA sean precisos y libres de sesgos. Esta diligencia es necesaria para confirmar que el resultado de la IA sea correcto y sin prejuicios. Sensible Sensible es un adjetivo que significa que alguien o algo es consciente de sentimientos, sensaciones y emociones. En las películas futuristas que representan a la IA, el mundo de los personajes se descontrola cuando los robots se vuelven sensibles o cuando «sienten» emociones humanas. Si bien es un gran drama de Hollywood, la IA actual no es sensible. No siente empatía ni entiende los verdaderos significados de la felicidad, la emoción, la tristeza o el miedo. Por lo tanto, incluso si una IA compusiera una historia corta que fuera tan hermosa que te hiciera llorar, la IA no sabe que lo que creó fue conmovedor. Simplemente estaba cumpliendo una indicación y usó un patrón para determinar qué palabra elegir a continuación. Presentamos McAfee+ Protección contra el robo de identidad y privacidad para su vida digital Descargue McAfee+ ahora \x3Cimg height=»1″ width=»1″ style=»display:none» src=»https://www.facebook.com/tr?id=766537420057144&ev=PageView&noscript=1″ />\x3C/noscript>’);

Los profesionales de TI y seguridad son «cautelosamente optimistas» sobre la IA

Los profesionales de TI y seguridad son «cautelosamente optimistas» sobre la IA

La alta dirección está más familiarizada con las tecnologías de inteligencia artificial que su personal de seguridad y TI, según un informe de Cloud Security Alliance encargado por Google Cloud. El informe, publicado el 3 de abril, abordó si los profesionales de TI y seguridad temen que la IA reemplace sus trabajos, los beneficios y desafíos del aumento de la IA generativa y más. De los profesionales de TI y seguridad encuestados, el 63 % cree que la IA mejorará la seguridad dentro de su organización. Otro 24% es neutral sobre el impacto de la IA en las medidas de seguridad, mientras que el 12% no cree que la IA mejore la seguridad dentro de su organización. De las personas encuestadas, sólo unos pocos (12%) predicen que la IA reemplazará sus puestos de trabajo. La encuesta utilizada para crear el informe se realizó a nivel internacional, con respuestas de 2486 profesionales de seguridad y TI y líderes de la alta dirección de organizaciones de toda América, APAC y EMEA en noviembre de 2023. Los profesionales de ciberseguridad que no ocupan puestos de liderazgo son menos claros que los altos directivos. sobre posibles casos de uso de la IA en ciberseguridad, y solo el 14% del personal (en comparación con el 51% de los niveles C) dicen que son «muy claros». «La desconexión entre la alta dirección y el personal a la hora de comprender e implementar la IA resalta la necesidad de un enfoque estratégico y unificado para integrar con éxito esta tecnología», dijo Caleb Sima, presidente de la Iniciativa de Seguridad de IA de Cloud Security Alliance, en un comunicado de prensa. Algunas preguntas del informe especificaban que las respuestas debían estar relacionadas con la IA generativa, mientras que otras preguntas utilizaban el término «IA» de manera amplia. Los profesionales de nivel C enfrentan presiones de arriba hacia abajo que pueden haberlos llevado a ser más conscientes de los casos de uso de la IA que los profesionales de la seguridad. Muchos (82%) profesionales de la alta dirección dicen que su liderazgo ejecutivo y sus juntas directivas están presionando para que se adopte la IA. Sin embargo, el informe afirma que este enfoque podría causar problemas de implementación en el futuro. «Esto puede resaltar una falta de apreciación de la dificultad y el conocimiento necesarios para adoptar e implementar una tecnología tan única y disruptiva (por ejemplo, ingeniería rápida)», escribió la autora principal Hillary Baron, directora técnica senior de investigación y análisis de Cloud Security Alliance. y un equipo de colaboradores. Hay algunas razones por las que podría existir esta brecha de conocimiento: los profesionales de la ciberseguridad pueden no estar tan informados sobre la forma en que la IA puede afectar la estrategia general. Los líderes pueden subestimar lo difícil que podría ser implementar estrategias de IA dentro de las prácticas de ciberseguridad existentes. Los autores del informe señalan que algunos datos (Figura A) indican que los encuestados están tan familiarizados con la IA generativa y los grandes modelos de lenguaje como con términos más antiguos como procesamiento del lenguaje natural y aprendizaje profundo. Figura A Respuestas a la instrucción «Califique su familiaridad con las siguientes tecnologías o sistemas de IA». Imagen: Cloud Security Alliance Los autores del informe señalan que el predominio de la familiaridad con términos más antiguos, como procesamiento del lenguaje natural y aprendizaje profundo, podría indicar una combinación entre la IA generativa y herramientas populares como ChatGPT. «Es la diferencia entre estar familiarizado con las herramientas GenAI de nivel de consumidor versus el nivel profesional/empresarial lo que es más importante en términos de adopción e implementación», dijo Baron en un correo electrónico a TechRepublic. «Eso es algo que estamos viendo en general en todos los ámbitos con los profesionales de seguridad en todos los niveles». ¿La IA reemplazará los trabajos de ciberseguridad? Un pequeño grupo (12%) de profesionales de la seguridad cree que la IA sustituirá por completo sus puestos de trabajo en los próximos cinco años. Otros son más optimistas: el 30% cree que la IA les ayudará a mejorar partes de sus habilidades. El 28% predice que la IA los apoyará en general en su función actual. El 24% cree que la IA sustituirá gran parte de su función. El 5% espera que la IA no afecte en absoluto su función. Los objetivos de las organizaciones para la IA reflejan esto: el 36% busca que la IA mejore las habilidades y el conocimiento de los equipos de seguridad. El informe señala una discrepancia interesante: aunque mejorar las habilidades y los conocimientos es un resultado muy deseado, el talento ocupa el último lugar en la lista de desafíos. Esto podría significar que tareas inmediatas, como identificar amenazas, tengan prioridad en las operaciones diarias, mientras que el talento sea una preocupación a más largo plazo. Más cobertura de IA de lectura obligada Beneficios y desafíos de la IA en ciberseguridad El grupo estaba dividido sobre si la IA sería más beneficiosa para los defensores o los atacantes: el 34% considera que la IA es más beneficiosa para los equipos de seguridad. El 31% lo considera igualmente ventajoso tanto para los defensores como para los atacantes. El 25% lo ve más beneficioso para los atacantes. Los profesionales preocupados por el uso de la IA en seguridad citan las siguientes razones: Mala calidad de los datos, lo que genera sesgos no deseados y otros problemas (38%). Falta de transparencia (36%). Brechas de habilidades/experiencia cuando se trata de gestionar sistemas complejos de IA (33%). Intoxicación de datos (28%). Las alucinaciones, la privacidad, la fuga o pérdida de datos, la precisión y el mal uso eran otras opciones de lo que podría preocupar a la gente; Todas estas opciones recibieron menos del 25% de los votos en la encuesta, donde se invitó a los encuestados a seleccionar sus tres principales preocupaciones. VER: El Centro Nacional de Seguridad Cibernética del Reino Unido descubrió que la IA generativa puede mejorar los arsenales de los atacantes. (TechRepublic) Más de la mitad (51%) de los encuestados dijeron “sí” a la pregunta de si les preocupan los riesgos potenciales de una dependencia excesiva de la IA para la ciberseguridad; otro 28% fue neutral. Usos previstos de la IA generativa en la ciberseguridad De las organizaciones que planean utilizar la IA generativa para la ciberseguridad, existe una amplia variedad de usos previstos (Figura B). Los usos comunes incluyen: Creación de reglas. Simulación de ataque. Monitoreo de violaciones de cumplimiento. Detección de red. Reducir los falsos positivos. Figura B Respuestas a la pregunta ¿Cómo planea su organización utilizar la IA generativa para la ciberseguridad? (Seleccione los 3 casos de uso principales). Imagen: Cloud Security Alliance Cómo están estructurando las organizaciones sus equipos en la era de la IA De las personas encuestadas, el 74% dice que sus organizaciones planean crear nuevos equipos para supervisar el uso seguro de la IA en los próximos cinco años. La forma en que se estructuran esos equipos puede variar. Hoy en día, algunas organizaciones que trabajan en la implementación de IA la ponen en manos de su equipo de seguridad (24%). Otras organizaciones otorgan la responsabilidad principal de la implementación de IA al departamento de TI (21%), el equipo de análisis/ciencia de datos (16%), un equipo dedicado de IA/ML (13%) o la alta dirección/liderazgo (9%). En casos más raros, DevOps (8%), equipos multifuncionales (6%) o un equipo que no encajaba en ninguna de las categorías (listado como “otros” en el 1%) asumieron la responsabilidad. VER: Kit de contratación: ingeniero rápido (TechRepublic Premium) «Es evidente que la IA en la ciberseguridad no solo está transformando los roles existentes, sino también allanando el camino para nuevos puestos especializados», escribieron la autora principal Hillary Baron y el equipo de colaboradores. ¿Qué tipo de posiciones? La gobernanza generativa de la IA es un subcampo en crecimiento, dijo Baron a TechRepublic, al igual que la capacitación y la mejora de habilidades centradas en la IA. «En general, también estamos empezando a ver ofertas de trabajo que incluyen roles más específicos de IA, como ingenieros rápidos, arquitectos de seguridad de IA e ingenieros de seguridad», dijo Baron.

Source link

Funciona con WordPress & Tema de Anders Norén