Todo lo que necesitas saber sobre tecnología

Etiqueta: inclinación

Meta ahora tiene un chatbot con inteligencia artificial. La influencia de la inteligencia artificial aumenta en las redes sociales

Meta ahora tiene un chatbot con inteligencia artificial. La influencia de la inteligencia artificial aumenta en las redes sociales

Cuando usas Facebook Messenger, un nuevo mensaje te da la bienvenida con esta invitación: “Pregúntale lo que quieras a Meta AI”. Es posible que hayas abierto la aplicación para enviar un mensaje de texto a un amigo, pero el nuevo chatbot de Meta, impulsado por inteligencia artificial, te tienta con conocimiento enciclopédico que está a solo unas pocas pulsaciones de teclas de distancia. Meta, la empresa matriz de Facebook, ha instalado su chatbot de cosecha propia en sus servicios de WhatsApp e Instagram. Ahora, miles de millones de usuarios de Internet pueden abrir una de estas plataformas de redes sociales gratuitas y aprovechar los servicios de Meta AI como diccionario, guía, consejero o ilustrador, entre muchas otras tareas que puede realizar, aunque no siempre de manera confiable o infalible. “Nuestro objetivo es construir la IA líder del mundo y ponerla a disposición de todos”, dijo Mark Zuckerberg, el director ejecutivo de Meta, cuando anunció el lanzamiento del chatbot hace dos semanas. “Creemos que Meta AI es ahora el asistente de IA más inteligente que puedes usar libremente”. Como sugieren los movimientos de Meta, la IA generativa se está abriendo camino en las redes sociales. TikTok tiene un equipo de ingeniería enfocado en desarrollar grandes modelos de lenguaje que puedan reconocer y generar texto, y están contratando escritores y reporteros que puedan anotar y mejorar el rendimiento de estos modelos de IA. En la página de ayuda de Instagram se indica: “Meta puede usar [user] TikTok y Meta no respondieron a una solicitud de comentarios, pero los expertos en IA dijeron que los usuarios de las redes sociales pueden esperar ver más de esta tecnología influyendo en su experiencia, para bien o posiblemente para mal. Parte de la razón por la que las aplicaciones de redes sociales están invirtiendo en IA es que quieren volverse «más pegajosas» para los consumidores, dijo Ethan Mollick, profesor de la Escuela Wharton de la Universidad de Pensilvania, que enseña emprendimiento e innovación. Aplicaciones como Instagram intentan mantener a los usuarios en sus plataformas durante el mayor tiempo posible porque la atención cautiva genera ingresos por publicidad, dijo. En la llamada de ganancias del primer trimestre de Meta, Zuckerberg dijo que la compañía tardaría algún tiempo en obtener ganancias de sus inversiones en el chatbot y otros usos de la IA, pero ya ha visto que la tecnología influye en las experiencias de los usuarios en sus plataformas. «En este momento, aproximadamente el 30% de las publicaciones en el feed de Facebook son entregadas por nuestro sistema de recomendación de IA», dijo Zuckerberg, refiriéndose a la tecnología detrás de escena que da forma a lo que ven los usuarios de Facebook. “Y por primera vez, más del 50% del contenido que la gente ve en Instagram ahora es recomendado por IA”. En el futuro, la IA no solo personalizará las experiencias de los usuarios, dijo Jaime Sevilla, quien dirige Epoch, un instituto de investigación que estudia las tendencias de la tecnología de IA. En otoño de 2022, millones de usuarios quedaron cautivados por las capacidades de IA de Lensa, ya que generó retratos extravagantes a partir de selfies. Esperen ver más de esto, dijo Sevilla. “Creo que terminarán viendo personas completamente generadas por IA que publican música y cosas generadas por IA”, dijo. “Podríamos vivir en un mundo donde el papel que desempeñan los humanos en las redes sociales es una pequeña parte de todo”. Mollick, autor del libro “Co-intelligence: Living and Working with AI”, dijo que estos chatbots ya están produciendo algo de lo que la gente lee en línea. “La IA está impulsando cada vez más la comunicación en línea”, dijo.[But] Sevilla dijo que la IA generativa probablemente no suplantará a la plaza pública digital creada por las redes sociales. La gente anhela la autenticidad de sus interacciones con amigos y familiares en línea, dijo, y las empresas de redes sociales deben preservar un equilibrio entre eso y el contenido generado por IA y la publicidad dirigida. Aunque la IA puede ayudar a los consumidores a encontrar productos más útiles en la vida diaria, también hay un lado oscuro del atractivo de la tecnología que puede tambalearse hacia la coerción, dijo Sevilla. «Los sistemas van a ser bastante buenos en la persuasión», dijo. Un estudio recién publicado por investigadores de IA en el Instituto Federal Suizo de Tecnología de Lausana encontró que GPT-4 era un 81,7% más eficaz que un humano para convencer a alguien en un debate para que estuviera de acuerdo. Si bien el estudio aún no ha sido revisado por pares, Sevilla dijo que los hallazgos eran preocupantes. «Eso es preocupante». [AI] “Podríamos ampliar significativamente la capacidad de los estafadores para interactuar con muchas víctimas y perpetrar cada vez más fraudes”, añadió. Sevilla dijo que los responsables políticos deberían ser conscientes de los peligros de la IA en la difusión de información errónea, mientras Estados Unidos se encamina hacia otra temporada electoral políticamente cargada este otoño. Otros expertos advierten de que no se trata de si la IA podría desempeñar un papel en la influencia de los sistemas democráticos en todo el mundo, sino de cómo. Bindu Reddy, CEO y cofundador de Abacus.AI, dijo que la solución es un poco más matizada que prohibir la IA en nuestras plataformas de redes sociales: los malos actores estaban difundiendo odio y desinformación en línea mucho antes de que la IA entrara en la ecuación. Por ejemplo, los defensores de los derechos humanos criticaron a Facebook en 2017 por no filtrar el discurso de odio en línea que alimentó el genocidio rohingya en Myanmar. En la experiencia de Reddy, la IA ha sido buena para detectar cosas como el sesgo y la pornografía en las plataformas en línea. Sevilla ha estado usando IA para moderar contenido desde 2016, cuando lanzó una aplicación de red social anónima llamada Candid que se basaba en el procesamiento del lenguaje natural para detectar información errónea. Los reguladores deberían prohibir que las personas usen IA para crear deepfakes de personas reales, dijo Reddy. Pero critica leyes como las amplias restricciones de la Unión Europea al desarrollo de la IA. En su opinión, es peligroso que Estados Unidos quede atrapado detrás de países competidores, como China y Arabia Saudita, que están invirtiendo miles de millones de dólares en el desarrollo de tecnología de IA. Hasta ahora, la administración Biden ha publicado un «Plan para una Carta de Derechos de la IA» que ofrece sugerencias sobre las salvaguardas que debería tener el público, incluidas las protecciones para la privacidad de los datos y contra la discriminación algorítmica. No es ejecutable, aunque insinúa una legislación que podría venir. Sevilla reconoció que los moderadores de IA pueden ser entrenados para tener los sesgos de una empresa, lo que lleva a que se censuren algunas opiniones. Pero los moderadores humanos también han mostrado sesgos políticos. Por ejemplo, en 2021, The Times informó sobre quejas de que era difícil encontrar contenido pro palestino en Facebook e Instagram. Y los críticos conservadores acusaron a Twitter de sesgo político en 2020 porque bloqueó los enlaces a una historia del New York Post sobre el contenido de la computadora portátil de Hunter Biden. «De hecho, podemos estudiar qué tipo de sesgos [AI] “La inteligencia artificial refleja”, dijo Sevilla. Aun así, dijo, la IA podría volverse tan efectiva que podría oprimir poderosamente la libertad de expresión. “¿Qué sucede cuando todo lo que está en tu cronología se ajusta perfectamente a las pautas de la empresa?”, preguntó Sevilla. “¿Es ese el tipo de redes sociales que quieres consumir?”

Defensa contra la ingeniería social

Una guía para investigadores de OSINT En el dinámico campo de la inteligencia de código abierto (OSINT), mantenerse a la vanguardia en el juego de la ciberseguridad es crucial. Una amenaza importante que a menudo pasa desapercibida es la ingeniería social. A diferencia de los ciberataques tradicionales, la ingeniería social es más insidiosa y no explota las vulnerabilidades del sistema sino las humanas. Como investigadores de OSINT, es vital ser expertos no sólo en la recopilación de datos sino también en la psicología humana, especialmente en la comprensión y la lucha contra las tácticas de ingeniería social. Los ataques de ingeniería social manipulan nuestros sesgos cognitivos naturales. Estos sesgos son los atajos mentales que utilizamos en la toma de decisiones y la resolución de problemas. Por ejemplo, podríamos creer en información que se alinea con nuestras creencias existentes (sesgo de confirmación) o darle importancia indebida a información que es fácil de recuperar o reciente (heurística de disponibilidad). Otra trampa común es el sesgo de anclaje, donde confiamos demasiado en la primera información que recibimos. Para combatir estas amenazas, el primer paso es crear conciencia. Comprender estos sesgos nos ayuda a mantenernos alerta contra la manipulación. Pero saber no es suficiente; También debemos cultivar una cultura del escepticismo. En el mundo de OSINT, verificar la información y las fuentes puede significar la diferencia entre una investigación exitosa y una comprometida. Otra estrategia eficaz es adoptar diversas perspectivas. Trabajar con un equipo puede proporcionar una variedad de puntos de vista, lo que ayuda a identificar puntos ciegos y reduce el riesgo de pensamiento grupal. Además, el empleo de técnicas analíticas estructuradas puede proteger aún más contra conclusiones apresuradas. Métodos como comparar diferentes hipótesis fomentan la consideración de múltiples ángulos, fomentando así un análisis más exhaustivo y objetivo. Sin embargo, el panorama de la ciberseguridad está en constante evolución, al igual que las tácticas de los ingenieros sociales. El aprendizaje y la adaptación continuos son clave. Es fundamental mantenerse al tanto de las últimas tendencias, amenazas y defensas en ingeniería social. Para los investigadores del OSINT, ciertos consejos prácticos pueden resultar de gran ayuda. Desarrollar habilidades para detectar el engaño en la comunicación es un activo valioso. Prestar mucha atención no sólo a lo que se dice sino también a cómo se dice puede revelar manipulaciones subyacentes. En algunos casos, la ingeniería social inversa, en la que se controla la conversación y se extrae información sobre el atacante, puede ser una contramedida eficaz. La capacitación periódica basada en escenarios puede preparar a los investigadores para situaciones del mundo real, mejorando su capacidad para detectar y frustrar intentos de ingeniería social. Además, es crucial aprovechar las herramientas OSINT para verificar la autenticidad de la información. En la era digital actual, donde la desinformación abunda, estas herramientas son indispensables para validar datos y fuentes. En conclusión, como profesionales de OSINT, nuestra fortaleza radica no solo en nuestra experiencia técnica sino también en nuestra comprensión de la psicología humana. Si somos conscientes de nuestros sesgos cognitivos, fomentamos el pensamiento crítico y nos adaptamos continuamente a nuevas amenazas, podemos reforzar significativamente nuestras defensas contra los ataques de ingeniería social. Para obtener más información y estrategias detalladas, explorar recursos como DavinciForensics.co.za puede resultar inmensamente beneficioso. En la batalla contra las ciberamenazas, mantenernos informados y ser escépticos son nuestras mejores defensas. Únase a Sharon en la Cumbre SANS OSINT 2024.

Source link

Cinco razones por las que Elon Musk teme la inteligencia artificial

Comparte en tu plataforma favorita Recuerda mis palabras, la IA es mucho más peligrosa que las armas nucleares… ¿por qué no tenemos supervisión regulatoria? Elon Musk Elon Musk ha criticado abiertamente la inteligencia artificial y ha expresado preocupación por su posible impacto en la sociedad. Afirmó que “si se crea una IA súper inteligente, la IA será mejor que los humanos en la creación de IA. Si la humanidad no tiene cuidado, crearemos algo que será mejor para destruir el mundo que para crearlo”. Aquí hay cinco razones por las que Elon Musk teme a la inteligencia artificial: 1- Seguridad y control La seguridad y el control son preocupaciones que Elon Musk se ha pronunciado sobre la inteligencia artificial. Ha advertido que a medida que los sistemas de IA se vuelven más avanzados y autónomos, puede resultar difícil o incluso imposible de controlar para los humanos. Esta preocupación tiene sus raíces en la idea de que a medida que los sistemas de IA se vuelven más inteligentes y capaces, pueden comportarse de maneras inesperadas o indeseables. Por ejemplo, un sistema de IA diseñado para realizar una tarea específica, como controlar un dron, podría tomar decisiones dañinas o peligrosas si su programación no está diseñada para tener en cuenta todos los escenarios posibles. En el caso extremo, un sistema de IA diseñado para llevar a cabo una tarea específica podría volverse autónomo y operar más allá del control humano. Esto podría tener consecuencias no deseadas, como el desarrollo de armas autónomas que podrían usarse para causar daño o destrucción. Elon Musk ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA, y la creación de mecanismos que garanticen que los sistemas de IA sigan alineados con los valores humanos. También ha pedido más investigación sobre la seguridad de la IA y el desarrollo de métodos para garantizar que los sistemas de IA permanezcan bajo control humano y no representen una amenaza para la humanidad. En general, la preocupación por la seguridad y el control es un reflejo de debates y discusiones más amplios sobre el futuro de la IA y su impacto en la sociedad. Si bien muchos expertos creen que la IA tiene el potencial de aportar importantes beneficios a la sociedad, también se reconoce que existen riesgos reales asociados con el desarrollo y la implementación de sistemas avanzados de IA, y que esos riesgos deben considerarse y gestionarse cuidadosamente. 2- Desplazamiento laboral El desplazamiento laboral es otra pesadilla de la IA para Elon Musk. Ha dicho que la IA podría provocar un importante desplazamiento de puestos de trabajo, a medida que las máquinas y los algoritmos sean capaces de realizar tareas que antes realizaban los humanos. Hoy en día, aplicaciones como ChatGPT están muy de moda y algunos dicen que podrían sustituir muchas tareas. Consulte este excelente curso sobre cómo aprovechar los beneficios de ChatGPT. A medida que los sistemas de IA se vuelvan más avanzados y capaces, podrán automatizar cada vez más tareas que antes realizaban los humanos. Esto podría provocar pérdidas generalizadas de empleos y otros impactos económicos, ya que los trabajadores son desplazados por máquinas y algoritmos. Elon Musk ha pedido que se tomen medidas proactivas para mitigar este impacto y garantizar que los trabajadores tengan las habilidades que necesitan para prosperar en la era de la IA. También ha pedido más investigación sobre los impactos sociales y económicos de la IA, y el desarrollo de políticas y programas que apoyen a los trabajadores en la transición a una economía más automatizada. 3- Sesgo y discriminación Elon Musk ha señalado que los sistemas de IA son tan imparciales como los datos con los que se entrenan. Si los datos utilizados para entrenar sistemas de IA contienen sesgos o imprecisiones, los algoritmos pueden amplificar y perpetuar estos sesgos. Esto podría conducir a una discriminación generalizada y otros resultados perjudiciales. Aquí hay un ejemplo: suponga que desarrolla un sistema de inteligencia artificial diseñado para ayudar a los agricultores a optimizar sus cultivos. El sistema de inteligencia artificial utiliza datos sobre patrones climáticos, condiciones del suelo y otros factores para predecir los mejores momentos para plantar y cosechar cultivos. El sistema está diseñado para ayudar a los agricultores a hacer un uso más eficiente de sus recursos y aumentar sus rendimientos. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen consecuencias no deseadas. El sistema de IA ha tomado algunas decisiones que están teniendo impactos negativos en el medio ambiente. Por ejemplo, ha recomendado el uso de ciertos pesticidas que son tóxicos para la vida silvestre, o ha alentado a los agricultores a plantar cultivos en áreas propensas a la erosión. 4- Consecuencias no deseadas Elon Musk ha advertido que a medida que los sistemas de IA se vuelven más complejos y autónomos, puede resultar difícil predecir su comportamiento y las consecuencias de sus acciones. Ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA. Suponga que desarrolla un sistema de inteligencia artificial que la policía utilizará para ayudar a identificar posibles sospechosos en casos penales. El sistema de inteligencia artificial utiliza tecnología de reconocimiento facial y otras fuentes de datos para identificar a personas que pueden estar involucradas en actividades delictivas. El sistema está diseñado para ser una herramienta eficaz para la policía y ayudarla a resolver delitos más rápidamente. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen problemas con su precisión. El sistema de inteligencia artificial está cometiendo errores y, en algunos casos, identifica erróneamente a personas como sospechosas. Esto está causando graves daños a las personas acusadas injustamente y está socavando la confianza del público en la policía y en la tecnología misma. Este es un ejemplo de falta de responsabilidad, que es otra preocupación clave que Elon Musk ha expresado sobre la inteligencia artificial. A medida que los sistemas de IA se vuelven más avanzados y autónomos, resulta cada vez más difícil determinar quién es el responsable cuando algo sale mal. 5- Riesgo existencial Elon Musk también ha advertido que los sistemas avanzados de IA podrían suponer un riesgo existencial para la humanidad, si se volvieran hostiles o si se utilizaran para causar daño. Ha pedido una mayor investigación sobre la seguridad de la IA y el desarrollo de mecanismos para garantizar que los sistemas de IA sigan alineados con los valores humanos. Sin embargo, algunos críticos sostienen que Elon Musk exagera los peligros de la inteligencia artificial y que sus advertencias son exageradas. Sostienen que es poco probable que los sistemas de IA representen una amenaza existencial para la humanidad y que los beneficios de la IA superarán los riesgos. Otros argumentan que Elon Musk está mal informado sobre la naturaleza de la IA y sus capacidades. Sostienen que es poco probable que los sistemas de IA se vuelvan conscientes de sí mismos o desarrollen sus propias motivaciones, y que la probabilidad de que la IA represente una amenaza para la humanidad es baja. La próxima generación de programadores posiblemente será la que juzgue esto mejor. Aquí está mi publicación sobre 5 juegos para enseñar a nuestros hijos a programar. Relacionado Comparte en tu plataforma favorita

Source link

Funciona con WordPress & Tema de Anders Norén