Todo lo que necesitas saber sobre tecnología

Etiqueta: inteligencia artificial

Cinco razones por las que Elon Musk teme la inteligencia artificial

Comparte en tu plataforma favorita Recuerda mis palabras, la IA es mucho más peligrosa que las armas nucleares… ¿por qué no tenemos supervisión regulatoria? Elon Musk Elon Musk ha criticado abiertamente la inteligencia artificial y ha expresado preocupación por su posible impacto en la sociedad. Afirmó que “si se crea una IA súper inteligente, la IA será mejor que los humanos en la creación de IA. Si la humanidad no tiene cuidado, crearemos algo que será mejor para destruir el mundo que para crearlo”. Aquí hay cinco razones por las que Elon Musk teme a la inteligencia artificial: 1- Seguridad y control La seguridad y el control son preocupaciones que Elon Musk se ha pronunciado sobre la inteligencia artificial. Ha advertido que a medida que los sistemas de IA se vuelven más avanzados y autónomos, puede resultar difícil o incluso imposible de controlar para los humanos. Esta preocupación tiene sus raíces en la idea de que a medida que los sistemas de IA se vuelven más inteligentes y capaces, pueden comportarse de maneras inesperadas o indeseables. Por ejemplo, un sistema de IA diseñado para realizar una tarea específica, como controlar un dron, podría tomar decisiones dañinas o peligrosas si su programación no está diseñada para tener en cuenta todos los escenarios posibles. En el caso extremo, un sistema de IA diseñado para llevar a cabo una tarea específica podría volverse autónomo y operar más allá del control humano. Esto podría tener consecuencias no deseadas, como el desarrollo de armas autónomas que podrían usarse para causar daño o destrucción. Elon Musk ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA, y la creación de mecanismos que garanticen que los sistemas de IA sigan alineados con los valores humanos. También ha pedido más investigación sobre la seguridad de la IA y el desarrollo de métodos para garantizar que los sistemas de IA permanezcan bajo control humano y no representen una amenaza para la humanidad. En general, la preocupación por la seguridad y el control es un reflejo de debates y discusiones más amplios sobre el futuro de la IA y su impacto en la sociedad. Si bien muchos expertos creen que la IA tiene el potencial de aportar importantes beneficios a la sociedad, también se reconoce que existen riesgos reales asociados con el desarrollo y la implementación de sistemas avanzados de IA, y que esos riesgos deben considerarse y gestionarse cuidadosamente. 2- Desplazamiento laboral El desplazamiento laboral es otra pesadilla de la IA para Elon Musk. Ha dicho que la IA podría provocar un importante desplazamiento de puestos de trabajo, a medida que las máquinas y los algoritmos sean capaces de realizar tareas que antes realizaban los humanos. Hoy en día, aplicaciones como ChatGPT están muy de moda y algunos dicen que podrían sustituir muchas tareas. Consulte este excelente curso sobre cómo aprovechar los beneficios de ChatGPT. A medida que los sistemas de IA se vuelvan más avanzados y capaces, podrán automatizar cada vez más tareas que antes realizaban los humanos. Esto podría provocar pérdidas generalizadas de empleos y otros impactos económicos, ya que los trabajadores son desplazados por máquinas y algoritmos. Elon Musk ha pedido que se tomen medidas proactivas para mitigar este impacto y garantizar que los trabajadores tengan las habilidades que necesitan para prosperar en la era de la IA. También ha pedido más investigación sobre los impactos sociales y económicos de la IA, y el desarrollo de políticas y programas que apoyen a los trabajadores en la transición a una economía más automatizada. 3- Sesgo y discriminación Elon Musk ha señalado que los sistemas de IA son tan imparciales como los datos con los que se entrenan. Si los datos utilizados para entrenar sistemas de IA contienen sesgos o imprecisiones, los algoritmos pueden amplificar y perpetuar estos sesgos. Esto podría conducir a una discriminación generalizada y otros resultados perjudiciales. Aquí hay un ejemplo: suponga que desarrolla un sistema de inteligencia artificial diseñado para ayudar a los agricultores a optimizar sus cultivos. El sistema de inteligencia artificial utiliza datos sobre patrones climáticos, condiciones del suelo y otros factores para predecir los mejores momentos para plantar y cosechar cultivos. El sistema está diseñado para ayudar a los agricultores a hacer un uso más eficiente de sus recursos y aumentar sus rendimientos. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen consecuencias no deseadas. El sistema de IA ha tomado algunas decisiones que están teniendo impactos negativos en el medio ambiente. Por ejemplo, ha recomendado el uso de ciertos pesticidas que son tóxicos para la vida silvestre, o ha alentado a los agricultores a plantar cultivos en áreas propensas a la erosión. 4- Consecuencias no deseadas Elon Musk ha advertido que a medida que los sistemas de IA se vuelven más complejos y autónomos, puede resultar difícil predecir su comportamiento y las consecuencias de sus acciones. Ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA. Suponga que desarrolla un sistema de inteligencia artificial que la policía utilizará para ayudar a identificar posibles sospechosos en casos penales. El sistema de inteligencia artificial utiliza tecnología de reconocimiento facial y otras fuentes de datos para identificar a personas que pueden estar involucradas en actividades delictivas. El sistema está diseñado para ser una herramienta eficaz para la policía y ayudarla a resolver delitos más rápidamente. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen problemas con su precisión. El sistema de inteligencia artificial está cometiendo errores y, en algunos casos, identifica erróneamente a personas como sospechosas. Esto está causando graves daños a las personas acusadas injustamente y está socavando la confianza del público en la policía y en la tecnología misma. Este es un ejemplo de falta de responsabilidad, que es otra preocupación clave que Elon Musk ha expresado sobre la inteligencia artificial. A medida que los sistemas de IA se vuelven más avanzados y autónomos, resulta cada vez más difícil determinar quién es el responsable cuando algo sale mal. 5- Riesgo existencial Elon Musk también ha advertido que los sistemas avanzados de IA podrían suponer un riesgo existencial para la humanidad, si se volvieran hostiles o si se utilizaran para causar daño. Ha pedido una mayor investigación sobre la seguridad de la IA y el desarrollo de mecanismos para garantizar que los sistemas de IA sigan alineados con los valores humanos. Sin embargo, algunos críticos sostienen que Elon Musk exagera los peligros de la inteligencia artificial y que sus advertencias son exageradas. Sostienen que es poco probable que los sistemas de IA representen una amenaza existencial para la humanidad y que los beneficios de la IA superarán los riesgos. Otros argumentan que Elon Musk está mal informado sobre la naturaleza de la IA y sus capacidades. Sostienen que es poco probable que los sistemas de IA se vuelvan conscientes de sí mismos o desarrollen sus propias motivaciones, y que la probabilidad de que la IA represente una amenaza para la humanidad es baja. La próxima generación de programadores posiblemente será la que juzgue esto mejor. Aquí está mi publicación sobre 5 juegos para enseñar a nuestros hijos a programar. Relacionado Comparte en tu plataforma favorita

Source link

El Snapdragon 8 Gen 3 cambia radicalmente el enfoque de Google hacia la IA

Cierre el punto de la mano masculina para levitar la tarjeta de crédito bancaria de maqueta de plantilla con servicio en línea aislado sobre fondo verde. Foto de alta calidad Si bien a menudo escuchamos la idea de que la evolución del hardware de los teléfonos inteligentes se ha desacelerado en los últimos años, tal vez sea seguro decir que todavía estamos viendo algunas innovaciones en sectores previamente no explotados, al menos en lo que respecta a la tecnología de telefonía móvil. . Tomemos, por ejemplo, la inteligencia artificial: alguna vez fue un concepto científico aparentemente distante, pero estamos viendo cada vez más características de IA integradas en una gran cantidad de productos de hardware y software de consumo. Más recientemente, hemos visto esto entrar en juego en compañías como Google con su chipset Tensor G3 y el último chipset Snapdragon 8 Gen 3 de Qualcomm. Si bien ambas empresas aspiran a resultados similares con funciones como la IA generativa, por ejemplo, existen algunas diferencias clave en cuanto a cómo se logran. Nublado con posibilidad de IA Si vio la presentación del producto Made by Google en octubre, es muy probable que haya escuchado la palabra «IA» mencionada durante todo el evento. Desde el inicio del chipset Tensor de primera generación, está claro que Google estaba en camino de integrar cada vez más la IA en sus productos y servicios. LEA: Revisión de Google Pixel 8: engañosamente simple Esto es muy obvio con los teléfonos inteligentes de la serie Pixel 8, que funcionan con el SoC móvil Tensor G3. Las funciones de edición de fotografías como Magic Editor y Best Take son posibles gracias al chip Tensor G3, aunque cabe señalar que no funciona solo; por ejemplo, Magic Editor requiere que los usuarios hagan una copia de seguridad de sus fotos en línea para poder funcionar. , lo que indica que la magia de la IA de Google ocurre a través de la nube. Eso no quiere decir que la funcionalidad de IA de Tensor sea un truco: todavía hace parte del trabajo, pero requiere la ayuda de los servidores basados ​​en la nube de Google para funcionar. Entra el Dragón Por el contrario, el Snapdragon 8 Gen 3 de Qualcomm es capaz de procesar tareas generativas de IA en el dispositivo, lo que significa que el chip, y a su vez el teléfono, hace todo el trabajo pesado. Los esfuerzos de Qualcomm hacia la IA en el dispositivo han tardado en llegar, y la compañía trabajó en la tecnología mucho antes del lanzamiento del 8 Gen 3. LEA: Snapdragon 8 Gen 3 marca el comienzo de un nuevo estándar para el rendimiento y la IA móvil. En general, también se piensa que el procesamiento de IA en el dispositivo es mucho más rentable que las alternativas que requerirán que el hardware funcione junto con un servidor basado en la nube; Esto también significa un procesamiento más rápido, ya que todas las cargas de trabajo involucradas son completamente locales, lo que reduce el tiempo necesario para que los usuarios obtengan los resultados que desean. Dado que el 8 Gen 3 es capaz de hacer esto, los compradores pueden esperar que su teléfono inteligente favorito venga con nuevas y sofisticadas funciones de IA generativa, aunque hay un problema. Algunas consideraciones Como tal, existen algunas advertencias sobre el enfoque de Qualcomm para permitir que los fabricantes de hardware equipen sus dispositivos con capacidades de IA integradas. En pocas palabras, si bien la tecnología está disponible en el 8 Gen 3, los OEM aún necesitarán desarrollar sus propias aplicaciones y software específicos para aprovechar al máximo la IA en el dispositivo, lo que agrega una especie de barrera a la función. Por otro lado, el método de Google con sus Pixels asegura que las funciones del software ya estén ahí, aunque hay un compromiso importante con respecto a la velocidad a la que el teléfono puede generar resultados, ya que la mitad de la tarea se descarga a la nube. En cualquier caso, Qualcomm ha demostrado que es posible equipar los teléfonos inteligentes con funciones de IA generativa, sin tener que recurrir a la nube. Dicho todo esto, es ciertamente interesante ver cómo diferentes empresas están abordando las funciones de IA listas para dispositivos móviles. Para todos los efectos, muchas de las funciones actuales de IA aún se encuentran en sus primeras etapas, aunque siempre es emocionante ver cómo se desarrolla junto con el hardware necesario para funcionar.

Source link

El poder transformador de la inteligencia artificial: desencadenar el impacto económico

El poder transformador de la inteligencia artificial: desencadenar el impacto económico En los últimos años, la inteligencia artificial (IA) ha surgido como una tecnología transformadora con potencial para remodelar industrias, revolucionar los procesos de trabajo y redefinir las economías. Desde vehículos autónomos hasta asistentes de voz y recomendaciones personalizadas, la IA ya está profundamente arraigada en nuestra vida diaria. Sin embargo, su verdadero impacto económico va mucho más allá de la conveniencia y la eficiencia. Este artículo explora la profunda influencia de la IA en la economía, destacando tanto las oportunidades como los desafíos que presenta. La IA impulsa el crecimiento económico La inteligencia artificial tiene el poder de impulsar un crecimiento económico significativo al impulsar la innovación, aumentar la productividad y crear nuevas oportunidades de mercado. Según un informe de PwC, la IA tiene el potencial de contribuir con hasta 15,7 billones de dólares a la economía global para 2030. Al automatizar tareas repetitivas y aumentar las capacidades humanas, la IA libera tiempo valioso para que los empleados se concentren en tareas más complejas, creativas y estratégicas. actividades. Esto mejora la productividad y allana el camino para la expansión económica. Disrupción de la industria y transformaciones laborales A medida que avanzan las tecnologías de IA, tienen el potencial de alterar las industrias tradicionales y transformar la naturaleza del trabajo. Si bien algunos trabajos pueden automatizarse, surgirán nuevos roles que exigirán una combinación de habilidades técnicas, creatividad y adaptabilidad. Un estudio del Foro Económico Mundial predice que la IA desplazará 75 millones de puestos de trabajo en todo el mundo para 2025, pero creará 133 millones de nuevos. Es crucial invertir en iniciativas de reconversión y mejora de las capacidades para dotar a los trabajadores de las habilidades necesarias para los empleos del futuro. La IA y la fuerza laboral del mañana La IA tiene el potencial de revolucionar la fuerza laboral, permitiendo una mayor flexibilidad, trabajo remoto y equilibrio entre la vida personal y laboral. La automatización inteligente puede optimizar las operaciones, reducir costos y mejorar las experiencias de los clientes. Este impacto transformador se extenderá a todas las industrias, desde la atención médica y las finanzas hasta la manufactura y el transporte. Sin embargo, es vital abordar las preocupaciones éticas y garantizar que los sistemas de IA estén diseñados para aumentar las capacidades humanas en lugar de reemplazarlas por completo. Disparidades económicas e inclusión A medida que la IA se vuelve más prevalente, es esencial abordar el potencial de disparidades económicas y garantizar la inclusión para todos. Las tecnologías de IA tienen el poder de exacerbar las desigualdades existentes si no se implementan cuidadosamente. Se debe democratizar el acceso a las herramientas, los datos y la infraestructura de la IA para permitir que las pequeñas empresas y los países en desarrollo participen plenamente en la economía impulsada por la IA. Las consideraciones éticas, la justicia y la transparencia deben estar en el centro del desarrollo y despliegue de la IA para minimizar posibles sesgos y discriminación. La IA y el auge de nuevas industrias La inteligencia artificial está impulsando el surgimiento de industrias y modelos de negocio completamente nuevos. Desde vehículos autónomos y ciudades inteligentes hasta atención médica personalizada y análisis predictivo, la IA está transformando varios sectores. La propia industria de la IA está experimentando un crecimiento exponencial, atrayendo inversiones sustanciales y fomentando la innovación. Los gobiernos, las empresas y los individuos deben adaptarse y aprovechar el potencial de la IA para seguir siendo competitivos y aprovechar los beneficios de esta revolución tecnológica. Conclusión El impacto económico de la inteligencia artificial es innegable. Tiene el potencial de remodelar industrias, generar un crecimiento económico sustancial y crear nuevas oportunidades. Sin embargo, un gran poder conlleva una gran responsabilidad. Los formuladores de políticas, las empresas y las personas deben colaborar para abordar los desafíos éticos, legales y sociales asociados con la adopción de la IA. Al garantizar la inclusión, la equidad y la transparencia, podemos aprovechar el potencial transformador de la IA para crear un futuro próspero y sostenible.

Source link

Elon Musk, jefe de Tesla, dice que la IA creará una situación en la que no se necesitará trabajo

Elon Musk, director ejecutivo de Tesla Inc., en la Cumbre de Seguridad de IA 2023 en Bletchley Park en Bletchley, Reino Unido, el miércoles 1 de noviembre de 2023.Chris J. Ratcliffe | Bloomberg | Getty ImagesLONDRES – Elon Musk cree que la inteligencia artificial podría eventualmente dejar a todos sin trabajo. El líder tecnológico multimillonario, que es director ejecutivo de Tesla, SpaceX y CTO y presidente ejecutivo de X, anteriormente conocido como Twitter, y propietario de la recién formada IA. La startup xAI dijo el jueves por la noche que la IA tendrá el potencial de convertirse en la «fuerza más disruptiva de la historia». «Tendremos algo que, por primera vez, será más inteligente que el ser humano más inteligente», dijo Musk en un evento en Lancaster House. , una residencia oficial del gobierno del Reino Unido. «Es difícil decir exactamente cuál es ese momento, pero llegará un punto en el que no se necesitará trabajo», continuó Musk, hablando junto al primer ministro británico, Rishi Sunak. «Puedes tener un trabajo si quieres tener un trabajo para tu satisfacción personal. Pero la IA sería capaz de hacerlo todo». «No sé si eso hace que la gente se sienta cómoda o incómoda», bromeó Musk, ante lo que el público se rió. «Si deseas un genio mágico, eso te concede cualquier deseo que desees, y no hay límite. No tienes esos tres límites de deseos sin sentido, es bueno y malo. Uno de los desafíos en el futuro será cómo hacerlo. encontramos significado en la vida». Los comentarios de Musk el jueves siguen a la conclusión de una cumbre histórica en Bletchley Park, Inglaterra, donde los líderes mundiales acordaron un comunicado global sobre IA que los vio encontrar puntos en común sobre los riesgos que la tecnología representa para la humanidad. Tecnólogos y Los líderes políticos aprovecharon la cumbre para advertir sobre las amenazas existenciales que plantea la IA, centrándose en algunos de los posibles escenarios apocalípticos que podrían formarse con la invención de una hipotética superinteligencia. En la cumbre, Estados Unidos y China, dos países que se enfrentaron más tensamente por tecnología, acuerdan encontrar un consenso global sobre cómo abordar algunas de las cuestiones más complejas en torno a la IA, incluido cómo desarrollarla de forma segura y regularla. Corrección: Elon Musk es el director ejecutivo de Tesla. Una versión anterior indicaba erróneamente su estado.

Source link

Merchant: ¿Cómo utiliza Israel la IA militar en los ataques a Gaza?


La niebla de la guerra se ha espesado en Gaza, una invasión terrestre está cobrando fuerza y ​​los bombardeos aéreos continúan a un ritmo vertiginoso. El martes, misiles alcanzaron un campo de refugiados en Jabaliya, donde las Fuerzas de Defensa de Israel dijeron que estaba estacionado un alto líder de Hamas, matando a docenas de civiles. El debate sobre la crisis continúa en línea y fuera de ella, pero a pesar de todo el discurso, hay una pregunta pendiente que tengo. No se ha considerado ampliamente: ¿Hasta qué punto Israel depende de la inteligencia artificial y los sistemas de armas automatizados para seleccionar y atacar objetivos? Sólo en la primera semana de su ataque, la fuerza aérea israelí dijo que había lanzado 6.000 bombas en toda Gaza, un territorio que Tiene 140 millas cuadradas (una décima parte del tamaño del estado más pequeño de Rhode Island en Estados Unidos) y se encuentra entre los lugares más densamente poblados del mundo. Ha habido muchos miles de explosiones más desde entonces. Israel comanda el ejército más poderoso y de mayor tecnología de Medio Oriente. Meses antes de los horribles ataques de Hamás el 7 de octubre, las FDI anunciaron que iban a incorporar IA en operaciones letales. Como informó Bloomberg el 15 de julio, a principios de este año, las FDI habían comenzado a “usar inteligencia artificial para seleccionar objetivos para ataques aéreos y organizar la logística en tiempos de guerra”. Los funcionarios israelíes dijeron en ese momento que las FDI empleaban un sistema de recomendación de IA para elegir objetivos para ataques aéreos. bombardeo y otro modelo que luego se utilizaría para organizar rápidamente las siguientes incursiones. Las FDI llaman a este segundo sistema Fire Factory y, según Bloomberg, “utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de municiones, priorizar y asignar miles de objetivos a aviones y drones, y proponer un cronograma”. A petición de comentarios, un portavoz de las FDI se negó a discutir el uso militar de la IA en el país. En un año en el que la IA ha dominado los titulares de todo el mundo, este elemento del conflicto ha sido curiosamente subexaminado. Dadas las innumerables cuestiones prácticas y éticas que siguen rodeando a esta tecnología, se debe presionar a Israel sobre cómo está implementando la IA. «Los sistemas de IA son notoriamente poco fiables y frágiles, especialmente cuando se colocan en situaciones que son diferentes de sus datos de entrenamiento», dijo Paul Scharre. , vicepresidente del Centro para una Nueva Seguridad Estadounidense y autor de “Cuatro campos de batalla: el poder en la era de la inteligencia artificial”. Scharre dijo que no estaba familiarizado con los detalles del sistema específico que las FDI podrían estar usando, pero que la IA y la automatización que ayudaron en los ciclos de selección de objetivos probablemente se usarían en escenarios como la búsqueda de personal y material de Hamas por parte de Israel en Gaza. El uso de la IA en el campo de batalla está avanzando rápidamente, dijo, pero conlleva riesgos significativos. “Cualquier IA que esté involucrada en decisiones de selección de objetivos, un riesgo importante es que acierte al objetivo equivocado”, dijo Scharre. «Podría estar causando víctimas civiles o atacando objetivos amigos y causando fratricidio». Una de las razones por las que es algo sorprendente que no hayamos visto más discusión sobre el uso de IA militar por parte de Israel es que las FDI han estado promocionando su inversión y adopción de la IA durante años. En 2017, el brazo editorial de las FDI proclamó que “las FDI ven la inteligencia artificial como la clave para la supervivencia moderna”. En 2018, las FDI se jactaron de que sus “máquinas están siendo más astutas que los humanos”. En ese artículo, la entonces directora de Sigma, la rama de las FDI dedicada a la investigación, el desarrollo y la implementación de la IA, la teniente coronel Nurit Cohen Inger, escribió que “Cada cámara, cada tanque y cada soldado produce información de forma regular. «Entendemos que hay capacidades que una máquina puede adquirir y que un hombre no puede», continuó Nurit. “Estamos introduciendo poco a poco la inteligencia artificial en todas las áreas de las FDI, desde la logística y la mano de obra hasta la inteligencia”. Las FDI llegaron incluso a llamar a su último conflicto con Hamás en Gaza, en 2021, la “primera guerra de inteligencia artificial”, con Los líderes de las FDI promocionan las ventajas que su tecnología confiere en la lucha contra Hamás. «Por primera vez, la inteligencia artificial fue un componente clave y un multiplicador de poder en la lucha contra el enemigo», dijo un alto oficial del Cuerpo de Inteligencia de las FDI al Jerusalem Post. Un comandante de la unidad de inteligencia artificial y ciencia de datos de las FDI dijo que los sistemas de inteligencia artificial habían ayudado al ejército a apuntar y eliminar a dos líderes de Hamas en 2021, según el Post. Las FDI dicen que los sistemas de IA se han integrado oficialmente en operaciones letales desde principios de este año. Dice que los sistemas permiten a los militares procesar datos y localizar objetivos más rápido y con mayor precisión, y que cada objetivo es revisado por un operador humano. Sin embargo, los académicos del derecho internacional en Israel han expresado su preocupación sobre la legalidad del uso de tales herramientas, y los analistas temen que representen un avance hacia armas más completamente autónomas y advierten que existen riesgos inherentes al entregar sistemas de objetivos a la IA. Después de todo, muchas IA Los sistemas son cada vez más cajas negras cuyos algoritmos no se comprenden bien y están ocultos a la vista del público. En un artículo sobre la adopción de la IA por parte de las FDI para el Instituto Lieber, los académicos de derecho de la Universidad Hebrea Tal Mimran y Lior Weinstein enfatizan los riesgos de depender de sistemas automatizados opacos capaces de provocar la pérdida de vidas humanas. (Cuando Mimran sirvió en las FDI, revisó los objetivos para asegurarse de que cumplieran con el derecho internacional). “Mientras las herramientas de IA no sean explicables”, escriben Mimran y Weinstein, “en el sentido de que no podemos entender completamente por qué alcanzaron un cierto En conclusión, ¿cómo podemos justificarnos a nosotros mismos si debemos confiar en la decisión de la IA cuando hay vidas humanas en juego? Continúan: “Si uno de los ataques producidos por la herramienta de IA causa un daño significativo a civiles no involucrados, ¿quién debería asumir la responsabilidad de la decisión?” Una vez más, las FDI no me explicaron exactamente cómo están utilizando la IA, y el funcionario le dijo a Bloomberg que un humano revisó la salida del sistema, pero que solo tomó unos minutos hacerlo. (“Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana”, dijo el jefe de transformación digital del ejército). Hay una serie de preocupaciones aquí, dado lo que sabemos sobre el estado actual de la técnica. de los sistemas de IA, y es por eso que vale la pena presionar a las FDI para que revelen más sobre cómo los utilizan actualmente. Por un lado, los sistemas de IA permanecen codificados con sesgos y, si bien a menudo son buenos para analizar grandes cantidades de datos, rutinariamente producen resultados propensos a errores cuando se les pide que extrapolen a partir de esos datos. “Una diferencia realmente fundamental entre la IA y un analista humano al que se le asigna exactamente la misma tarea”, dijo Scharre, “es que los humanos hacen un muy buen trabajo al generalizar a partir de un pequeño número de ejemplos a situaciones novedosas, y los sistemas de inteligencia artificial tienen muchas dificultades para generalizarse a situaciones novedosas”. Un ejemplo: incluso se ha demostrado una y otra vez que incluso la tecnología de reconocimiento facial supuestamente de vanguardia, como la utilizada por los departamentos de policía estadounidenses, es menos precisa a la hora de identificar a las personas. de color, lo que resulta en que los sistemas señalen a ciudadanos inocentes y lleven a arrestos injustos. Además, cualquier sistema de inteligencia artificial que busque automatizar (y acelerar) la selección de objetivos aumenta la posibilidad de que los errores cometidos en el proceso sean más difíciles de discernir. Y si los militares mantienen en secreto el funcionamiento de sus sistemas de inteligencia artificial, no hay manera de evaluar el tipo de errores que están cometiendo. «Creo que los militares deberían ser más transparentes en la forma en que evalúan o abordan la IA», dijo Scharre. “Una de las cosas que hemos visto en los últimos años en Libia o Ucrania es una zona gris. Habrá acusaciones de que se está utilizando IA, pero los algoritmos o los datos de entrenamiento son difíciles de descubrir, y eso hace que sea muy difícil evaluar lo que están haciendo los militares”. Incluso con esos errores incorporados en el código de eliminación, la IA podría, mientras tanto, prestar un barniz de credibilidad a objetivos que de otro modo no serían aceptables para los operadores de base. Finalmente, los sistemas de IA pueden crear una falsa sensación de confianza, que tal vez fue evidente en cómo, a pesar de tener el mejor sistema de inteligencia artificial de su clase, Con el sistema de vigilancia vigente en Gaza, Israel no detectó la planificación de la brutal y altamente coordinada masacre del 7 de octubre. Como señaló Peter Apps de Reuters: “El 27 de septiembre, apenas una semana antes de que los combatientes de Hamás lanzaran el mayor ataque sorpresa contra Israel desde la guerra de Yom Kippur de 1973, los funcionarios israelíes tomaron la presidencia del comité militar de la OTAN en la frontera de Gaza para demostrar su uso de inteligencia artificial y vigilancia de alta tecnología. … Desde aviones teledirigidos que utilizan software de reconocimiento facial hasta puestos de control fronterizos y escuchas electrónicas de las comunicaciones, la vigilancia israelí de Gaza se considera ampliamente entre los esfuerzos más intensos y sofisticados que existen”. Sin embargo, nada de eso ayudó a detener a Hamás. “El error ha sido, en el las últimas dos semanas, diciendo que se trataba de un fallo de inteligencia. No lo fue, fue un fracaso político”, dijo Antony Loewenstein, periodista independiente y autor de “El Laboratorio de Palestina” que estuvo basado en Jerusalén Oriental entre 2016 y 2020. “El foco de Israel había estado en Cisjordania, creyendo que había rodeado a Gaza. Creían erróneamente que las tecnologías más sofisticadas por sí solas lograrían mantener controlada y ocupada a la población palestina”. Ésa puede ser una de las razones por las que Israel se ha mostrado reacio a discutir sus programas de IA. Otro puede ser que un argumento clave de venta de la tecnología a lo largo de los años, que la IA ayudará a elegir objetivos con mayor precisión y reducir las víctimas civiles, actualmente no parece creíble. «La afirmación de la IA se ha centrado en apuntar a las personas con más éxito», dijo Loewenstein. “Pero no ha sido un objetivo concreto en absoluto; Hay un gran número de civiles muriendo. Un tercio de las viviendas en Gaza han sido destruidas. Eso no es apuntar con precisión”. Y eso es un temor aquí: que la IA pueda usarse para acelerar o habilitar la capacidad destructiva de una nación que convulsiona de rabia, con errores potencialmente mortales en sus algoritmos que quedan oscurecidos por la niebla de la guerra.

Source link

Las potencias mundiales hacen un compromiso ‘histórico’ con la seguridad de la IA

Representantes de 28 países y empresas de tecnología se reunieron en el sitio histórico de Bletchley Park en el Reino Unido para la Cumbre de Seguridad de la IA celebrada del 1 al 2 de noviembre de 2023. El primer día de la cumbre culminó con la firma de la “histórica” Declaración de Bletchley sobre la IA. Seguridad, que compromete a 28 países participantes, incluidos el Reino Unido, EE. UU. y China, a gestionar y mitigar conjuntamente los riesgos de la inteligencia artificial, garantizando al mismo tiempo un desarrollo y un despliegue seguros y responsables. En el segundo y último día de la cumbre, los gobiernos y las principales organizaciones de IA acordaron un nuevo plan para las pruebas seguras de tecnologías avanzadas de IA, que incluye un papel gubernamental en las pruebas de modelos previas y posteriores al despliegue. Saltar a: ¿Qué es la Cumbre de Seguridad de la IA? La Cumbre de Seguridad de la IA es una importante conferencia que se celebró los días 1 y 2 de noviembre de 2023 en Buckinghamshire, Reino Unido. Reunió a gobiernos internacionales, empresas de tecnología y académicos para considerar los riesgos de la IA “en la frontera del desarrollo” y discutir cómo se pueden abordar estos riesgos. mitigados mediante un esfuerzo conjunto y global. El día inaugural de la Cumbre de Seguridad de la IA contó con una serie de charlas de líderes empresariales y académicos destinadas a promover una comprensión más profunda de la IA de vanguardia. Esto incluyó una serie de mesas redondas con “desarrolladores clave”, incluidos OpenAI, Anthropic y Google DeepMind, con sede en el Reino Unido, que se centraron en cómo se pueden definir umbrales de riesgo, evaluaciones de seguridad efectivas y mecanismos sólidos de gobernanza y rendición de cuentas. VER: Hoja de referencia de ChatGPT: Guía completa para 2023 (TechRepublic) El primer día de la cumbre también contó con un discurso virtual del rey Carlos III, quien calificó la IA como uno de los “mayores saltos tecnológicos” de la humanidad y destacó el potencial de la tecnología para transformar la atención médica y diversos otros aspectos de la vida. El monarca británico pidió una sólida coordinación y colaboración internacional para garantizar que la IA siga siendo una tecnología segura y beneficiosa. ¿Quién asistió a la Cumbre de seguridad de la IA? Representantes del Instituto Alan Turing, la Universidad de Stanford, la Organización para la Cooperación y el Desarrollo Económicos y el Instituto Ada Lovelace estuvieron entre los asistentes a la Cumbre de Seguridad de la IA, junto con empresas de tecnología como Google, Microsoft, IBM, Meta y AWS, así como como líderes como el jefe de SpaceX, Elon Musk. También estuvo presente la vicepresidenta de Estados Unidos, Kamala Harris. ¿Qué es la Declaración de Bletchley sobre la seguridad de la IA? La Declaración de Bletchley establece que los desarrolladores de tecnologías de IA avanzadas y potencialmente peligrosas asumen una responsabilidad importante para garantizar que sus sistemas sean seguros a través de rigurosos protocolos de prueba y medidas de seguridad para evitar el mal uso y los accidentes. También enfatiza la necesidad de un terreno común para comprender los riesgos de la IA y fomentar asociaciones internacionales de investigación en seguridad de la IA, al tiempo que reconoce que existe «el potencial de que se produzcan daños graves, incluso catastróficos, ya sea deliberados o no, derivados de las capacidades más significativas de estos modelos de IA». .” El Primer Ministro del Reino Unido, Rishi Sunak, calificó la firma de la declaración como «un logro histórico que ve a las mayores potencias de IA del mundo acordar en la urgencia de comprender los riesgos de la IA». En una declaración escrita, Sunak dijo: “Bajo el liderazgo del Reino Unido, más de veinticinco países en la Cumbre de Seguridad de la IA han declarado una responsabilidad compartida para abordar los riesgos de la IA y promover una colaboración internacional vital en la investigación y la seguridad de la IA. «Una vez más, el Reino Unido lidera al mundo a la vanguardia de esta nueva frontera tecnológica al iniciar esta conversación, que nos permitirá trabajar juntos para hacer que la IA sea segura y aprovechar todos sus beneficios para las generaciones venideras». (El gobierno del Reino Unido ha denominado “IA de frontera” a los sistemas avanzados de inteligencia artificial que podrían plantear riesgos aún desconocidos para la sociedad). El Primer Ministro del Reino Unido, Rishi Sunak, fue el anfitrión de la Cumbre de IA del Reino Unido en Bletchley Park. Imagen: Simon Dawson / No 10 Downing Street Reacciones de los expertos a la Declaración de Bletchley Si bien el gobierno del Reino Unido subrayó repetidamente la importancia de la declaración, algunos analistas se mostraron más escépticos. Martha Bennett, vicepresidenta analista principal de Forrester, sugirió que la firma del acuerdo era más simbólica que sustantiva, y señaló que los firmantes “no habrían aceptado el texto de la Declaración de Bletchley si contuviera algún detalle significativo sobre cómo debería regularse la IA”. .” Bennett le dijo a TechRepublic por correo electrónico: «Esta declaración no tendrá ningún impacto real en la forma en que se regula la IA. Por un lado, la UE ya tiene en proceso la Ley de IA; en los EE. UU., el presidente Biden emitió el 30 de octubre una Orden Ejecutiva sobre IA, y el 30 de octubre se publicaron los Principios Rectores Internacionales y el Código Internacional de Conducta para la IA del G7. todos los cuales contienen más sustancia que la Declaración de Bletchley”. Sin embargo, Bennett dijo que el hecho de que la declaración no tuviera un impacto directo en la política no era necesariamente algo malo. “La Cumbre y la Declaración de Bletchley tienen más que ver con establecer señales y demostrar voluntad de cooperar, y eso es importante. Tendremos que esperar y ver si las buenas intenciones van seguidas de acciones significativas”, afirmó. ¿Cómo probarán los gobiernos los nuevos modelos de IA? Los gobiernos y las empresas de IA también acordaron un nuevo marco de pruebas de seguridad para modelos avanzados de IA en el que los gobiernos desempeñarán un papel más destacado en las evaluaciones previas y posteriores al despliegue. El marco, que se basa en la Declaración de Bletchley, garantizará que los gobiernos “tengan un papel en velar por que se realicen pruebas de seguridad externas de los modelos fronterizos de IA”, particularmente en áreas relacionadas con la seguridad nacional y el bienestar público. El objetivo es trasladar la responsabilidad de probar la seguridad de los modelos de IA de las empresas de tecnología únicamente. En el Reino Unido, esto será realizado por un nuevo Instituto de Seguridad de IA, que trabajará con el Instituto Alan Turing para “probar cuidadosamente nuevos tipos de IA de vanguardia” y “explorar todos los riesgos, desde daños sociales como prejuicios y desinformación, hasta la El riesgo más improbable pero extremo, como que la humanidad pierda completamente el control de la IA”. VER: Kit de contratación: Ingeniero rápido (TechRepublic Premium) El renombrado científico informático Yoshua Bengio tiene la tarea de liderar la creación de un informe sobre el «Estado de la ciencia», que evaluará las capacidades y los riesgos de la inteligencia artificial avanzada e intentará establecer un sistema unificado. comprensión de la tecnología. Durante la conferencia de prensa de clausura de la cumbre, un miembro de los medios de comunicación preguntó a Sunak si la responsabilidad de garantizar la seguridad de la IA debería recaer principalmente en las empresas que desarrollan modelos de IA, como lo respalda el profesor Bengio. En respuesta, Sunak expresó la opinión de que las empresas no pueden ser las únicas responsables de “marcar sus propios deberes” y sugirió que los gobiernos tenían el deber fundamental de garantizar la seguridad de sus ciudadanos. «Corresponde a los gobiernos mantener a sus ciudadanos seguros y protegidos, y es por eso que hemos invertido significativamente en nuestro Instituto de Seguridad de IA», dijo. “Nuestro trabajo es evaluar, monitorear y probar de forma independiente y externa estos modelos para asegurarnos de que sean seguros. ¿Creo que las empresas tienen una responsabilidad moral general de garantizar que el desarrollo de su tecnología se realice de forma segura? Sí, (y) todos han dicho exactamente lo mismo. Pero creo que también estarían de acuerdo en que los gobiernos deben desempeñar ese papel”. Otro periodista cuestionó a Sunak sobre el enfoque del Reino Unido para regular la tecnología de IA, específicamente si los acuerdos voluntarios eran suficientes en comparación con un régimen de licencias formal. En respuesta, Sunak argumentó que el ritmo al que evolucionaba la IA requería una respuesta gubernamental que se mantuviera al día, y sugirió que el Instituto de Seguridad de la IA sería responsable de realizar las evaluaciones e investigaciones necesarias para informar la regulación futura. «La tecnología se está desarrollando a tal ritmo que los gobiernos tienen que asegurarse de que podemos mantener el ritmo ahora, antes de empezar a exigir cosas y legislar al respecto», dijo Sunak. «Es importante que la regulación se base empíricamente en la evidencia científica, y por eso debemos hacer el trabajo primero». ¿Cuáles son las reacciones de los expertos a la Cumbre de Seguridad de la IA? Poppy Gustafsson, directora ejecutiva de la empresa de ciberseguridad de inteligencia artificial Darktrace, dijo a PA Media que le preocupaba que las discusiones se centraran demasiado en “riesgos hipotéticos del futuro”, como robots asesinos, pero que en la realidad las discusiones eran más “medidas”. Más cobertura de IA de lectura obligada Bennett de Forrester tenía una opinión marcadamente diferente y le dijo a TechRepublic que había «demasiado énfasis en escenarios lejanos y potencialmente apocalípticos». Y añadió: «Si bien la declaración (de Bletchley) incluye todas las palabras correctas sobre la investigación científica y la colaboración, que por supuesto son cruciales para abordar los problemas actuales relacionados con la seguridad de la IA, el final del documento lo devuelve a la IA de vanguardia». Bennet también señaló que, si bien gran parte de la retórica que rodeó la cumbre fue de cooperación y colaboración, las naciones individuales estaban avanzando con sus propios esfuerzos para convertirse en líderes en IA. “Si alguien esperaba que la Cumbre incluyera un anuncio sobre el establecimiento de un nuevo organismo global de investigación de IA, esas esperanzas se desvanecieron. Por ahora, los países se están centrando en sus propios esfuerzos: la semana pasada, el Primer Ministro del Reino Unido, Rishi Sunak, anunció el establecimiento del «primer Instituto de Seguridad de IA del mundo». Hoy (1 de noviembre), el presidente estadounidense Biden anunció el establecimiento del Instituto de Seguridad de Inteligencia Artificial de Estados Unidos”. Y añadió: «Esperemos que veamos el tipo de colaboración entre estos diferentes institutos que defiende la Declaración de Bletchley». VER: La Cumbre AI for Good de la ONU explora cómo la IA generativa plantea riesgos y fomenta las conexiones (TechRepublic) Rajesh Ganesan, presidente de ManageEngine, propiedad de Zoho, comentó en un comunicado por correo electrónico que, “Si bien algunos pueden sentirse decepcionados si la cumbre no logra establecer un organismo regulador global”, el hecho de que los líderes globales estuvieran discutiendo la regulación de la IA fue un paso positivo hacia adelante. «Lograr un acuerdo internacional sobre los mecanismos para gestionar los riesgos que plantea la IA es un hito importante: una mayor colaboración será fundamental para equilibrar los beneficios de la IA y limitar su capacidad dañina», dijo Ganesan en un comunicado. “Está claro que las prácticas de regulación y seguridad seguirán siendo fundamentales para la adopción segura de la IA y deben seguir el ritmo de sus rápidos avances. Esto es algo que la Ley de IA de la UE y los acuerdos del Código de Conducta del G7 podrían impulsar y proporcionar un marco para ello”. Ganesan añadió: “Necesitamos priorizar la educación continua y brindar a las personas las habilidades para utilizar sistemas de IA generativa de forma segura. Si no se logra que la adopción de la IA se centre en las personas que la utilizan y se benefician de ella, se corre el riesgo de obtener resultados peligrosos y subóptimos”. ¿Por qué es importante la seguridad de la IA? Actualmente no existe un conjunto integral de regulaciones que rijan el uso de la inteligencia artificial, aunque la Unión Europea ha redactado un marco que apunta a establecer reglas para la tecnología en el bloque de 28 naciones. El posible uso indebido de la IA, ya sea de forma maliciosa o mediante errores humanos o mecánicos, sigue siendo una preocupación clave. En la cumbre se escuchó que las vulnerabilidades de ciberseguridad, los peligros biotecnológicos y la difusión de desinformación representaban algunas de las amenazas más importantes publicadas por la IA, mientras que también se destacaron problemas con el sesgo algorítmico y la privacidad de los datos. La Secretaria de Tecnología del Reino Unido, Michelle Donelan, enfatizó la importancia de la Declaración de Bletchley como primer paso para garantizar el desarrollo seguro de la IA. También afirmó que la cooperación internacional era esencial para generar confianza pública en las tecnologías de IA, y agregó que “ningún país puede enfrentar por sí solo los desafíos y riesgos que plantea la IA”. El 1 de noviembre señaló: “La histórica Declaración de hoy marca el inicio de un nuevo esfuerzo global para generar confianza pública garantizando el desarrollo seguro de la tecnología”. ¿Cómo ha invertido el Reino Unido en IA? En vísperas de la Cumbre de Seguridad de la IA del Reino Unido, el gobierno del Reino Unido anunció una financiación de £118 millones (143 millones de dólares) para impulsar la financiación de habilidades de IA en el Reino Unido. La financiación se destinará a centros de investigación, becas y programas de visas y tiene como objetivo alentar a los jóvenes a estudiar los campos de la inteligencia artificial y la ciencia de datos. Mientras tanto, se han destinado £21 millones ($25,5 millones) para equipar al Servicio Nacional de Salud del Reino Unido con tecnología de diagnóstico y de imágenes impulsada por IA, como rayos X y tomografías computarizadas.

Source link

ChatGPT: las promesas, los peligros y el pánico

Es muy posible que el lanzamiento en noviembre de ChatGPT por parte de la empresa californiana OpenAI sea recordado como un punto de inflexión en la introducción de una nueva ola de inteligencia artificial al público en general. El entusiasmo en torno a ChatGPT, un chatbot de IA fácil de usar que puede entregar un ensayo o un código de computadora a pedido y en cuestión de segundos, ha provocado el pánico en las escuelas y ha puesto a las grandes tecnológicas verdes de envidia. El impacto potencial de ChatGPT en la sociedad sigue siendo complicado y poco claro incluso cuando su creador anunció el miércoles una versión de suscripción paga en los Estados Unidos. He aquí un vistazo más de cerca a lo que es (y no es) ChatGPT: ¿Es este un punto de inflexión? Es muy posible que el lanzamiento en noviembre de ChatGPT por parte de la empresa californiana OpenAI sea recordado como un punto de inflexión en la introducción de una nueva ola de inteligencia artificial al público en general. Lo que está menos claro es si ChatGPT es realmente un gran avance y algunos críticos lo califican como un brillante movimiento de relaciones públicas que ayudó a OpenAI a obtener miles de millones de dólares en inversiones de Microsoft. Yann LeCun, científico jefe de IA en Meta y profesor de la Universidad de Nueva York, cree que “ChatGPT no es un avance científico particularmente interesante” y califica la aplicación como una “demostración llamativa” creada por ingenieros talentosos. LeCun, en declaraciones al Big Technology Podcast, dijo que ChatGPT carece de “cualquier modelo interno del mundo” y simplemente está batiendo “una palabra tras otra” basándose en entradas y patrones encontrados en Internet. «Cuando se trabaja con estos modelos de IA, hay que recordar que son máquinas tragamonedas, no calculadoras», advirtió Haomiao Huang de Kleiner Perkins, la firma de capital de riesgo de Silicon Valley. «Cada vez que haces una pregunta y tiras del brazo, obtienes una respuesta que podría ser maravillosa… o no… Los fallos pueden ser extremadamente impredecibles», escribió Huang en Ars Technica, el sitio web de noticias tecnológicas. Al igual que Google ChatGPT, funciona con un modelo de lenguaje de inteligencia artificial que tiene casi tres años (GPT-3 de OpenAI) y el chatbot solo utiliza una parte de su capacidad. La verdadera revolución es el chat humanoide, afirmó Jason Davis, profesor de investigación en la Universidad de Syracuse. “Es familiar, es conversacional y ¿adivinen qué? Es como realizar una solicitud de búsqueda en Google”, dijo. El éxito de ChatGPT, similar a una estrella de rock, incluso sorprendió a sus creadores en OpenAI, que recibió miles de millones en nueva financiación de Microsoft en enero. «Dada la magnitud del impacto económico que esperamos aquí, más gradual es mejor», dijo el director ejecutivo de OpenAI, Sam Altman, en una entrevista para el boletín StrictlyVC. «Lanzamos GPT-3 hace casi tres años… así que sentí que la actualización incremental de ChatGPT debería haber sido predecible y quiero hacer más introspección sobre por qué estaba mal calibrado en eso», dijo. El riesgo, añadió Altman, estaba sorprendiendo al público y a los responsables políticos y el martes su compañía dio a conocer una herramienta para detectar texto generado por IA en medio de la preocupación de los profesores de que los estudiantes puedan depender de la inteligencia artificial para hacer sus tareas. ¿Ahora que? Desde abogados hasta redactores de discursos, desde codificadores hasta periodistas, todos esperan ansiosamente sentir la disrupción causada por ChatGPT. OpenAI acaba de lanzar una versión paga del chatbot: $20 por mes para un servicio mejorado y más rápido. Por ahora, oficialmente, la primera aplicación importante de la tecnología OpenAI será para los productos de software de Microsoft. Aunque los detalles son escasos, la mayoría supone que capacidades similares a ChatGPT aparecerán en el motor de búsqueda Bing y en la suite Office. “Piense en Microsoft Word. No tengo que escribir un ensayo o un artículo, sólo tengo que decirle a Microsoft Word lo que quería escribir con una indicación”, dijo Davis. Él cree que los influencers en TikTok y Twitter serán los primeros en adoptar esta llamada IA ​​generativa, ya que volverse viral requiere enormes cantidades de contenido y ChatGPT puede encargarse de eso en poco tiempo. Por supuesto, esto plantea el espectro de la desinformación y el spam a escala industrial. Por ahora, Davis dijo que el alcance de ChatGPT está muy limitado por la potencia informática, pero una vez que se incremente, las oportunidades y los peligros potenciales crecerán exponencialmente. Y al igual que la siempre inminente llegada de los coches autónomos, que nunca llega a producirse, los expertos no están de acuerdo sobre si es cuestión de meses o años. Ridicule LeCun dijo que Meta y Google se han abstenido de lanzar una IA tan potente como ChatGPT por miedo al ridículo y a las reacciones negativas. Lanzamientos más silenciosos de bots basados ​​en lenguaje, como Blenderbot de Meta o Tay de Microsoft, por ejemplo, rápidamente demostraron ser capaces de generar contenido racista o inapropiado. Los gigantes tecnológicos tienen que pensar mucho antes de lanzar algo “que va a decir tonterías” y decepcionar, afirmó. © Agencia France-Presse

Source link

Luchando contra la evolución del panorama de amenazas

IA y ciberseguridad: luchando contra el cambiante panorama de amenazas En el mundo interconectado de hoy, la ciberseguridad se ha convertido en una preocupación crítica para individuos, empresas y gobiernos por igual. La sofisticación cada vez mayor de las amenazas cibernéticas plantea desafíos importantes a las medidas de seguridad tradicionales. A medida que las organizaciones luchan por seguir el ritmo de la evolución de las técnicas de ataque, recurren a un poderoso aliado: la inteligencia artificial (IA). La IA ha surgido como un punto de inflexión en el ámbito de la ciberseguridad, al ofrecer nuevas formas de detectar, prevenir y mitigar las ciberamenazas. En este artículo, profundizaremos en la intersección de la IA y la ciberseguridad y exploraremos cómo este dúo dinámico está remodelando la batalla contra el panorama de amenazas en evolución. El auge de la IA en la ciberseguridad El campo de la IA ha sido testigo de enormes avances en los últimos años y su aplicación en la ciberseguridad está revolucionando la forma en que abordamos la defensa digital. Los sistemas de seguridad tradicionales, a menudo basados ​​en enfoques basados ​​en reglas o firmas, han demostrado ser inadecuados contra amenazas cibernéticas sofisticadas y en rápida evolución. La IA aporta un nuevo nivel de inteligencia y adaptabilidad, permitiendo que los sistemas de seguridad aprendan de grandes cantidades de datos, identifiquen patrones y tomen decisiones informadas en tiempo real. Una de las áreas clave en las que la IA ha logrado avances significativos es en la detección de amenazas. Los sistemas impulsados ​​por IA pueden analizar volúmenes masivos de datos, como el tráfico de red, el comportamiento del usuario y los registros del sistema, para detectar anomalías y posibles violaciones de seguridad. Al aprovechar los algoritmos de aprendizaje automático, estos sistemas pueden perfeccionar continuamente sus modelos y adaptarse a nuevos vectores de ataque, manteniéndose un paso por delante de los ciberdelincuentes. Mejora de la detección y prevención de intrusiones Los sistemas de detección y prevención de intrusiones (IDPS) desempeñan un papel crucial en la protección de las redes contra accesos no autorizados y actividades maliciosas. Con la IA, los desplazados internos pueden volverse más inteligentes y eficaces a la hora de identificar y responder a las amenazas. Al aprovechar los algoritmos de IA, estos sistemas pueden analizar el tráfico de la red en tiempo real, identificar patrones sospechosos y bloquear o señalar amenazas potenciales antes de que puedan causar daño. Los algoritmos de aprendizaje automático también se pueden entrenar para reconocer firmas y comportamientos de ataques conocidos, lo que permite al sistema defenderse proactivamente contra ataques que se han observado previamente. Además, la IA puede aprender de datos históricos para identificar patrones de ataque nuevos y desconocidos, que las medidas de seguridad tradicionales a menudo pasan desapercibidas. Esta capacidad de detectar ataques de día cero y amenazas nunca antes vistas es invaluable en un panorama de amenazas en constante evolución. Los IDPS impulsados ​​por IA también pueden automatizar la respuesta a incidentes, lo que permite una mitigación más rápida y eficiente de las amenazas cibernéticas. Al emplear el aprendizaje automático para analizar y clasificar incidentes de seguridad, las organizaciones pueden reducir la carga de los analistas humanos y responder a las amenazas en tiempo real, minimizando así el impacto de posibles infracciones. Combatir las amenazas persistentes avanzadas (APT) Las amenazas persistentes avanzadas (APT) plantean un desafío importante para las organizaciones de todo el mundo. Los APT son ataques muy sofisticados y sigilosos que a menudo los llevan a cabo adversarios bien financiados con objetivos específicos en mente. Estos ataques pueden pasar desapercibidos durante largos períodos y causar daños sustanciales antes de ser descubiertos. La IA ofrece un arma poderosa en la lucha contra las APT. Al analizar grandes cantidades de datos, los sistemas impulsados ​​por IA pueden identificar anomalías sutiles e indicadores de compromiso que pueden ser indicativos de un ataque APT en curso. Los algoritmos de aprendizaje automático pueden detectar patrones en el tráfico de la red, el comportamiento del usuario y los registros del sistema, identificando desviaciones del comportamiento normal que pueden indicar una presencia de APT. Además, la IA puede ayudar a correlacionar datos de múltiples fuentes y detectar secuencias de ataques complejas que pueden abarcar diferentes sistemas o períodos de tiempo. Al conectar los puntos e identificar el panorama más amplio, los sistemas impulsados ​​por IA pueden proporcionar información valiosa a los equipos de seguridad, permitiéndoles responder con rapidez y eficacia a los ataques APT. Abordar las amenazas internas Las amenazas internas, ya sean intencionales o no, pueden tener consecuencias devastadoras para las organizaciones. Los empleados con acceso privilegiado pueden comprometer datos, sistemas o redes de forma inadvertida o maliciosa. Identificar y mitigar las amenazas internas requiere un enfoque proactivo e inteligente. La IA puede ayudar a abordar las amenazas internas analizando el comportamiento de los usuarios y detectando anomalías que pueden indicar intenciones maliciosas o cuentas comprometidas. Al monitorear actividades como el acceso a datos, las transferencias de archivos y los inicios de sesión en el sistema, los sistemas impulsados ​​por IA pueden establecer patrones de comportamiento básicos para las personas y generar alertas cuando se producen desviaciones. Este enfoque proactivo ayuda a las organizaciones a identificar posibles amenazas internas y tomar medidas adecuadas para evitar filtraciones de datos u otras actividades maliciosas. Desafíos y limitaciones Si bien la unión de la IA y la ciberseguridad es muy prometedora, no está exenta de desafíos. Una preocupación importante es la posibilidad de que se produzcan ataques adversarios a los propios sistemas de inteligencia artificial. Los adversarios pueden intentar manipular o engañar a los algoritmos de IA, lo que genera falsos positivos o negativos, socavando así la eficacia de las medidas de seguridad. Los investigadores y profesionales están trabajando activamente en el desarrollo de sistemas de IA robustos y resilientes que puedan resistir este tipo de ataques y mantener la integridad de las defensas de ciberseguridad. La privacidad es otra consideración crítica al implementar soluciones de seguridad basadas en IA. El análisis de grandes cantidades de datos para identificar amenazas puede generar preocupaciones sobre la privacidad, ya que puede implicar la recopilación y el análisis de información personal o confidencial. Lograr el equilibrio adecuado entre seguridad y privacidad es una tarea delicada que requiere un diseño e implementación cuidadosos de los sistemas de IA. Además, la dependencia de la IA en la ciberseguridad no debería eclipsar la importancia de la experiencia humana. Si bien la IA puede automatizar ciertas tareas y mejorar las capacidades de detección, los analistas humanos desempeñan un papel vital en la interpretación de los resultados, la toma de decisiones informadas y la respuesta a amenazas complejas. La colaboración entre los sistemas de IA y los analistas humanos es clave para lograr una defensa eficaz de la ciberseguridad. De cara al futuro A medida que las ciberamenazas sigan evolucionando en sofisticación y escala, la adopción de la IA en la ciberseguridad será cada vez más crucial. La IA tiene el potencial de transformar la forma en que nos defendemos contra los ciberataques, proporcionando soluciones de seguridad inteligentes y adaptables que pueden seguir el ritmo del panorama de amenazas que cambia rápidamente. Al aprovechar las capacidades de la IA en detección de amenazas, prevención de intrusiones, mitigación de APT y detección de amenazas internas, las organizaciones pueden mejorar sus defensas de ciberseguridad y reducir el riesgo de filtraciones de datos y otros incidentes cibernéticos. Sin embargo, es fundamental abordar con cautela la integración de la IA en la ciberseguridad. Deben existir salvaguardias y consideraciones éticas adecuadas para garantizar el uso responsable y seguro de las tecnologías de IA. La investigación continua, la colaboración y el intercambio de conocimientos entre las comunidades de ciberseguridad y de IA serán esenciales para adelantarse a los ciberdelincuentes y mantener defensas sólidas. En conclusión, la asociación entre la IA y la ciberseguridad tiene un inmenso potencial en la batalla en curso contra las ciberamenazas. Al aprovechar el poder de la IA para detectar, prevenir y mitigar ataques, las organizaciones pueden reforzar su postura de seguridad y salvaguardar sus activos digitales. A medida que la tecnología continúa evolucionando, también deben hacerlo nuestras defensas. Con la IA como nuestra aliada, podemos afrontar el panorama de amenazas en constante cambio con confianza y resiliencia.

Source link

¿Qué es el aprendizaje automático y cómo implementarlo en la IA?

Comparte en tu plataforma favorita El aprendizaje automático (ML), es un subcampo de la inteligencia artificial. Enfocándose en el desarrollo de algoritmos y modelos estadísticos. Estos módulos permiten a las computadoras aprender de los datos, sin estar programados explícitamente. Es una herramienta poderosa para dar sentido a grandes cantidades de datos y ya ha cambiado el mundo de muchas maneras, desde vehículos autónomos y reconocimiento de voz hasta detección de fraude y recomendaciones personalizadas. En esencia, el aprendizaje automático consiste en encontrar patrones en los datos. El objetivo es identificar relaciones entre diferentes características de los datos y utilizar estas relaciones para hacer predicciones o decisiones. Para ello, los algoritmos de aprendizaje automático utilizan modelos matemáticos y métodos estadísticos para analizar los datos e identificar los patrones subyacentes. Hay tres tipos principales de aprendizaje automático: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. Aprendizaje supervisado El aprendizaje supervisado es el tipo más común de aprendizaje automático e implica el uso de datos etiquetados para entrenar el algoritmo. En el aprendizaje supervisado, el algoritmo recibe un conjunto de entradas (características) y salidas (etiquetas) e intenta aprender la relación entre ellas. Una vez que el algoritmo ha aprendido esta relación, puede utilizarla para hacer predicciones sobre datos nuevos e invisibles. Por ejemplo, un algoritmo de aprendizaje supervisado podría entrenarse en un conjunto de datos de imágenes de dígitos escritos a mano, junto con sus etiquetas correspondientes (el dígito que está escrito en la imagen). Una vez entrenado, el algoritmo se puede utilizar para reconocer nuevos dígitos escritos a mano. Aprendizaje no supervisado El aprendizaje no supervisado, por otro lado, implica el uso de datos sin etiquetar para encontrar patrones en los datos. En el aprendizaje no supervisado, el algoritmo intenta identificar la estructura de los datos sin ninguna guía o supervisión. Por ejemplo, se podría utilizar un algoritmo de aprendizaje no supervisado para agrupar imágenes similares, incluso si el algoritmo no sabe qué representan las imágenes. El aprendizaje por refuerzo es un tipo de ML que implica entrenar algoritmos para tomar decisiones en un entorno. En el aprendizaje por refuerzo, el algoritmo recibe recompensas o penalizaciones por sus acciones e intenta maximizar sus recompensas a lo largo del tiempo. El aprendizaje por refuerzo se utiliza a menudo en robótica y sistemas de control, donde el algoritmo debe controlar un sistema físico para lograr un objetivo determinado. Independientemente del tipo de aprendizaje automático, el proceso de entrenamiento de un algoritmo de aprendizaje automático se puede dividir en varios pasos: Recopilación y preprocesamiento de datos: el primer paso en el entrenamiento de un algoritmo de aprendizaje automático es recopilar y preparar los datos. Por lo general, esto implica recopilar datos de varias fuentes, limpiarlos y preprocesarlos, y dividirlos en conjuntos de entrenamiento y prueba. Ingeniería de características: una vez que los datos han sido preprocesados, el siguiente paso es seleccionar y transformar las características (entradas) que utilizará el algoritmo. Este paso a menudo se denomina ingeniería de características e implica seleccionar las características más importantes y transformarlas de manera que mejoren el rendimiento del algoritmo. Selección del modelo: una vez seleccionadas y transformadas las características, el siguiente paso es elegir el tipo correcto de algoritmo de aprendizaje automático a utilizar. Hay muchos algoritmos diferentes para elegir, cada uno con sus propias fortalezas y debilidades. Algunos de los algoritmos más utilizados incluyen la regresión lineal, los árboles de decisión y las redes neuronales. Entrenamiento: una vez seleccionado el modelo, el siguiente paso es entrenar el algoritmo con los datos. Durante el entrenamiento, el algoritmo actualiza sus parámetros para minimizar el error entre sus predicciones y los resultados reales. El objetivo es encontrar los parámetros que resulten en el mejor rendimiento de los datos de entrenamiento. Evaluación: una vez entrenado el algoritmo, el siguiente paso es evaluar su rendimiento. Por lo general, esto implica hacer predicciones en un conjunto de pruebas separado y comparar las predicciones con los resultados reales. La precisión de las predicciones se utiliza para medir el rendimiento del algoritmo. Ajuste de hiperparámetros: después de la evaluación inicial, el siguiente paso es ajustar el rendimiento del algoritmo ajustando sus hiperparámetros. Los hiperparámetros son los parámetros que no se aprenden de los datos, sino que los establece el usuario. Ejemplos de hiperparámetros incluyen la tasa de aprendizaje en el descenso de gradiente, la cantidad de nodos ocultos en una red neuronal o la profundidad de un árbol de decisión. El objetivo del ajuste de hiperparámetros es encontrar los valores óptimos de los hiperparámetros que resulten en el mejor rendimiento de los datos de prueba. Implementación: una vez que el algoritmo ha sido entrenado y evaluado, está listo para implementarse en un escenario del mundo real. En muchos casos, esto implica integrar el algoritmo en un sistema más grande, como un sitio web, una aplicación móvil o un proceso de fabricación. El aprendizaje automático es la fuerza impulsora de muchas aplicaciones, el famoso ChatGPT se basa en el aprendizaje automático. En conclusión, el aprendizaje automático es una herramienta poderosa que se puede utilizar para encontrar patrones en los datos y hacer predicciones o decisiones basadas en esos patrones. El proceso de entrenamiento de un algoritmo de aprendizaje automático implica recopilar y preprocesar datos, seleccionar y transformar características, elegir un modelo, entrenar el modelo, evaluar su desempeño y ajustar su desempeño ajustando sus hiperparámetros. Con los datos, las funciones y los algoritmos adecuados, el aprendizaje automático tiene el potencial de revolucionar muchas industrias y cambiar la forma en que vivimos nuestras vidas. Relacionado Comparte en tu plataforma favorita

Source link

Cómo utilizar la gobernanza de datos para sistemas de IA/ML

La gobernanza de datos juega un papel fundamental para garantizar que los datos estén disponibles, sean consistentes, utilizables, confiables y seguros. Hay muchos desafíos que enfrentar para mantener la gobernanza de datos, y la apuesta ha subido para sistemas como la inteligencia artificial y el aprendizaje automático. Los sistemas AI/ML funcionan de manera diferente a los sistemas tradicionales de registros fijos. El objetivo no es devolver un valor o un estado para una sola transacción. Más bien, un sistema de IA/ML examina petabytes de datos en busca de respuestas a consultas que pueden ser vastas y multifacéticas. Además, los datos pueden provenir de muchas fuentes internas y externas diferentes, cada una con su propia forma de recopilar, curar y almacenar datos, que pueden ajustarse o no a los estándares de gobernanza de su organización. Luego, es cuestión de asegurarse de que los sistemas de IA/ML estén capacitados con datos confiables para garantizar la precisión. Estas son solo algunas de las preocupaciones que enfrentan las empresas y sus auditores mientras se centran en la gobernanza de datos para AI/ML y buscan herramientas que puedan ayudarlos. Saltar a: ¿Por qué es necesaria la gobernanza de datos para los sistemas de IA/ML? Según el Índice global de adopción de IA de IBM 2022, la tasa de adopción global de IA es del 35% y es omnipresente en algunas industrias y países de todo el mundo. Esta rápida adopción de sistemas de IA y ML para impulsar la innovación y la toma de decisiones hace que la integridad y la gestión de los datos subyacentes sean primordiales. VER: Obtenga más información sobre la gobernanza de datos. En comparación con los sistemas informáticos tradicionales, los sistemas de IA y ML tienen más matices, lo que subraya la importancia de la gobernanza de datos. Hay dos razones principales por las que es necesario un marco de gobernanza de datos sólido para los sistemas AI/ML: Estructura dinámica: en comparación con los sistemas de datos tradicionales, los sistemas AI/ML son dinámicos: evolucionan constantemente y aprenden de datos estructurados y no estructurados. Volumen y variedad de datos: la eficacia de un sistema de IA/ML es directamente proporcional al volumen y la variedad de los conjuntos de datos con los que entrena y de los que aprende. Debido a estos factores, sin una gobernanza estricta, los sistemas de IA/ML pueden producir resultados inconsistentes, inexactos e incluso sesgados. ¿Cómo funciona la gobernanza de datos con los sistemas de IA/ML? Los sistemas AI/ML están diseñados para manejar grandes cantidades de datos de forma simultánea y asincrónica. Esto significa que se introducen múltiples subprocesos de datos en el procesador al mismo tiempo, lo que permite un procesamiento de datos más rápido y eficiente. Sin embargo, esto también introduce complejidades. El objetivo principal de un sistema de IA/ML es buscar en conjuntos de datos masivos para encontrar respuestas, que van desde predecir tendencias futuras basadas en datos históricos hasta identificar patrones en datos de comercio electrónico. Si los datos de una fuente están corruptos o sesgados, pueden influir en el resultado general, haciendo que los resultados no sean fiables. Por lo tanto, es de vital importancia incorporar una gobernanza de datos rigurosa en el proceso para garantizar que cada hilo de datos sea preciso, relevante y esté libre de sesgos. El papel de TI en la aceleración del procesamiento de datos Los departamentos de TI desempeñan un papel fundamental en el proceso de gobernanza de datos de IA/ML. Al preprocesar y eliminar datos irrelevantes o redundantes, pueden acelerar significativamente los tiempos de procesamiento de datos para los sistemas AI/ML. Esto garantiza que los modelos AI/ML se ejecuten de manera eficiente y funcionen con los datos más relevantes y de alta calidad. VER: Explore estas principales herramientas de preparación de datos. Además, los equipos de TI pueden implementar herramientas y protocolos para automatizar muchas tareas de gobernanza, como la validación de datos, garantizar la coherencia entre fuentes de datos y monitorear posibles violaciones de seguridad. Desafíos en la implementación de la gobernanza de datos para sistemas AI/ML La integración y gestión de datos para sistemas AI/ML plantean varios desafíos de gobernanza de datos que las organizaciones deben afrontar. Cobertura de big data de lectura obligada Integración de datos de varias fuentes Cuando las organizaciones recopilan datos de múltiples fuentes, cada una con sus propios estándares de gobernanza, garantizar la coherencia se convierte en un obstáculo importante. Esta diversidad puede dar lugar a discrepancias, redundancias e imprecisiones en los datos. Los datos deben armonizarse para proporcionar una visión integral que sea esencial para la eficacia. Integrar los datos en un formato unificado es un proceso complejo que implica limpieza, transformación y normalización. Para evitar modelos defectuosos, es fundamental garantizar que los vastos conjuntos de datos utilizados por los sistemas de IA/ML sean precisos y relevantes. Recomendaciones confiables Los datos de entrenamiento de algunos modelos de IA/ML son secretos, lo que dificulta que las organizaciones confíen y comprendan plenamente las recomendaciones proporcionadas por estos sistemas. Sin una idea de cómo se toman las decisiones, existe el riesgo de una mala interpretación o uso indebido. Por ejemplo, los modelos de IA/ML a veces reflejan o amplifican sesgos en los datos. Según un estudio de Obermeyer et al, un algoritmo que utilizó los costos de salud como indicador de las necesidades de salud, asignó a los pacientes negros, que estaban más enfermos que otros pacientes blancos, el mismo nivel de riesgo para la salud. Saber qué datos de entrenamiento se utilizan para el modelo y que se practica una gobernanza de datos rigurosa puede ayudar a identificar y rectificar estos sesgos, garantizando la equidad en los resultados del modelo. Mantener la calidad de los datos Dado que los sistemas de IA/ML dependen en gran medida de datos de alta calidad, es fundamental garantizar que los datos estén limpios, sean precisos y estén actualizados. La mala calidad de los datos puede dar lugar a predicciones y conocimientos erróneos del modelo. Por ejemplo, la mala calidad de los datos puede provocar sesgos en las predicciones. Un modelo de contratación discontinuo de Amazon es otro gran ejemplo en el que un ML formado con currículums de una década en 2014 desarrolló un sesgo contra las candidatas. La implementación de una gobernanza de datos para los sistemas de IA/ML garantiza que los datos utilizados sean siempre de la más alta calidad, lo que puede ayudar a eliminar cualquier sesgo o imprecisión. Seguridad y privacidad de los datos El manejo de grandes volúmenes de datos procesados ​​requiere una vigilancia constante para proteger la información confidencial y cumplir con las regulaciones. Grandes volúmenes de datos conllevan un mayor riesgo de seguridad y cumplimiento que exige el cumplimiento de muchas leyes diferentes de privacidad y protección de datos que trascienden fronteras. VER: Explore estas herramientas de calidad de datos superiores. Las fallas en la seguridad de los datos pueden tener consecuencias nefastas, como acceso no autorizado, manipulación de datos y violaciones. También puede socavar la confianza en el sistema de IA y tener consecuencias legales que dañen la reputación de una empresa y provoquen pérdidas financieras por disminución de las ventas o multas regulatorias. Una política de gobernanza de datos garantiza de manera proactiva que la seguridad de los datos cumpla con las regulaciones de protección de datos, emplea métodos de encriptación y monitorea el acceso a los datos periódicamente a través de auditorías. Cómo utilizar la gobernanza de datos para sistemas AI/ML El futuro de la gobernanza de datos en AI/ML no se trata solo de administrar datos sino también garantizar que se aproveche de manera responsable y eficaz. A medida que evoluciona el panorama de la IA/ML, también lo hace la importancia de una gobernanza de datos sólida. Las organizaciones deben ser proactivas, adaptables y estar equipadas con las herramientas adecuadas para navegar en este terreno. Asegúrese de que los datos sean consistentes y precisos Al integrar datos de sistemas transaccionales internos y externos, los datos deben estar estandarizados, para que puedan comunicarse y combinarse con datos de otras fuentes. Las interfaces de programación de aplicaciones que están prediseñadas en muchos sistemas facilitan esto, de modo que pueden intercambiar datos con otros sistemas. Si no hay API disponibles, las empresas pueden utilizar herramientas ETL, que transfieren datos de un sistema a un formato que otro sistema puede leer. Al agregar datos no estructurados, como objetos fotográficos, de video y de sonido, existen herramientas de vinculación de objetos que pueden vincular y relacionar estos objetos entre sí. Un buen ejemplo de enlazador de objetos es un sistema de información geográfica, que combina fotografías, esquemas y otros tipos de datos para ofrecer un contexto geográfico completo para un entorno particular. Confirmar que los datos son utilizables A menudo pensamos que los datos utilizables son datos a los que los usuarios pueden acceder, pero es más que eso. Si los datos han perdido su valor porque están obsoletos, deben eliminarse. Dicho esto, los usuarios empresariales y de TI deben ponerse de acuerdo sobre cuándo se deben eliminar los datos. Esto vendrá en forma de políticas de retención de datos. PREMIUM: Benefíciate de esta política de retención de datos electrónicos. Hay otras ocasiones en las que se deben eliminar los datos de IA/ML. Esto sucede cuando se cambia un modelo de datos para IA y los datos ya no se ajustan al modelo. En una auditoría de gobernanza de IA/ML, los examinadores esperarán ver políticas y procedimientos escritos para ambos tipos de depuración de datos. También verificarán que las prácticas de eliminación de datos cumplan con los estándares de la industria. Para mantenerse al día con estos estándares y prácticas, las empresas deberían considerar invertir en herramientas y utilidades de eliminación de datos. Asegúrese de que los datos sean confiables. Las circunstancias cambian. Un sistema de IA/ML que alguna vez funcionó de manera bastante eficiente puede comenzar a perder efectividad. Esto se conoce como deriva del modelo. Esto se puede confirmar comparando periódicamente los resultados de AI/ML con el rendimiento pasado y con lo que está sucediendo en el mundo. Si la precisión del sistema AI/ML se aleja de los datos actuales, es esencial solucionarlo. PREMIUM: asegúrese de que su empresa esté equipada con una política de ética de IA. Existen herramientas de IA/ML que los científicos de datos utilizan para medir la desviación del modelo, pero la forma más directa para que los profesionales de negocios verifiquen la desviación es comparar el rendimiento del sistema de IA/ML con el rendimiento histórico. Para abordar los desafíos de implementar la gobernanza de datos en sistemas de IA/ML, las organizaciones pueden invertir en herramientas de gobernanza de datos. Estas son algunas de las principales herramientas: Collibra: una plataforma holística de gobierno de datos adecuada para la gestión y el gobierno integrales de datos. Informatica: Reconocida por la integración de datos, es ideal para integrar datos de múltiples fuentes. Alation: Automatiza el descubrimiento y la catalogación de datos mediante el aprendizaje automático. Erwin: proporciona capacidades de modelado de datos, lo que ayuda a las empresas a comprender su panorama de datos. OneTrust: enfatiza el cumplimiento de datos, ayudando a las empresas a cumplir con las regulaciones. SAP Master Data Governance: ofrece procesamiento y gobierno de datos sólidos para empresas. Para obtener un análisis más detallado de las herramientas de gobernanza de datos y cómo pueden beneficiar a su organización, lea nuestra revisión de las principales herramientas de gobernanza de datos de 2023.

Source link

Página 17 de 17

Funciona con WordPress & Tema de Anders Norén