Todo lo que necesitas saber sobre tecnología

Etiqueta: inteligencia artificial Página 1 de 14

A pesar de las protestas, Elon Musk asegura el permiso de aire para Xai

A pesar de las protestas, Elon Musk asegura el permiso de aire para Xai

Un departamento de salud local en Memphis le ha otorgado al Centro de datos XAI de Elon Musk un permiso aéreo para continuar operando las turbinas de gas que alimentan al chatbot de la compañía. El permiso se produce en medio de la oposición comunitaria generalizada y una demanda inminente que alega que la compañía violó la Ley de Aire Limpio. El Departamento de Salud del Condado de Shelby lanzó su permiso aéreo para el Proyecto XAI el miércoles, después de recibir cientos de comentarios públicos. La noticia fue informada por primera vez por el Daily Memphian. En junio, la Cámara de Comercio de Memphis anunció que Xai había elegido un sitio en Memphis para construir su nueva supercomputadora. El sitio web de la compañía se jacta de que pudo construir la supercomputadora, Coloso, en solo 122 días. Esa velocidad se debió en parte a las turbinas de gas móviles que la compañía comenzó rápidamente a instalar en el campus, el sitio de una antigua instalación de fabricación. El colegio le permitió a Xai alcanzar rápidamente a los rivales OpenAi, Google y Anthrope en la construcción de la inteligencia artificial de vanguardia. Fue construido con 100,000 GPU NVIDIA H100, lo que lo convierte en la supercomputadora más grande del mundo. El campus de Memphis de XAI se encuentra en una comunidad predominantemente negra conocida como BoxTown que ha sido históricamente cargada de proyectos industriales que causan contaminación. Las turbinas de gas como las que XAI está usando en Memphis puede ser una fuente significativa de emisiones dañinas, como los óxidos de nitrógeno, que crean smog. Memphis ya tiene algunas de las tasas de asma infantil más altas en Tennessee. Desde que Xai comenzó a ejecutar sus turbinas, los residentes se han reunido y reunido repetidamente contra el proyecto. «Estoy horrorizado pero no sorprendido», dice Keshaun Pearson, líder de la comunidad de Memphis contra la contaminación. «La violación flagrante de la Ley de Aire Limpio y el desprecio por nuestro derecho humano a la limpieza del aire, por la quema de turbinas de metano ilegales de Xai, ha sido estampado como permisible por el Departamento de Salud del Condado de Shelby. Más de 1,000 personas presentadas comentarios públicos que exigen protección y se aprobaron por el experimento de un multimillonario que se conoce». Bajo la Ley de Air Limpio, las fuentes de emisiones de las emisiones, como un grupo de gases de gases de multimillonario. Una prevención de un permiso de deterioro significativo (PSD). Sin embargo, los funcionarios del Departamento de Salud del Condado de Shelby dijeron a los periodistas locales en agosto que esto no era necesario para Xai ya que sus turbinas no estaban diseñadas para ser permanentes. En medio de la creciente oposición local, Xai finalmente solicitó un permiso ante el Departamento de Salud del Condado de Shelby en enero, meses después de que comenzó a ejecutar las turbinas. El abogado de SELC, Patrick Anderson, en un comunicado de prensa. «Durante el último año, estas turbinas han bombeado la contaminación que amenaza la salud de las familias de Memphis. Este aviso allana el camino para una demanda que puede responsabilizar a Xai por su negativa ilegal a obtener permisos para sus turbinas de gas».

¿Qué es GPT-4 y de qué es capaz?

¿Qué es GPT-4 y de qué es capaz?

Imagen: LALAKA/Adobe Stock GPT-4 es un sistema modelo de lenguaje de gran tamaño con inteligencia artificial que puede imitar el habla y el razonamiento humanos. Para ello, se capacita en una vasta biblioteca de comunicación humana existente, desde obras literarias clásicas hasta grandes extensiones de Internet. La inteligencia artificial de este tipo se basa en su entrenamiento para predecir qué letra, número u otro carácter es probable que aparezca en secuencia. Esta hoja de trucos explora GPT-4 desde un alto nivel: cómo acceder a GPT-4 para uso comercial o de consumo, quién lo creó y cómo funciona. ¿Qué es GPT-4? GPT-4 es un modelo multimodal de gran tamaño que puede imitar prosa, arte, video o audio producido por un humano. GPT-4 es capaz de resolver problemas escritos o generar texto o imágenes originales. GPT-4 es la cuarta generación del modelo básico de OpenAI. La API GPT-4, así como las API GPT-3.5 Turbo, DALL·E y Whisper ya están disponibles de forma general a partir del 7 de julio de 2023. El 6 de noviembre de 2023, OpenAI anunció la próxima generación de GPT-4. , GPT-4 Turbo. ¿Quién es el propietario de GPT-4? GPT-4 es propiedad de OpenAI, una empresa independiente de inteligencia artificial con sede en San Francisco. OpenAI se fundó en 2015; Comenzó como una organización sin fines de lucro, pero desde entonces pasó a un modelo con fines de lucro. OpenAI ha recibido financiación de Elon Musk, Microsoft, Amazon Web Services, Infosys y otros patrocinadores corporativos e individuales. OpenAI también ha producido ChatGPT, un chatbot de uso gratuito derivado del modelo de la generación anterior, GPT-3.5, y DALL-E, un modelo de aprendizaje profundo generador de imágenes. A medida que la tecnología mejora y crece en sus capacidades, OpenAI revela cada vez menos sobre cómo se entrenan sus soluciones de IA. ¿Cuándo se lanzó GPT-4? OpenAI anunció el lanzamiento de GPT-4 el 14 de marzo de 2023. GPT-4 estuvo disponible de inmediato para los suscriptores de ChatGPT Plus, mientras que otros usuarios interesados ​​tuvieron que unirse a una lista de espera para acceder. VER: Salesforce incorporó IA generativa a sus productos de ventas y servicios de campo. (TechRepublic) ¿Cómo se puede acceder a GPT-4? La versión pública de GPT-4 está disponible en el sitio del portal ChatGPT. El 7 de julio de 2023, OpenAI puso la API GPT-4 a disposición para uso general de «todos los desarrolladores de API existentes con un historial de pagos exitosos». OpenAI también espera abrir el acceso a nuevos desarrolladores a finales de julio de 2023. Los límites de velocidad pueden aumentar después de ese período dependiendo de la cantidad de recursos informáticos disponibles. En agosto de 2023, GPT-4 se incluyó como parte de ChatGPT Enterprise. Los usuarios de la suscripción empresarial reciben el uso ilimitado de una tubería de alta velocidad a GPT-4. ¿Cuánto cuesta usar GPT-4? Para un individuo, el uso de la suscripción ChatGPT Plus cuesta $20 por mes. El precio de la API GPT-4 de solo texto comienza en $ 0,03 por 1.000 tokens de solicitud (un token equivale aproximadamente a cuatro caracteres en inglés) y $ 0.06 por 1.000 tokens de finalización (salida), dijo OpenAI. (OpenAI explica más sobre cómo se cuentan los tokens aquí). VER: Política de ética de la inteligencia artificial (TechRepublic Premium) También está disponible una segunda opción con mayor longitud de contexto (alrededor de 50 páginas de texto) conocida como gpt-4-32k. Esta opción cuesta $0,06 por cada 1.000 tokens de aviso y $0,12 por cada 1.000 tokens de finalización. Otros servicios de asistencia de IA como Microsoft Copilot y Copilot X de GitHub ahora se ejecutan en GPT-4. Más cobertura de IA de lectura obligada ¿Cuáles son las capacidades de GPT-4? Al igual que su predecesor, GPT-3.5, el principal reclamo de fama de GPT-4 es su respuesta a preguntas en lenguaje natural y otras indicaciones. OpenAI dice que GPT-4 puede «seguir instrucciones complejas en lenguaje natural y resolver problemas difíciles con precisión». En concreto, GPT-4 puede resolver problemas matemáticos, responder preguntas, hacer inferencias o contar historias. Además, GPT-4 puede resumir grandes cantidades de contenido, lo que podría resultar útil para referencias de consumidores o casos de uso empresarial, como una enfermera que resume los resultados de su visita a un cliente. OpenAI probó la capacidad de GPT-4 para repetir información en un orden coherente utilizando varias evaluaciones de habilidades, incluidos los exámenes AP y Olympiad y el examen uniforme de la barra. Obtuvo una puntuación en el percentil 90 en el examen de la abogacía y en el percentil 93 en el examen de lectura y escritura basado en evidencia SAT. GPT-4 obtuvo puntuaciones variables en los exámenes AP. Estas no son verdaderas pruebas de conocimiento; en cambio, ejecutar GPT-4 a través de pruebas estandarizadas muestra la capacidad del modelo para formar respuestas que suenen correctas a partir de la masa de escritura y arte preexistentes en los que fue entrenado. GPT-4 predice qué token probablemente será el siguiente en una secuencia. (Un token puede ser una sección de una cadena de números, letras, espacios u otros caracteres). Si bien OpenAI mantiene la boca cerrada sobre los detalles específicos del entrenamiento de GPT-4, los LLM generalmente se capacitan traduciendo primero la información de un conjunto de datos en tokens; Luego, el conjunto de datos se limpia para eliminar datos confusos o repetitivos. A continuación, las empresas de IA suelen emplear personas para aplicar el aprendizaje por refuerzo al modelo, empujando al modelo hacia respuestas que tengan sentido común. Los pesos, que en pocas palabras son los parámetros que le dicen a la IA qué conceptos están relacionados entre sí, se pueden ajustar en esta etapa. La API de Chat Completions y sus actualizaciones La API de Chat Completions permite a los desarrolladores utilizar la API GPT-4 a través de un formato de solicitud de texto libre. Con él, pueden crear chatbots u otras funciones que requieran una conversación de ida y vuelta. La API de Chat Completions estuvo disponible por primera vez en junio de 2020. En enero de 2024, la API de Chat Completions se actualizará para utilizar modelos de finalización más nuevos. Los modelos ada, babbage, curie y davinci de OpenAI se actualizarán a la versión 002, mientras que las tareas de finalización de chat que utilizan otros modelos pasarán a gpt-3.5-turbo-instruct. Ajuste de GPT-3.5 Turbo y otras noticias El 22 de agosto de 2023, OpenAPI anunció la disponibilidad de ajuste de GPT-3.5 Turbo. Esto permite a los desarrolladores personalizar modelos y probarlos para sus casos de uso específicos. En enero de 2023, OpenAI lanzó la última versión de su API de moderación, que ayuda a los desarrolladores a identificar texto potencialmente dañino. La última versión se conoce como text-moderation-007 y funciona de acuerdo con las mejores prácticas de seguridad de OpenAI. ¿Cuáles son las limitaciones de GPT-4 para empresas? Al igual que otras herramientas de inteligencia artificial de este tipo, GPT-4 tiene limitaciones. Por ejemplo, GPT-4 no comprueba si sus declaraciones son precisas. Su entrenamiento con textos e imágenes de Internet puede hacer que sus respuestas sean absurdas o incendiarias. Sin embargo, OpenAI tiene controles digitales y entrenadores humanos para tratar de mantener el resultado lo más útil y apropiado para el negocio posible. Además, GPT-4 tiende a crear «alucinaciones», que es el término de inteligencia artificial para las imprecisiones. Sus palabras pueden tener sentido en secuencia, ya que se basan en probabilidades establecidas por aquello en lo que se entrenó el sistema, pero no están verificadas ni conectadas directamente con eventos reales. OpenAI está trabajando para reducir la cantidad de falsedades que produce el modelo. Otra limitación importante es la cuestión de si la información corporativa confidencial que se introduce en GPT-4 se utilizará para entrenar el modelo y exponer esos datos a partes externas. Microsoft, que tiene un acuerdo de reventa con OpenAI, planea ofrecer instancias privadas de ChatGPT a corporaciones más adelante en el segundo trimestre de 2023, según un informe de abril. Al igual que GPT-3.5, GPT-4 no incorpora información más reciente que septiembre de 2021 en su léxico. Uno de los competidores de GPT-4, Google Bard, tiene información actualizada porque está entrenado en la Internet contemporánea. La IA puede sufrir un colapso del modelo cuando se entrena con datos creados por IA; Este problema se está volviendo más común a medida que proliferan los modelos de IA. GPT-4 versus GPT-3.5 o ChatGPT El segundo modelo más reciente de OpenAI, GPT-3.5, difiere de la generación actual en algunos aspectos. OpenAI no ha revelado el tamaño del modelo en el que se entrenó GPT-4, pero dice que es «más datos y más cálculos» que los miles de millones de parámetros con los que se entrenó ChatGPT. GPT-4 también ha demostrado más destreza a la hora de escribir una variedad más amplia de materiales, incluida la ficción. GPT-4 tiene un rendimiento superior a ChatGPT en las pruebas estandarizadas mencionadas anteriormente. Las respuestas a las indicaciones dadas al chatbot pueden ser más concisas y más fáciles de analizar. OpenAI señala que GPT-3.5 Turbo iguala o supera a GPT-4 en determinadas tareas personalizadas. Además, GPT-4 es mejor que GPT-3.5 a la hora de tomar decisiones comerciales, como programación o resumen. GPT-4 tiene «un 82% menos de probabilidades de responder a solicitudes de contenido no permitido y un 40% más de probabilidades de producir respuestas objetivas», dijo OpenAI. VER: Aprenda a usar ChatGPT. (TechRepublic Academy) Otra gran diferencia entre los dos modelos es que GPT-4 puede manejar imágenes. Puede servir como ayuda visual, describiendo objetos del mundo real o determinando los elementos más importantes de un sitio web y describiéndolos. «En una variedad de dominios, incluidos documentos con texto y fotografías, diagramas o capturas de pantalla, GPT-4 exhibe capacidades similares a las de las entradas de solo texto», escribió OpenAI en su documentación GPT-4. ¿Vale la pena actualizar a GPT-4? Si las nuevas capacidades ofrecidas a través de GPT-4 son apropiadas para su negocio es una decisión que depende en gran medida de sus casos de uso y de si ha tenido éxito con la inteligencia artificial en lenguaje natural. Revise las capacidades y limitaciones enumeradas anteriormente y considere dónde GPT-4 podría ahorrar tiempo o reducir costos; por el contrario, considere qué tareas podrían beneficiarse materialmente del conocimiento, las habilidades y el sentido común humanos. Las últimas noticias sobre GPT-4 Microsoft anunció a principios de agosto que la disponibilidad de GPT-4 en el servicio Azure OpenAI se ha expandido a varias regiones de cobertura nuevas. A partir de noviembre de 2023, los usuarios que ya estén explorando el ajuste fino de GPT-3.5 podrán postularse al programa de acceso experimental de ajuste fino de GPT-4. OpenAI también lanzó un programa de modelos personalizados que ofrece aún más personalización de la que permite el ajuste fino. Las organizaciones pueden solicitar un número limitado de espacios (que comienzan en $2-3 millones) aquí. En la primera conferencia DevDay de OpenAI en noviembre, OpenAI demostró que GPT-4 Turbo podía manejar más contenido a la vez (más de 300 páginas de un libro estándar) que GPT-4. GPT-4 Turbo estará disponible en versión preliminar a partir de noviembre. OpenAI bajó los precios de GPT-4 Turbo en noviembre de 2023. El precio de GPT-3.5 Turbo se redujo varias veces, la más reciente en enero de 2024. El 9 de abril, OpenAI anunció que GPT-4 con Vision está disponible de forma generalizada en la API de GPT-4. , lo que permite a los desarrolladores utilizar un modelo para analizar texto y vídeo con una llamada API.

Se necesita tecnología para sobrevivir a las tendencias B2B ‘sísmicas’ de APAC de esta década

Se necesita tecnología para sobrevivir a las tendencias B2B ‘sísmicas’ de APAC de esta década

El mercado de empresa a empresa experimentará una serie de grandes cambios en los años hasta 2030, según un nuevo informe de la firma de experiencia del cliente Merkle. Las empresas B2B regionales de APAC deberán considerar sus niveles de inversión en una serie de tecnologías e integrar nuevas herramientas ahora para prepararse y adaptarse a los cambios venideros. El informe B2B Futures: The View From 2030 sostiene que cuatro tendencias “síssmicas” clave están llegando al B2B: Un aumento en el comercio de máquina a máquina. Trazabilidad mejorada de la cadena de suministro. El dominio de los mercados digitales B2B. Velocidad de comercialización radicalmente acelerada. Jake Hird, vicepresidente de estrategia de Merkle B2B – APAC, dijo a TechRepublic que las empresas B2B de la región deberán responder con inversiones en tecnologías que incluyen IoT, IA, análisis de datos y blockchain para garantizar que se adapten a estos cambios que afectan a sus negocios y mercados. IoT para facilitar un aumento en el comercio de máquina a máquina El comercio de máquina a máquina aumentará hasta representar un tercio de todos los negocios B2B para 2030, dijo Merkle. En la práctica, esto verá la extensión de las herramientas automatizadas de toma de decisiones actuales, como los sistemas de reabastecimiento para minoristas que automatizan la compra de nuevo inventario de las fábricas, hacia decisiones más complejas pero aún sobre productos básicos, respaldadas por la IA. Jake Hird, vicepresidente de estrategia, Merkle B2B, APACImagen: Merkle Hird dijo que esta tendencia requeriría que las empresas B2B prioricen cada vez más las inversiones en cosas como infraestructura de TI, inteligencia artificial y herramientas de aprendizaje automático, tecnología blockchain y seguridad cibernética. Internet de las cosas El crecimiento del comercio de máquina a máquina dependerá en gran medida de la adopción y el despliegue de herramientas de IoT, que deberán integrarse en todo el mercado B2B. «Los dispositivos, sensores y redes de IoT formarán la columna vertebral del comercio m2m», dijo Hird. Si bien reconoce el crecimiento inestable hasta la fecha en el mercado de IoT, Merkle dijo que IoT ha madurado. El informe de Merkle predijo que los dispositivos IoT pronto serían una fuente clave de datos para las empresas B2B que necesitan «identificar y pronosticar las necesidades comerciales, que van desde la posible falta de existencias hasta la degradación de los equipos que pueden necesitar reemplazo, y realizar transacciones en consecuencia». Blockchain y contratos inteligentes Las máquinas tendrán los medios para realizar transacciones con otras máquinas utilizando blockchain. «La tecnología Blockchain y los contratos inteligentes garantizarán transacciones seguras y transparentes, permitiendo a las máquinas ejecutar acuerdos sin intervención humana», dijo Hird. DESCARGAR: Más de 50 glosarios tecnológicos de TechRepublic Infraestructura informática de borde premium Las empresas B2B necesitarán invertir en infraestructura de computación de borde para admitir más procesamiento de datos en tiempo real y transacciones de compra en sus huellas y cadenas de suministro. Plataformas de integración y gestión de datos Las empresas B2B necesitarán recopilar, procesar y analizar más información, lo que hace que la inversión en gestión de datos sea importante. Esto incluirá superar los desafíos de integración y aprovechar la interoperabilidad de los sistemas para generar los conocimientos necesarios para alimentar los sistemas. Sistemas de seguridad cibernética Las soluciones de seguridad cibernética serán cruciales para proteger las transacciones del acceso no autorizado, así como de otras amenazas en línea, según Merkle. «Las empresas necesitarán invertir en medidas como sistemas de detección de intrusos y tecnologías de cifrado avanzadas», afirmó Hird. Blockchain y tecnología de contabilidad distribuida para ofrecer trazabilidad de la cadena de suministro La trazabilidad de la cadena de suministro podría convertirse en uno de los dos principales impulsores de compras para B2B para 2030, debido a la presión de los consumidores y del mercado. Esto hará que aumente la adopción de la tecnología blockchain y de contabilidad distribuida a medida que las empresas busquen profundizar la transparencia y la confianza de sus cadenas de suministro. Blockchain y tecnología de contabilidad distribuida El informe de Merkle sugiere que blockchains, la forma más común de tecnología de contabilidad distribuida, podría ayudar a “arrojar luz sobre las cadenas de suministro globales bizantinas” al brindar acceso a datos de certificación, prácticas de abastecimiento e impacto ambiental, incluso calculando las huellas de carbono. Estas tecnologías podrían ayudar a las empresas a hacer cumplir los estándares de sostenibilidad. Etiquetas RFID e IoT La disponibilidad, la disminución del coste y la miniturización de las etiquetas RFID y los sensores de IoT harán que la IoT desempeñe un papel fundamental en la trazabilidad. Se espera que esto permita el seguimiento y monitoreo en tiempo real de los productos a medida que avanzan a lo largo de la cadena de suministro, desde el abastecimiento hasta la venta. Herramientas de análisis de datos e inteligencia artificial Los actores B2B necesitarán análisis de datos e inteligencia artificial para obtener información a partir de los datos generados por los sistemas de trazabilidad de la cadena de suministro. «A través del análisis en tiempo real, las empresas pueden optimizar la gestión de inventario, anticipar las fluctuaciones de la demanda y mitigar los riesgos de la cadena de suministro», dijo Hird. Preparación para la integración para respaldar el auge de los mercados digitales B2B Se espera que los mercados digitales B2B capturen el 50 % del negocio B2B para 2030, frente al 15 % en 2024. Este cambio impulsará a las organizaciones B2B a centrarse en implementar plataformas de comercio electrónico para desarrollar una presencia. dentro de mercados digitales en crecimiento o sumergirse y construir los suyos propios. Herramientas de análisis y personalización El análisis y la personalización permitirán a las empresas obtener información sobre el comportamiento y las preferencias de los clientes, dijo Hird. Esto ayudará a las empresas B2B a ajustar el marketing y las comunicaciones para compradores B2B individuales, mejorando la experiencia del cliente, el compromiso y los ingresos. Soluciones de integración y API Los mercados digitales dependen de la integración de sistemas para facilitar las transacciones de los clientes y las experiencias de compra. Las empresas deberán invertir en soluciones API y de integración para conectar sistemas y plataformas internos y externos para optimizar las operaciones y mejorar la eficiencia. Tecnología de optimización de la cadena de suministro Los modelos de mercado digital también requieren que las empresas B2B satisfagan demandas como tiempos de entrega más rápidos y cumplimiento eficiente de los pedidos desde su presencia en el mercado, dijo Hird. Sostuvo que esto alentará a las empresas B2B a adoptar más tecnologías de optimización de la cadena de suministro. Herramientas de diseño y creación de prototipos para acelerar la velocidad de comercialización B2B Se esperan cambios importantes en la forma en que las marcas B2B diseñan, prueban y entregan productos al mercado. Por ejemplo, en farmacología, dijo Merkle, aunque puede llevar de 10 a 15 años llevar un medicamento al mercado, un descubrimiento de fármacos y ensayos clínicos más rápidos podrían acortar este proceso dramáticamente. Hird dijo a TechRepublic que los procesos de diseño de prototipos y productos funcionales se pueden potenciar con IA generativa y tecnologías de creación de prototipos virtuales. Al utilizar simulaciones y herramientas de diseño que aumentan las contribuciones humanas y los métodos tradicionales, las empresas podrán reducir significativamente el tiempo y el costo asociados con la creación de prototipos y pruebas físicas. «Esto permite ciclos de iteración más rápidos, acelerando el proceso de desarrollo de productos y mejorando la velocidad de comercialización de nuevos productos e innovaciones», dijo Hird.

Source link

Reino Unido y EE. UU. acuerdan colaborar en el desarrollo de pruebas de seguridad para modelos de IA

Reino Unido y EE. UU. acuerdan colaborar en el desarrollo de pruebas de seguridad para modelos de IA

El gobierno del Reino Unido acordó formalmente trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de inteligencia artificial. El 1 de abril de 2024, la Secretaria de Tecnología del Reino Unido, Michelle Donelan, y la Secretaria de Comercio de los Estados Unidos, Gina Raimondo, firmaron un Memorando de Entendimiento, que es un acuerdo no vinculante legalmente (Figura A). Figura A La secretaria de Comercio de Estados Unidos, Gina Raimondo (izquierda), y la secretaria de Tecnología del Reino Unido, Michelle Donelan (derecha). Fuente: Gobierno del Reino Unido. Imagen: Gobierno del Reino Unido Ambos países ahora “alinearán sus enfoques científicos” y trabajarán juntos para “acelerar e iterar rápidamente conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA”. Esta medida se está tomando para mantener los compromisos establecidos en la primera Cumbre mundial sobre seguridad de la IA en noviembre pasado, donde gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. ¿Qué iniciativas de IA han acordado el Reino Unido y Estados Unidos? Con el MoU, el Reino Unido y los EE. UU. acordaron cómo construirán un enfoque común para las pruebas de seguridad de la IA y compartirán sus desarrollos entre sí. Específicamente, esto implicará: Desarrollar un proceso compartido para evaluar la seguridad de los modelos de IA. Realizar al menos un ejercicio de prueba conjunto sobre un modelo de acceso público. Colaborar en la investigación técnica de seguridad de la IA, tanto para avanzar en el conocimiento colectivo de los modelos de IA como para garantizar que las nuevas políticas estén alineadas. Intercambio de personal entre respectivos institutos. Compartir información sobre todas las actividades realizadas en los respectivos institutos. Trabajar con otros gobiernos en el desarrollo de estándares de IA, incluida la seguridad. «Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia artificial, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas», dijo el secretario Raimondo en un comunicado. VER: Aprenda a utilizar la IA para su negocio (Academia TechRepublic) El MoU se relaciona principalmente con el avance de los planes elaborados por los Institutos de Seguridad de IA en el Reino Unido y EE. UU. Las instalaciones de investigación del Reino Unido se lanzaron en la Cumbre de Seguridad de IA con los tres objetivos principales. de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Empresas como OpenAI, Meta y Microsoft han acordado que el AISI del Reino Unido revise de forma independiente sus últimos modelos de IA generativa. De manera similar, el AISI de EE. UU., establecido formalmente por el NIST en febrero de 2024, fue creado para trabajar en las acciones prioritarias descritas en la Orden Ejecutiva de AI emitida en octubre de 2023; Estas acciones incluyen el desarrollo de estándares para la seguridad de los sistemas de IA. El AISI de EE. UU. cuenta con el apoyo de un consorcio del AI Safety Institute, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. ¿Conducirá esto a la regulación de las empresas de IA? Si bien ni el AISI del Reino Unido ni el de los EE. UU. son un organismo regulador, es probable que los resultados de su investigación combinada sirvan de base para futuros cambios de políticas. Según el gobierno del Reino Unido, su AISI «proporcionará conocimientos fundamentales para nuestro régimen de gobernanza», mientras que la instalación estadounidense «desarrollará directrices técnicas que serán utilizadas por los reguladores». Podría decirse que la Unión Europea todavía está un paso por delante, ya que su histórica Ley de IA se convirtió en ley el 13 de marzo de 2024. La legislación describe medidas diseñadas para garantizar que la IA se utilice de forma segura y ética, entre otras normas relativas a la IA para el reconocimiento facial y la transparencia. . VER: La mayoría de los profesionales de la ciberseguridad esperan que la IA afecte sus trabajos La mayoría de los grandes actores tecnológicos, incluidos OpenAI, Google, Microsoft y Anthropic, tienen su sede en EE. UU., donde actualmente no existen regulaciones estrictas que puedan restringir sus actividades de IA. La EO de octubre proporciona orientación sobre el uso y la regulación de la IA, y se han tomado medidas positivas desde su firma; sin embargo, esta legislación no es ley. El Marco de Gestión de Riesgos de IA finalizado por el NIST en enero de 2023 también es voluntario. De hecho, estas grandes empresas tecnológicas son en su mayoría responsables de regularse a sí mismas y el año pasado lanzaron el Foro Modelo Frontier para establecer sus propias “barandillas” para mitigar el riesgo de la IA. ¿Qué piensan la IA y los expertos legales sobre las pruebas de seguridad? La regulación de la IA debería ser una prioridad La formación del AISI del Reino Unido no fue una forma universalmente popular de controlar la IA en el país. En febrero, el director ejecutivo de Faculty AI, una empresa involucrada con el instituto, dijo que desarrollar estándares sólidos puede ser un uso más prudente de los recursos gubernamentales en lugar de intentar examinar cada modelo de IA. «Creo que es importante que establezca estándares para el resto del mundo, en lugar de intentar hacerlo todo por sí mismo», dijo Marc Warner a The Guardian. Más cobertura de IA de lectura obligada Los expertos en derecho tecnológico tienen un punto de vista similar cuando se trata del MoU de esta semana. «Idealmente, los esfuerzos de los países se gastarían mucho mejor en desarrollar regulaciones estrictas en lugar de investigación», dijo a TechRepublic en un correo electrónico Aron Solomon, analista legal y director de estrategia de la agencia de marketing legal Amplify. “Pero el problema es este: pocos legisladores (yo diría, especialmente en el Congreso de Estados Unidos) tienen un conocimiento tan profundo de la IA como para regularla. Solomon añadió: “Deberíamos salir en lugar de entrar en un período de estudio profundo necesario, en el que los legisladores realmente entiendan colectivamente cómo funciona la IA y cómo se utilizará en el futuro. Pero, como lo puso de relieve la reciente debacle estadounidense en la que los legisladores intentan prohibir TikTok, ellos, como grupo, no entienden la tecnología, por lo que no están bien posicionados para regularla de manera inteligente. “Esto nos deja en la situación difícil en la que nos encontramos hoy. La IA está evolucionando mucho más rápido de lo que los reguladores pueden regular. Pero aplazar la regulación en favor de cualquier otra cosa en este momento es retrasar lo inevitable”. De hecho, dado que las capacidades de los modelos de IA cambian y se expanden constantemente, las pruebas de seguridad realizadas por los dos institutos deberán hacer lo mismo. «Algunos malos actores pueden intentar eludir las pruebas o aplicar incorrectamente las capacidades de IA de doble uso», dijo a TechRepublic en un correo electrónico Christoph Cemper, director ejecutivo de la plataforma de gestión rápida AIPRM. El doble uso se refiere a tecnologías que pueden utilizarse tanto con fines pacíficos como hostiles. Cemper dijo: “Si bien las pruebas pueden señalar problemas de seguridad técnica, no reemplazan la necesidad de directrices sobre cuestiones éticas, políticas y de gobernanza… Idealmente, los dos gobiernos considerarán las pruebas como la fase inicial de un proceso colaborativo continuo”. VER: La IA generativa puede aumentar la amenaza global de ransomware, según un estudio del Centro Nacional de Seguridad Cibernética Se necesita investigación para una regulación eficaz de la IA Si bien las directrices voluntarias pueden no resultar suficientes para incitar un cambio real en las actividades de los gigantes tecnológicos, una legislación de línea dura podría sofocar Según el Dr. Kjell Carlsson, el progreso en IA si no se considera adecuadamente. El ex analista de ML/AI y actual jefe de estrategia de Domino Data Lab dijo a TechRepublic en un correo electrónico: “Hoy en día, hay áreas relacionadas con la IA donde el daño es una amenaza real y creciente. Se trata de áreas como el fraude y el cibercrimen, donde normalmente existe regulación pero es ineficaz. “Desafortunadamente, pocas de las regulaciones de IA propuestas, como la Ley de IA de la UE, están diseñadas para abordar eficazmente estas amenazas, ya que se centran principalmente en ofertas comerciales de IA que los delincuentes no utilizan. Como tal, muchos de estos esfuerzos regulatorios dañarán la innovación y aumentarán los costos, al tiempo que harán poco para mejorar la seguridad real”. Por lo tanto, muchos expertos piensan que priorizar la investigación y la colaboración es más eficaz que apresurarse con las regulaciones en el Reino Unido y los EE. UU. El Dr. Carlsson dijo: “La regulación funciona cuando se trata de prevenir daños establecidos en casos de uso conocidos. Hoy en día, sin embargo, la mayoría de los casos de uso de la IA aún no se han descubierto y casi todo el daño es hipotético. Por el contrario, existe una increíble necesidad de investigar cómo probar, mitigar el riesgo y garantizar la seguridad de los modelos de IA de forma eficaz. «Como tal, el establecimiento y la financiación de estos nuevos Institutos de Seguridad de IA y estos esfuerzos de colaboración internacional son una excelente inversión pública, no sólo para garantizar la seguridad, sino también para fomentar la competitividad de las empresas en los EE.UU. y el Reino Unido».

Source link

Las búsquedas de Taylor Swift vuelven a X después de imágenes explícitas de IA

Las búsquedas de Taylor Swift vuelven a X después de imágenes explícitas de IA


Taylor Swift finalmente está fuera de peligro, al menos en lo que respecta a las búsquedas en la plataforma de redes sociales XX (antes Twitter) que levantó su bloqueo temporal en los resultados de búsqueda de la ganadora del Grammy el lunes por la noche. El bloqueo de la plataforma fue parte de sus esfuerzos por limitar la difusión de imágenes explícitas de Swift después de que se volvieron virales la semana pasada. A partir del martes por la mañana, una búsqueda de «Taylor Swift» arroja una lista de tweets, cuentas de redes sociales y otros medios de forma normal. Es posible que las búsquedas del cantante de “Out of the Woods” hayan regresado, pero el jefe de operaciones comerciales de X, Joe Benarroch, dijo que la plataforma continuará con sus esfuerzos de moderación. «La búsqueda se ha vuelto a habilitar y continuaremos atentos a cualquier intento de difundir este contenido y lo eliminaremos si lo encontramos», dijo Benarroch en un comunicado. En medio de las protestas de los fanáticos de Swift en las redes sociales, los legisladores y el sindicato de actores SAG-AFTRA, X hizo que el nombre de la diva del pop no fuera visible en su plataforma durante el fin de semana. El lunes por la tarde, al buscar el nombre de Swift sin comillas, aparecía una página de error que decía: “Algo salió mal. Intente recargar”. “Esta es una acción temporal y se hace con mucha precaución, ya que priorizamos la seguridad en este tema”, dijo Benarroch en una declaración anterior. La semana pasada, varias imágenes explícitas generadas por IA del “Bejeweled” y el “Cruel Summer” circuló en X. Las imágenes manipuladas eran pornográficas y hacían referencia al romance de alto perfil del jugador de 34 años con el ala cerrada de los Kansas City Chiefs, Travis Kelce. Horas después de que aparecieran las imágenes el jueves, el equipo de seguridad de X recordó a los usuarios su “cero -política de tolerancia” sobre el intercambio de “imágenes de desnudos no consensuales (NCN)”. La declaración, que no menciona explícitamente a Swift, también dice que los usuarios que publicaron las imágenes serían responsables. «Estamos monitoreando de cerca la situación para garantizar que cualquier violación adicional se aborde de inmediato y que el contenido se elimine», dijo la seguridad de X. cuenta agregada. «Estamos comprometidos a mantener un entorno seguro y respetuoso para todos los usuarios». La nueva acción de búsqueda restringida de X no estuvo exenta de errores. A partir del lunes por la tarde, buscar el nombre completo de Swift entre comillas o agregar palabras adicionales al final de la frase de búsqueda “Taylor Swift” generó publicaciones, respuestas e imágenes como de costumbre, incluidas falsificaciones gráficas de Swift. El director ejecutivo de Tesla, Elon Musk, que se hizo cargo oficialmente de Twitter en octubre de 2022, realizó recortes en el equipo de moderación de la plataforma, que tenía la tarea de hacer cumplir las reglas contra el contenido dañino. La compañía anunció el viernes que busca mejorar sus “mecanismos de detección para encontrar más contenido reportable” y contratar más personal moderador como parte de sus esfuerzos para combatir la explotación sexual infantil. Un representante de X no respondió de inmediato el lunes a la solicitud del Times de comentario. Swift aún no se ha referido públicamente a las imágenes explícitas, pero la controversia reavivó las conversaciones sobre la inteligencia artificial y la necesidad de una mayor supervisión, especialmente porque la creación de imágenes de IA continúa afectando abrumadoramente a mujeres y niños. «Taylor Swift es espantoso y, lamentablemente, les está sucediendo a las mujeres en todas partes, todos los días», dijo el representante de Nueva York Joe Morelle en un tuit el jueves. «Es explotación sexual», añadió, antes de promocionar su propuesta de ley para prevenir las falsificaciones profundas de imágenes íntimas. un proyecto de ley que haría ilegal compartir pornografía deepfake sin el consentimiento de las personas retratadas. La noticia de las imágenes de Swift AI generó preocupación, ya que el director ejecutivo de Microsoft, Satya Nadella, y la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, abordaron la controversia por separado el viernes. “Esto es muy alarmante. Por eso, haremos todo lo que podamos para abordar este problema”, dijo Jean-Pierre durante una rueda de prensa, según Reuters. “Entonces, si bien las empresas de redes sociales toman sus propias decisiones independientes sobre la gestión de contenidos, creemos que tienen un papel importante que desempeñar en hacer cumplir sus propias reglas para evitar la difusión de información errónea y de imágenes íntimas y no consensuadas de personas reales”. AFTRA, que estableció términos relacionados con la inteligencia artificial en su contrato de 2023, calificó las imágenes de inteligencia artificial de Swift como «perturbadoras, dañinas y profundamente preocupantes». «El desarrollo y la difusión de imágenes falsas, especialmente aquellas de naturaleza lasciva, sin el consentimiento de alguien deben «Será ilegal», dijo el sindicato en un comunicado el viernes. «Como sociedad, tenemos en nuestro poder controlar estas tecnologías, pero debemos actuar ahora antes de que sea demasiado tarde».

Source link

Las parodias generadas por IA de ‘RuPaul’s Drag Race’ están inundando Instagram y TikTok

Las parodias generadas por IA de ‘RuPaul’s Drag Race’ están inundando Instagram y TikTok

La combinación de lo real y lo irreal podría explicar por qué algunos seguidores del falso Drag Race se apasionan tanto con lo que ven en sus feeds. Michael dice que «vive para las reacciones exageradas de los fans» que creen que sus creaciones son personas reales. Dice que la gente a menudo le pregunta por el nombre de usuario real de Instagram de una reina. “También recibo algún comentario de odio ocasional de alguien que dice que le estoy quitando trabajos a verdaderas drag queens”, dice. Como ilustrador, Michael dice que es consciente de “que la IA viene a por mi trabajo”, pero no cree que su proyecto apasionante de Instagram esté quitándole dinero a los humanos. «Si alguien no va al club y le da propina a una drag queen real porque vio AI Drag Race, eso es un problema con la persona y no con mi Drag Race», dice. Más de Fantasy Drag Race dice que se ha metido en líos con Otros creadores también en chats grupales, después de cuestionar qué tan en serio se estaban tomando todo el proceso. “Soy una mexicana queer y no binaria que vive en el norte del estado de Nueva York”, explica. «Que alguien diga que mi competencia de drag no es de su agrado o que alguna mirada que hice es fea no me afectará en absoluto». Aún así, dice, es comprensible que la gente se apegue emocionalmente a su trabajo. Desafortunadamente, ese tipo de apego también viene con una sensación de temor inminente, ya que la idea de Drag Race generada por IA es una obra de teatro de una gran franquicia. Mientras que algunos creadores argumentan que lo que están haciendo es una parodia, publicando lo que Grimmelmann dice que son exenciones de responsabilidad de derechos de autor “casi completamente inútiles” (o tal vez inútiles) que los absuelven en su página principal de Instagram, otros reconocen que probablemente estén construyendo sus seguidores sobre bases inestables. varias cuentas, incluida una que presentaba exclusivamente personajes de Disney, ya han sido retiradas de Instagram, lo que les da a los creadores que usan solo personajes animados o existentes más que un poco de pausa. «Tengo mucho miedo de que me derriben», dice Haus de Dreg’s Boopy. “Pero si lo hice, que así sea. Quiero decir, ¿qué podría hacer?” “Me aseguro de no hacer nada para sexualizar a los personajes, y no hago nada para disminuir su tono real”, añade Shayne de Horror Drag Race. «Simplemente estoy fusionando dos medios, el terror y Drag Race, y combinándolos en algo que ambos grupos de fanáticos puedan disfrutar». Tampoco son sólo los fanáticos de Drag Race los que disfrutan de la experiencia de la IA. Mhi’ya Iman Le’Paige, una reina de la temporada 16 de Drag Race, acaba de echar un vistazo a la pasarela que se originó por primera vez en una serie de imágenes generadas por IA. Una de sus hermanas de la temporada 16, Plane Jane, sigue al menos a uno de los creadores de IA. Michael, de Official AI Drag Race, dice que varias reinas se acercaron para pedirles usar sus creaciones ficticias como inspiración, con una reina anónima de una franquicia internacional. pidiéndole a Michael que diseñara todo su paquete de looks de pasarela basándose únicamente en sus imágenes de Carla Montecarlo. «Siento que es sólo cuestión de tiempo», dice Michael, «antes de que mire televisión y vea algo que rendericé hace un año».

Source link

Cómo esta startup respaldada por Thanit Apipatana fusiona la IA en el sector inmobiliario

Cómo esta startup respaldada por Thanit Apipatana fusiona la IA en el sector inmobiliario

Cómo esta startup respaldada por Thanit Apipatana fusiona la IA en el sector inmobiliario

Este artículo está patrocinado y escrito por MOGUL.sg La IA ha sido el tema dominante en tecnología en 2023, pocos lo discutirán. Ha habido una amplia adopción generalizada de herramientas de IA generativa, especialmente en el espacio laboral. Al mismo tiempo, vimos cómo los investigadores en campos específicos como la ciberseguridad o el descubrimiento de fármacos han logrado grandes avances. Y hay muchos más ejemplos. Las grandes empresas tecnológicas están invirtiendo miles de millones en el desarrollo de nuevos chips y capacidades de centros de datos. Goldman Sachs pronostica que las inversiones en IA crecerán hasta los 200 mil millones de dólares anuales para 2025. Los unicornios de IA, como la empresa de software en la nube Databricks (43 mil millones de dólares), la startup de conducción autónoma Cruise (30 mil millones de dólares) y OpenAI (29 mil millones de dólares), han aumentado sus valoraciones en el pasado. meses, según Crunchbase. El revuelo también debería beneficiar a la escena de startups locales que tiene más espacio para crecer. El gobierno de Singapur ha prometido más apoyo y acaba de anunciar que pretende triplicar el número de profesionales de IA a 15.000. Encontrar el talento adecuado había sido un desafío para Gerald Sim, director ejecutivo y fundador de MOGUL.sg, la startup de mapeo inmobiliario respaldada por Thanit Apipatana. Presentamos una nueva forma de trabajar Gerald Sim, director ejecutivo y fundador de MOGUL.sg Sim fundó MOGUL.sg en 2018 a partir de la incubadora Geoworks de la Autoridad de Tierras de Singapur y su amigo, el inversor de riesgo Thanit Apipatana, se convirtió en su primer inversor. Apipatana también es un asesor cercano desde los primeros días. La iniciativa de la IA va definitivamente en la dirección correcta. La IA no deja a la gente sin trabajo; crea nuevos requisitos para la fuerza laboral que necesita estar equipada y preparada para esto. Gerald Sim, director ejecutivo y fundador de MOGUL.sg AI promete enormes ganancias de productividad y, por lo tanto, está causando cierta ansiedad sobre si ciertos roles laborales podrían volverse redundantes. En MOGUL.sg, nativo de IA, los equipos utilizan herramientas como ChatGPT y Google Bard para procesar grandes cantidades de datos y generar scripts que antes tardaban muchas horas en producirse. Los creativos utilizan componentes de lenguaje natural que respaldan la redacción, mientras que el departamento de contabilidad puede generar hojas de cálculo con un aspecto más limpio. MOGUL.sg está trabajando actualmente para mejorar su plataforma y sus modelos con datos geoespaciales adicionales. «El núcleo de toda IA ​​generativa es su capacidad para comprender y responder a entradas lingüísticas», dice Sim. «Ahora estamos trabajando para alimentar estos modelos con todos los puntos de datos que tenemos, de modo que Gen AI pueda brindar respuestas geoespaciales más profundas». La firma planea implementar nuevas funciones a principios del próximo año que apuntan a cambiar la forma en que se realizan las transacciones inmobiliarias. La ambición de MOGUL.sg es proporcionar todas las respuestas sobre un acuerdo en un mapa 3D que muestra datos sobre la propiedad y sus alrededores. Los visitantes pueden navegar por el mapa en sus dispositivos y hacer zoom en edificios individuales para captar detalles. Eso debería hacer que la compra y venta sea más intuitiva y ágil. A medida que la potencia de las computadoras se vuelve más asequible y la capacidad de almacenar y extraer grandes cantidades de datos es cada vez más accesible para las empresas emergentes, podemos esperar más innovación en todas las industrias en los próximos años. Esto nos hará en general más productivos, pero al mismo tiempo también abrirá nuevas perspectivas laborales. Crédito de la imagen destacada: MOGUL.sg

Source link

El chatbot ChatGPT AI ya no requiere una cuenta para su uso

El chatbot ChatGPT AI ya no requiere una cuenta para su uso

ChatGPT, el chatbot impulsado por IA que se volvió viral a principios del año pasado y desató una ola de interés en las herramientas de IA generativa, ya no necesita una cuenta para usarlo. Su creador, OpenAI, lanzó el lunes una página web que permite iniciar una conversación con el chatbot sin tener que registrarse o iniciar sesión primero. Significa que si aún no has interactuado con un chatbot impulsado por IA a pesar de haber escuchado muchas noticias sobre la tecnología durante el último año, realmente no hay excusa para esperar más. «Es fundamental para nuestra misión hacer que herramientas como ChatGPT estén ampliamente disponibles para que las personas puedan experimentar los beneficios de la IA», dijo OpenAI, respaldado por Microsoft, en una publicación de blog el lunes. “Más de 100 millones de personas en 185 países utilizan ChatGPT semanalmente para aprender algo nuevo, encontrar inspiración creativa y obtener respuestas a sus preguntas. A partir de hoy, puedes usar ChatGPT al instante, sin necesidad de registrarte”. La compañía está implementando la función de fácil acceso «gradualmente», así que haga clic en este enlace ahora para ver si funciona donde se encuentra. Pero tenga en cuenta: OpenAI puede utilizar cualquier cosa que ingrese durante sus conversaciones de texto para mejorar su tecnología de inteligencia artificial, aunque esto se puede desactivar a través de Configuración, ya sea que cree o no una cuenta. OpenAI señala que en realidad existen una serie de beneficios al crear una cuenta, como la capacidad de guardar y revisar su historial de chat, compartir chats y desbloquear funciones adicionales como conversaciones de voz e instrucciones personalizadas, así que si disfruta de su experiencia con ChatGPT y crees que quizás quieras usarlo nuevamente, vale la pena considerar configurar uno. Si vienes a ChatGPT por primera vez, Digital Trends ofrece algunos consejos sobre cómo aprovecharlo al máximo. OpenAI también ofrece algunas ideas sobre lo que quizás quieras preguntarle a ChatGPT, como 10 sugerencias de regalos para el cumpleaños de tu gato, cómo explicarle a un niño qué es una red neuronal e ideas divertidas para una fiesta en el patio trasero. Recomendaciones de los editores

Source link

En la carrera de IA con EE. UU., China está atrasada en un arma clave: su propia OpenAI

En la carrera de IA con EE. UU., China está atrasada en un arma clave: su propia OpenAI

La gente aprende sobre el servicio de chatbot de inteligencia artificial de Baidu, Ernie Bot, durante la 2.ª Exposición Mundial de Comercio Digital en el Centro Internacional de Exposiciones de Hangzhou el 23 de noviembre de 2023 en Hangzhou, provincia china de Zhejiang. Servicio de Noticias de China | Servicio de Noticias de China | Getty Images El viaje espacial de Nvidia en el mercado de valores subraya hasta qué punto la calidad y disponibilidad de los chips determinarán quiénes serán los ganadores en la era de la IA generativa. Pero hay otro aspecto a la hora de medir las primeras pistas en el espacio. En China, que busca producir sus propios chips u obtener más de Nvidia, todavía no ha surgido ningún competidor de IA de generación dominante para OpenAI entre docenas de titanes tecnológicos y nuevas empresas chinas. Al final del juego, China está tratando de tomar el liderazgo de OpenAI en un mercado de IA estadounidense más amplio formado por los titanes tecnológicos Microsoft, Google de Alphabet y Amazon, y startups bien financiadas como Anthropic, que esta semana recibió una infusión de 2.700 millones de dólares en efectivo de Amazon. En este campo de rápido movimiento, la brecha entre Estados Unidos y su rival tecnológico China se considera amplia. «Las principales empresas chinas están comparando con ChatGPT, lo que indica lo rezagadas que están», dijo Paul Triolo, vicepresidente senior para China y líder de política tecnológica de Dentons Global Advisors en Washington, DC. «No muchas empresas pueden respaldar sus propias grandes empresas». modelo lingüístico. Se necesita mucho capital. Silicon Valley definitivamente está muy por delante del juego», dijo Jenny Xiao, socia de la firma de capital riesgo de inteligencia artificial Leonis Capital en San Francisco. Estados Unidos sigue siendo el mayor mercado de inversión. El año pasado, la financiación de nuevas empresas de generación de IA representó casi la mitad de los 42.500 millones de dólares invertidos a nivel mundial en empresas de inteligencia artificial, según CB Insights. En Estados Unidos, los capitalistas de riesgo y los inversores corporativos impulsaron la inversión en IA a 31.000 millones de dólares en 1.151 acuerdos, liderados por grandes desembolsos en OpenAI, Anthropic e Inflection. Esto se compara con 2.000 millones de dólares en 68 acuerdos en China, lo que marcó una gran caída con respecto a los 5.500 millones de dólares en 377 acuerdos de 2022. La caída se puede atribuir en parte a las restricciones a la inversión de riesgo de Estados Unidos en China. «China está en gran desventaja a la hora de construir los modelos básicos para la generación de IA», dijo Rui Ma, inversor en IA y cofundador de un sindicato de inversión y un podcast. TechBuzz China. Pero donde China se queda atrás en los modelos fundamentales, que están dominados por OpenAI y Gemini de Google, está cerrando la brecha utilizando el código abierto de Meta, el modelo de lenguaje grande Llama 1, y Triolo dijo que los contendientes chinos, si están detrás, están mejorando el modelo estadounidense. «Muchos de los modelos chinos son efectivamente bifurcaciones de Llama, y ​​el consenso es que estas bifurcaciones están uno o dos años por detrás de las principales empresas estadounidenses OpenAI y su modelo de video a texto Sora», dijo Ma. China tiene el talento tecnológico para marcar la diferencia en la rivalidad de la IA en los próximos años. Un nuevo estudio del grupo de expertos Marco Polo, dirigido por el Instituto Paulson, muestra que EE. UU. alberga el 60% de las principales instituciones de IA, y EE. UU. sigue siendo, con diferencia, la líder El destino del talento de élite en IA es el 57% del total, en comparación con China, el 12%. Pero la investigación encuentra que China aventaja a EE.UU. en algunas otras medidas, incluido estar por delante de EE.UU. en la producción de investigadores de IA de primer nivel, según títulos universitarios, con China con un 47% y EE.UU. rezagado con un 18%. Además, entre los investigadores de IA de primer nivel que trabajan en instituciones estadounidenses, el 38% tiene a China como país de origen, en comparación con el 37% de los EE.UU. Las nuevas entradas al mercado chino de IA también pueden alcanzar una adopción masiva rápidamente. El competidor ChatGPT de Baidu, Ernie Bot, lanzado en agosto de 2023, alcanzó los 100 millones de usuarios a finales de año. Samsung planea integrar Ernie AI de Baidu en sus nuevos teléfonos inteligentes Galaxy S, mientras que en otro desarrollo de alto perfil que habla de las relaciones entre Estados Unidos y China, Apple está en conversaciones con Baidu para suministrar al iPhone 16 la tecnología de inteligencia artificial de generación de la compañía china. Dentro de su actual lista de contendientes de IA, los modelos Ernie Bot de Baidu se consideran entre los más avanzados, según Leong. Varias otras empresas chinas están avanzando, financiadas por importantes actores de su propio mercado tecnológico. Grandes empresas de la nube como Baidu y Alibaba, los actores de redes sociales ByteDance y Tencent, y las empresas de tecnología SenseTime, iFlyTek, Megvii y Horizon Robotics, así como institutos de investigación, están ayudando en este esfuerzo. Moonshot AI, financiado por el gigante chino del comercio electrónico Alibaba y la firma de capital de riesgo Hongshan (anteriormente Sequoia China), está construyendo grandes modelos de lenguaje que pueden manejar entradas de contenido largas. Mientras tanto, el ex presidente de Google China, Kai-Fu Lee, ha desarrollado un modelo de IA de generación de código abierto, 01.AI, financiado por Alibaba y su empresa Sinovation Ventures. Si bien China ha acelerado el desarrollo de su industria local de chips y de la IA avanzada, su desarrollo en IA se ha visto limitado en parte por las restricciones estadounidenses a la exportación de chips de IA de alta gama, un mercado acorralado por Nvidia, como parte de un nuevo campo de batalla por la supremacía tecnológica entre los dos países. Estados Unidos y China. «A pesar de los esfuerzos por desarrollar soluciones autóctonas, los desarrolladores chinos de IA todavía dependen en gran medida del hardware extranjero, particularmente de empresas estadounidenses, lo cual es una vulnerabilidad en el clima geopolítico actual», dijo Bernard Leong, fundador y director ejecutivo de la asesoría tecnológica Analyse Asia en Singapur. Las tensiones actuales entre Estados Unidos y China por la innovación tecnológica y las cuestiones de seguridad nacional están provocando una división en el desarrollo de la IA generacional, siguiendo el patrón de otras tecnologías impactantes atrapadas en las carreras armamentistas tecnológicas de las superpotencias. Dadas las regulaciones y prohibiciones sobre tecnologías sensibles y de vanguardia, el resultado probable son dos ecosistemas paralelos para la generación de IA, uno en Estados Unidos y otro en China. ChatGPT está bloqueado en China, mientras que solo se puede acceder a Ernie Bot de Baidu en los EE. UU. con un número de teléfono celular de China continental. «Las empresas estadounidenses no pueden ir a China y las empresas chinas no pueden ir a Estados Unidos», dijo Xiao. La Secretaria de Comercio de Estados Unidos, Gina Raimondo, ha declarado que el objetivo de las restricciones estadounidenses a las exportaciones de chips de IA es evitar que China adquiera o produzca chips avanzados. A medida que China continental se centra en capacidades locales, las empresas chinas SMIC o Huawei podrían ser una alternativa a Nvidia. Pero el futuro de las alternativas probablemente sea incierto si los controles de exportación excluyen a estas empresas de los diseños más avanzados para la fabricación. Triolo señaló que Huawei desarrolló recientemente una serie de chips de inteligencia artificial como rival de Nvidia. China está avanzando en la aplicación de la IA a determinadas categorías, como la visión por ordenador. «La escasez de chips es muy importante para entrenar modelos fundamentales en los que se necesitan ciertos chips, pero para las aplicaciones, no los necesitas», dijo Ma. La «real aplicación asesina» para la generación de IA, según Triolo, estará en las empresas. que están dispuestos a pagar dinero para aprovechar la tecnología como parte de sus operaciones comerciales. Alibaba se está centrando en integrar la IA en su ecosistema de comercio electrónico. Huawei, si bien compitió con más éxito contra el iPhone de Apple en el mercado de consumo el año pasado, también tiene ambiciones más amplias, desarrollando IA para industrias específicas, incluida la minería, utilizando su hardware interno, dijo Leong. La investigación de Boston Consulting Group sugiere que puede ser un mientras que antes de que este mercado de IA de generación más amplia se extienda fuera de la tecnología. El sesenta por ciento de los 1.400 ejecutivos encuestados están esperando ver cómo se desarrollan las regulaciones de IA genérica, mientras que sólo el 6 por ciento de las empresas han capacitado a sus empleados en herramientas de IA genérica. IA en 2023 después del avance de ChatGPT, y luego modificaciones de algunas medidas. La tecnología de IA de generación de código abierto que muchos desarrolladores chinos utilizan puede fomentar la colaboración a nivel mundial y conducir a conocimientos compartidos a medida que avanza la IA, pero Leong dijo que el código abierto también genera problemas relacionados con garantizar «China quiere asegurarse de que no se derrame contenido. También quiere que sus empresas lideren y están dispuestas a imponer medidas draconianas», dijo Triolo. Las preocupaciones éticas y sociales obstaculizan los avances de la IA en China y en otras regiones, incluido Estados Unidos, como se ve en la batalla por el control de la misión de OpenAI. Dentro de China, hay otro factor que podría frenar la aceleración de la IA, según Leong: mantener el control de las aplicaciones de IA de generación, especialmente en áreas sensibles a los intereses estatales.

Source link

Cinco razones por las que la inteligencia artificial fracasará

Cinco razones por las que la inteligencia artificial fracasará

Comparte en tu plataforma favoritaLa Inteligencia Artificial (IA) ha logrado avances significativos en los últimos años, con numerosas aplicaciones (como ChatGPT), en diversas industrias como la atención médica, las finanzas, el transporte y el entretenimiento. Muchos expertos predicen que la IA seguirá revolucionando la forma en que vivimos y trabajamos en los próximos años. Sin embargo, también existe la preocupación de que la IA no esté a la altura de sus expectativas y no cumpla sus promesas. En esta publicación, exploraremos cinco razones por las que la IA puede fallar y por qué es esencial abordar estos desafíos para garantizar que la IA pueda alcanzar su potencial en el futuro. Como modelo de lenguaje de IA, puede parecerme contradictorio escribir sobre por qué la IA fallará. Sin embargo, es importante considerar las limitaciones y posibles obstáculos de la tecnología de IA. Si bien la IA ha logrado avances significativos en los últimos años, existen varias razones por las que es posible que no esté a la altura de su promesa. En esta publicación de blog, analizaré cinco razones clave por las que la IA puede fallar: 1. Falta de calidad y disponibilidad de los datos. Los algoritmos de IA dependen en gran medida de grandes cantidades de datos para entrenar y mejorar su precisión. Sin embargo, la calidad de los datos utilizados puede afectar en gran medida la eficacia del sistema de IA. Si los datos son inexactos, incompletos o sesgados, pueden dar lugar a predicciones y decisiones inexactas. Además, es posible que el acceso a datos de alta calidad no siempre esté disponible, especialmente en industrias con regulaciones estrictas o recursos limitados. Por ejemplo, en la industria médica, las regulaciones de privacidad de datos pueden limitar la disponibilidad de los datos de los pacientes, lo que dificulta el entrenamiento de algoritmos de IA para diagnosticar y tratar enfermedades con precisión. Además, en industrias con recursos limitados, como las pequeñas empresas o los países en desarrollo, el costo de recopilar y almacenar grandes cantidades de datos puede ser prohibitivo, lo que limita la eficacia de los sistemas de IA. 2- Falta de transparencia y rendición de cuentas Los sistemas de IA pueden ser complejos, lo que dificulta entender cómo llegaron a una decisión o recomendación particular. Esta falta de transparencia puede ser un problema en industrias donde la rendición de cuentas es fundamental, como las finanzas o la atención médica. Sin explicaciones claras de cómo los sistemas de IA llegaron a sus decisiones, puede resultar difícil identificar errores o sesgos. Además, los sistemas de IA pueden perpetuar los sesgos existentes si se entrenan con datos sesgados o si los propios algoritmos están sesgados. Esto puede tener consecuencias graves, como perpetuar la discriminación racial o de género. En estos casos, puede resultar difícil identificar y corregir los sesgos, ya que el sistema de IA puede estar funcionando con capas ocultas o algoritmos complejos que son difíciles de analizar. 3- Consecuencias imprevistas Los sistemas de IA están diseñados para optimizarse para objetivos específicos, como maximizar ganancias o minimizar errores. Sin embargo, es posible que estos objetivos no siempre estén alineados con las metas más amplias de la sociedad. En algunos casos, los sistemas de IA pueden causar daños o tener consecuencias no deseadas sin darse cuenta. Por ejemplo, un sistema de inteligencia artificial diseñado para optimizar el flujo del tráfico puede desviar el tráfico inadvertidamente a través de áreas residenciales, provocando un aumento del ruido y la contaminación. Además, un sistema de inteligencia artificial diseñado para seleccionar a los solicitantes de empleo puede perpetuar inadvertidamente prejuicios contra ciertos grupos, como las mujeres o las personas de color. 4- Consideraciones éticas Los sistemas de IA pueden plantear una serie de consideraciones éticas, particularmente cuando se trata de privacidad y seguridad. Los algoritmos de IA a menudo se entrenan con datos personales, como correos electrónicos o publicaciones en redes sociales, lo que genera preocupaciones sobre la privacidad y la vigilancia de los datos. Además, los sistemas de inteligencia artificial pueden ser vulnerables a ataques cibernéticos, que podrían resultar en el robo o manipulación de datos confidenciales. Además, existen consideraciones éticas en torno al uso de la IA en la toma de decisiones. Por ejemplo, si se utiliza un sistema de inteligencia artificial para determinar quién debe recibir un préstamo o quién debe ser puesto en libertad condicional, pueden surgir preocupaciones sobre la equidad y la rendición de cuentas. Estas consideraciones éticas pueden ser complejas y difíciles de abordar, especialmente a medida que la tecnología de inteligencia artificial continúa avanzando. 5- Limitaciones técnicas La tecnología de IA todavía está sujeta a limitaciones técnicas que pueden afectar su efectividad. Por ejemplo, los sistemas de inteligencia artificial actuales pueden tener dificultades con el contexto y la comprensión de los matices del lenguaje. Además, los sistemas de IA pueden estar limitados por el hardware y la potencia de procesamiento disponibles. Además, a medida que los sistemas de IA se vuelven más complejos, puede resultar más difícil mantenerlos y actualizarlos. Esto puede dar lugar a sistemas que sean propensos a errores o errores. Además, a medida que la tecnología de IA continúa evolucionando, puede resultar más difícil para las organizaciones mantenerse al día con los últimos desarrollos. Entonces, ¿la IA se nos vendrá encima? Si bien la IA tiene el potencial de transformar industrias y mejorar nuestras vidas de innumerables maneras, es importante considerar las posibles limitaciones y obstáculos que pueden afectar su éxito. Estas cinco razones por las que la IA puede fallar son sólo algunos de los muchos factores que podrían limitar el potencial de la tecnología de IA. A medida que la IA siga evolucionando, será importante que las organizaciones consideren estos factores y trabajen para abordarlos a fin de garantizar la eficacia y el uso ético de los sistemas de IA. Para abordar estas posibles limitaciones y ayudar a garantizar el éxito de la tecnología de IA, existen varios pasos que las organizaciones pueden tomar. Las organizaciones deben priorizar la calidad de los datos y garantizar que los datos utilizados para entrenar algoritmos de IA sean precisos, completos e imparciales. Esto puede requerir recursos adicionales o asociaciones con proveedores de datos, pero será fundamental para el éxito de los sistemas de IA. Relacionado Comparte en tu plataforma favorita

Source link

Página 1 de 14

Funciona con WordPress & Tema de Anders Norén