Todo lo que necesitas saber sobre tecnología

Etiqueta: IA generativa Página 2 de 8

¡China todavía tiene acceso a los chips de IA NVIDIA de alta velocidad!

Las instituciones militares, los institutos de investigación de IA y las universidades de China todavía pueden obtener y comprar chips de IA de NVIDIA, ¡aunque en pequeñas cantidades! ¡A AMD + NVIDIA se les prohíbe vender chips de IA a China! El gobierno de EE. UU. ordenó tanto a AMD como a NVIDIA que dejaran de vender chips de IA de alto rendimiento a China y Rusia el 26 de agosto de 2022. Esta prohibición se introdujo para evitar que ambos países utilizaran esos chips de IA de alto rendimiento con fines militares. Con efecto inmediato, el gobierno de EE. UU. prohibió la exportación de todos los chips de IA que sean iguales o más rápidos que los chips NVIDIA A100 (y H100) o AMD Instinct MI250. Luego, NVIDIA creó chips de IA A800 y H800 más lentos para el mercado chino, pero incluso ellos también fueron prohibidos en octubre de 2023. Recomendado: ¡AMD y NVIDIA tienen prohibido vender chips de IA a China! ¡China todavía tiene acceso a los chips de IA NVIDIA de alta velocidad! A pesar de la actual prohibición de la venta de chips de IA de alto rendimiento a China y Rusia, parece que los institutos de investigación chinos vinculados al ejército todavía pueden obtener y comprar chips de IA de NVIDIA, ¡aunque en pequeñas cantidades! Según un informe de Reuters del 14 de enero de 2024, los documentos de licitación pública muestran que docenas de instituciones militares, institutos de investigación de inteligencia artificial y universidades en China con vínculos con el ejército han comprado y recibido chips de inteligencia artificial de NVIDIA de alto rendimiento como el A100 y el H100. así como los chips AI A800 y H800 más lentos. El Instituto de Tecnología de Harbin compró seis chips NVIDIA A100 en mayo de 2023 para entrenar un modelo de aprendizaje profundo que la Universidad de Ciencia y Tecnología Electrónica de China compró en NVIDIA A100 en diciembre de 2022, para un propósito no especificado. Ambas universidades están sujetas a las restricciones de exportación de Estados Unidos, aunque la venta de esos chips de IA no es ilegal en China. Se identificaron más de 100 licitaciones en las que entidades estatales chinas compraron con éxito chips NVIDIA A100 y H100, y docenas de licitaciones muestran compras exitosas de los chips más lentos A800. La Universidad de Tsinghua compró dos chips H100 en diciembre de 2023, así como unos ochenta chips A100 desde septiembre de 2022. Un laboratorio del Ministerio de Industria y Tecnología de la Información compró un chip H100 en diciembre de 2023. Una entidad anónima del Ejército Popular de Liberación (EPL) con sede en Wuxi buscó para comprar tres chips A100 en octubre de 2023 y un chip H100 en enero de 2024 El Instituto de Inteligencia Artificial de Shandong compró cinco chips A100 de Shandong Chengxiang Electronic Technology en diciembre de 2023 La Universidad de Chongqing compró un chip NVIDIA A100 en enero de 2024. Recomendado: Can StopNCII Remove All Nude / ¡¿Fotos falsas profundas?! Para ser claros, ni NVIDIA ni sus minoristas aprobados suministraron esos chips. NVIDIA dijo que cumple con todas las leyes de control de exportaciones aplicables y exige que sus clientes hagan lo mismo: si nos enteramos de que un cliente ha realizado una reventa ilegal a terceros, tomaremos las medidas inmediatas y apropiadas. – Portavoz de NVIDIA Aunque las entidades estatales chinas parecen poder comprar chips de IA de alto rendimiento, el informe de Reuters también muestra la eficacia de la prohibición estadounidense de chips de IA. El entrenamiento de grandes modelos de inteligencia artificial requiere miles de chips de IA de alto rendimiento, y China no parece ser capaz de adquirir más que un puñado de estos chips críticos. Eso no significa que China esté desacelerando sus iniciativas de IA. En lugar de depender de las “importaciones grises” de chips AI de AMD o NVIDIA, las entidades chinas están haciendo todo lo posible para cambiar a alternativas locales. En 2023, HUAWEI recibió pedidos de unos 5.000 de sus chips Ascent 910B. Megaempresas chinas como Baidu, Alibaba y Tencent también tienen sus propios chips de IA internos como Kunlunxin Gen 2, Hanguang 800 y Zixiao. ¡Por favor apoye mi trabajo! ¡Apoya mi trabajo a través de una transferencia bancaria/PayPal/tarjeta de crédito! Nombre: Adrian WongTransferencia bancaria: CIMB 7064555917 (Código Swift: CIBBMYKL)Tarjeta de crédito/Paypal: https://paypal.me/techarp El Dr. Adrian Wong ha estado escribiendo sobre tecnología y ciencia desde 1997, e incluso ha publicado un libro con Prentice Hall llamado Rompiendo la barrera del BIOS (ISBN 978-0131455368) mientras estaba en la escuela de medicina. Continúa dedicando innumerables horas todos los días a escribir sobre tecnología, medicina y ciencia, en su búsqueda de hechos en un mundo de posverdad.
[/su_note]

Lectura recomendada Volver a > Negocios | Computadora | Soporte técnico ARP ¡ARP técnico! Apóyenos visitando a nuestros patrocinadores, participando en los foros Tech ARP o haciendo una donación a nuestro fondo. ¡Gracias! Así: Me gusta Cargando…

Source link

¡Baidu niega el vínculo del bot ERNIE con la investigación militar china!

¡Baidu acaba de negar cualquier vínculo entre su servicio de IA generativa ERNIE Bot y una IA militar china! SCMP: ¡Bot Baidu ERNIE vinculado al ejército chino! El 12 de enero de 2024, el South China Morning Post (SCMP) informó que un laboratorio de investigación dependiente de la división de guerra cibernética de la Fuerza de Apoyo Estratégico del Ejército Popular de Liberación “forjó un vínculo físico” entre su sistema de inteligencia artificial y grandes modelos lingüísticos en China, específicamente el Baidu ERNIE Bot y iFLYTEK Spark. Según SCMP, el proyecto se detalló en un artículo revisado por pares publicado en la edición de diciembre de 2023 de la revista académica china Command Control & Simulation. También informó que es la primera vez que el ejército chino confirma públicamente su uso de modelos comerciales de lenguaje grande. Según los científicos involucrados en el proyecto, un laboratorio de investigación de la Fuerza de Apoyo Estratégico del Ejército Popular de Liberación (EPL), que supervisa el espacio, la cibernética, la inteligencia y la guerra electrónica del ejército chino, ha forjado un vínculo físico entre su sistema de inteligencia artificial y Ernie y Baidu. Spark de iFlyTek, que son modelos de lenguaje grandes similares a ChatGPT. La IA militar puede convertir grandes cantidades de datos de sensores e información proporcionada por las unidades de primera línea en lenguaje descriptivo o imágenes y transmitirlos a los modelos comerciales. Después de que confirman que entienden, la IA militar genera automáticamente indicaciones para un intercambio más profundo en diversas tareas, como simulaciones de combate. Todo el proceso está completamente libre de participación humana. El artículo de Sun Yifeng y su equipo de la Universidad de Ingeniería de la Información del EPL analiza cómo alimentaron datos de IA militar sobre la intervención militar estadounidense en Libia en 2011 a grandes modelos de lenguaje como el Baidu ERNIE Bot, y después de varias rondas de diálogo, pudieron para predecir la estrategia de combate del ejército estadounidense. En el artículo, el equipo de Sun analizó uno de sus experimentos que simulaba una invasión militar estadounidense de Libia en 2011. La IA militar proporcionó información sobre las armas y el despliegue de ambos ejércitos a los modelos de lenguaje grandes. Después de varias rondas de diálogo, los modelos predijeron con éxito el próximo movimiento del ejército estadounidense. Después de la publicación de esa historia, las acciones de Baidu cayeron más de un 11,5%, en medio de temores de que un vínculo tan directo con el ejército chino resultaría en sanciones de Estados Unidos, no muy diferente de lo que le sucedió a HUAWEI. Recomendado: ¿Estaban realmente los misiles chinos llenos de agua? ¡Baidu niega el vínculo del bot ERNIE con la investigación militar china! Inicialmente, Baidu solo declaró que no tenía conocimiento del proyecto de investigación: No tenemos conocimiento del proyecto de investigación, y si se hubiera utilizado nuestro modelo de lenguaje grande, habría sido la versión que está disponible públicamente en línea. Sin embargo, después del precio de sus acciones cayó, Baidu emitió un desmentido más contundente el 15 de enero de 2024. Baidu declaró que no tenía ninguna “colaboración comercial” con el equipo de Sun Yifeng ni con la Universidad de Ingeniería de la Información del EPL, y afirmó que si se utilizaba ERNIE Bot en esa investigación, ha sido la versión disponible públicamente. ERNIE Bot está disponible y utilizado por el público en general. El artículo académico, publicado por académicos de una universidad china, describe cómo los autores crearon indicaciones y recibieron respuestas de los LLM, utilizando las funciones disponibles para cualquier usuario que interactúe con herramientas de IA generativa. Baidu no ha participado en ninguna colaboración comercial ni ha proporcionado ningún servicio personalizado a los autores del artículo académico ni a ninguna institución a la que estén afiliados. Baidu también afirmó que desde entonces SCMP ha «aclarado y corregido» su informe. El South China Morning Post, el primer medio de comunicación que informó sobre este artículo académico, aclaró y corrigió su informe original. SCMP eliminó su referencia a un vínculo físico entre Ernie Bot y cualquier sistema de IA militar chino, modificándola para decir que el laboratorio del EPL probó su sistema de IA en Baidu Ernie e iFLYTEK Spark. ¡Por favor apoye mi trabajo! ¡Apoya mi trabajo a través de una transferencia bancaria/PayPal/tarjeta de crédito! Nombre: Adrian WongTransferencia bancaria: CIMB 7064555917 (Código Swift: CIBBMYKL)Tarjeta de crédito/Paypal: https://paypal.me/techarp El Dr. Adrian Wong ha estado escribiendo sobre tecnología y ciencia desde 1997, e incluso ha publicado un libro con Prentice Hall llamado Rompiendo la barrera del BIOS (ISBN 978-0131455368) mientras estaba en la escuela de medicina. Continúa dedicando innumerables horas todos los días a escribir sobre tecnología, medicina y ciencia, en su búsqueda de hechos en un mundo de posverdad.
[/su_note]

Lectura recomendada Volver a > Negocios | Computadora | Soporte técnico ARP ¡ARP técnico! Apóyenos visitando a nuestros patrocinadores, participando en los foros Tech ARP o haciendo una donación a nuestro fondo. ¡Gracias! Así: Me gusta Cargando…

Source link

Microsoft bloquea términos que hacen que su IA cree imágenes violentas

Microsoft ha comenzado a realizar cambios en su herramienta de inteligencia artificial Copilot después de que un ingeniero de IA del personal escribiera a la Comisión Federal de Comercio el miércoles sobre sus preocupaciones sobre la IA de generación de imágenes de Copilot. Indicaciones como «pro elección», «pro elección» [sic] y «cuatro veinte», que fueron mencionados en la investigación de CNBC el miércoles, ahora están bloqueados, así como el término «pro vida». También hay una advertencia sobre múltiples violaciones de políticas que conducen a la suspensión de la herramienta, que CNBC no había encontrado antes del viernes. «Este mensaje ha sido bloqueado», afirma la alerta de advertencia de Copilot. «Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de la política pueden provocar la suspensión automática de su acceso. Si cree que se trata de un error, infórmelo para ayudarnos a mejorar». La herramienta de IA ahora también bloquea solicitudes para generar imágenes de adolescentes o niños jugando a asesinos con rifles de asalto (un cambio marcado con respecto a principios de esta semana) y afirma: «Lo siento, pero no puedo generar esa imagen. Va en contra de mis principios éticos y las políticas de Microsoft. Por favor, hágalo». No me pidas que haga nada que pueda dañar u ofender a otros. Gracias por su cooperación». Lea más informes de CNBC sobre IA Cuando se le contactó para comentar sobre los cambios, un portavoz de Microsoft le dijo a CNBC: «Estamos monitoreando continuamente, haciendo ajustes y aplicando medidas adicionales. controles establecidos para fortalecer aún más nuestros filtros de seguridad y mitigar el mal uso del sistema». Shane Jones, el líder de ingeniería de IA en Microsoft que inicialmente expresó su preocupación por la IA, ha pasado meses probando Copilot Designer, el generador de imágenes de IA que Microsoft estrenó en marzo de 2023, impulsado por la tecnología OpenAI. Al igual que con DALL-E de OpenAI, los usuarios ingresan mensajes de texto para crear imágenes. Se fomenta que la creatividad se vuelva loca. Pero desde que Jones comenzó a probar activamente el producto en busca de vulnerabilidades en diciembre, una práctica conocida como equipo rojo, vio que la herramienta generaba imágenes que iban en contra de los principios de IA responsable de Microsoft, frecuentemente citados. El servicio de IA ha representado demonios y monstruos junto con la terminología. relacionados con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos y consumo de alcohol y drogas entre menores de edad. Todas esas escenas, generadas en los últimos tres meses, fueron recreadas por CNBC esta semana utilizando la herramienta Copilot, originalmente llamada Bing Image Creator. Aunque algunas indicaciones específicas han sido bloqueadas, muchos de los otros problemas potenciales sobre los que CNBC informó permanecen. El término «accidente automovilístico» devuelve charcos de sangre, cuerpos con rostros mutados y mujeres en las escenas de violencia con cámaras o bebidas, a veces con corsé o entrenador de cintura. «Automobile accident» todavía muestra imágenes de mujeres con ropa reveladora y de encaje, sentadas encima de autos destartalados. El sistema también sigue infringiendo fácilmente los derechos de autor, como al crear imágenes de personajes de Disney, incluida Elsa de «Frozen», sosteniendo la bandera palestina frente a edificios destrozados supuestamente en la Franja de Gaza, o vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y sosteniendo una ametralladora. Jones estaba tan alarmado por su experiencia que comenzó a informar internamente sus hallazgos en diciembre. Si bien la empresa reconoció sus preocupaciones, no estaba dispuesta a retirar el producto del mercado. Jones dijo que Microsoft lo refirió a OpenAI y, cuando no recibió respuesta de la compañía, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3, la última versión del modelo de IA, para una investigación. El departamento legal de Microsoft le dijo a Jones que eliminara su publicación inmediatamente, dijo, y él obedeció. En enero, escribió una carta a los senadores estadounidenses sobre el asunto y luego se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. El miércoles, Jones intensificó aún más sus preocupaciones y envió una carta a la presidenta de la FTC, Lina Khan, y otra a La junta directiva de Microsoft. Compartió las cartas con CNBC con anticipación. La FTC confirmó a CNBC que había recibido la carta, pero se negó a hacer más comentarios sobre el expediente.

Source link

La IA jurídica está despegando en Australia y podría revolucionar el mercado jurídico de la práctica privada

El mercado legal de práctica privada de Australia se está lanzando de lleno a brindar servicios legales asistidos por IA. Marcas líderes como Clayton Utz, Minter Ellison y Holding Redlich están dando señales de sus primeros pasos en el uso de la IA y su deseo de crecer hasta 2024 y más allá. Los bufetes de abogados están probando la IA para tareas que incluyen investigación jurídica y redacción de documentos legales, respaldada por modelos de IA personalizados y entrenados en datos legales. La IA podría acelerar la prestación de servicios legales, mejorar los costos de los servicios legales y redirigir a los abogados a asuntos más complejos. Ejemplos de la adopción de la IA por parte de la profesión jurídica australiana Australia tiene un mercado jurídico de práctica privada maduro y muy innovador. Ha estado entre los primeros mercados legales del mundo en ver el potencial de la IA generativa para acelerar y aumentar la prestación de servicios legales a clientes de los sectores público y privado. VER: A continuación se presentan algunos desafíos de TI que Australia debe abordar para aprovechar el momento de la IA. Aunque firmas de servicios de información legal como LexisNexis y Thomson Reuters han estado implementando servicios de inteligencia artificial en el mercado estadounidense primero, las firmas de abogados australianas se apresuraron a probarlos a medida que estuvieron disponibles. También están desarrollando modelos y enfoques internos de IA. Clayton Utz Clayton Utz se encuentra entre las primeras firmas de abogados de Australia en probar Lexis+ AI, una nueva herramienta de inteligencia artificial generativa legal de LexisNexis, para generar borradores de documentos legales y otras comunicaciones. Esto sigue a otras iniciativas de la firma, incluido el uso de Lexis+, un analizador de argumentos, que puede analizar documentos legales y sugerir mejoras a la estrategia de litigio de un abogado. MinterEllison MinterEllison fue una de las dos únicas firmas de abogados australianas que Microsoft invitó a participar en su programa Copilot for Microsoft 365 Early Access. La empresa también está creando sus propias herramientas de IA generativa, incluido Chat with ME, un LLM de investigación interna personalizado que utiliza GPT-4 de OpenAI en el entorno privado y seguro de Microsoft Azure de la empresa, entre otras iniciativas internas. Holding Redlich Holding Redlich es otra empresa australiana que prueba la redacción de documentos legales y correos electrónicos con Lexis+ AI. Utilizando la herramienta de manera similar a Clayton Utz, los abogados de Holding Redlich pueden solicitar a Lexis+ AI que cree primeros borradores de documentos, incluidos consejos para los clientes, así como otros elementos comunes como correos electrónicos internos o presentaciones judiciales, como declaraciones de demanda. Figura A: Lexis+ AI es una herramienta de IA generativa capacitada en más de 1,23 millones de opiniones judiciales, estatutos, presentaciones y materiales secundarios. Imagen: LexisNexis Maddocks Maddocks es la primera firma de abogados australiana en Australia que adopta el asistente legal de IA CoCounsel Core, desarrollado por Thomson Reuters, que se encuentra en una fase de prueba de concepto y se ha implementado en más de 45 firmas de abogados en los EE. UU. Hemos estado identificando casos de uso y experimentando, según el director ejecutivo David Newman, quien dijo que podría «modernizar la forma en que trabajamos». Lander & Rogers Lander & Rogers, al igual que MinterEllison, ha adoptado Microsoft Copilot para ayudar a los abogados con tareas que incluyen redacción y revisión de contratos, investigación legal, razonamiento legal, extracción y análisis de datos y casos de uso más genéricos como correos electrónicos y resúmenes de reuniones. La empresa planea adoptar Copilot en toda la empresa después de las pruebas y también ha lanzado un laboratorio de inteligencia artificial dedicado. Más cobertura de Australia ¿Cuáles son los casos de uso clave de la IA en la profesión jurídica? Hay muchos casos de uso potenciales para la IA en los despachos de abogados. Los ejemplos nombrados por Microsoft incluyen redacción legal, investigación y análisis legales, diligencia debida, resúmenes y comunicaciones. PREMIUM: explore estos otros casos de uso principales de la IA. La investigación jurídica y la generación de contenidos son dos casos de uso generales clave para la profesión jurídica. Investigación legal Los bufetes de abogados de práctica privada brindan asesoramiento legal experto y comercial basado en leyes y regulaciones publicadas a nivel global y local, así como jurisprudencia y precedentes. Ofrecen interpretaciones y opiniones para ayudar a los clientes a tomar decisiones legales informadas y conformes. La IA recibe esta información documentada, lo que podría reducir enormemente el tiempo de investigación. Por ejemplo, Lexis+ AI, construido sobre Claude 2 de Anthropic y GPT-4 de OpenAI, ha sido entrenado en la base de datos de LexisNexis de 1,23 millones de opiniones judiciales, estatutos, presentaciones y materiales secundarios. Un gran modelo de lenguaje formado en una amplia base de datos jurídica es capaz de proporcionar borradores de asesoramiento jurídico basado en material jurídico de alta calidad del mundo real. También puede ofrecer citas precisas que respalden el resultado obtenido. Luego, los abogados pueden analizar y ajustar los resultados para entregarlos a un cliente. Generación de contenidos La investigación jurídica, que había sido posible con algunas herramientas de IA anteriores, ahora se ha ampliado con IA generativa para permitir la generación de lenguaje natural y textos legales. Para los despachos de abogados, esto significa la capacidad de generar de todo, desde borradores completos de documentos legales hasta correos electrónicos de clientes. Los abogados también podrán entablar conversaciones con los resultados de texto generados. A través de una ingeniería rápida a través de interfaces conversacionales, podrán ajustar los resultados generados para optimizar su asesoramiento antes de entregárselo a los usuarios finales, como clientes o tribunales. ¿Pueden los modelos jurídicos de IA producir redacción y asesoramiento jurídicos precisos? Los principales modelos de IA generativa legal están muy alejados de los esfuerzos de algunos abogados que han sido sorprendidos utilizando casos alucinados basados ​​en ChatGPT en presentaciones judiciales en los EE. UU. y Canadá. Los modelos se entrenan con grandes cantidades de datos legales, y técnicas como el ajuste fino, la generación aumentada por recuperación y la ingeniería rápida sirven para crear respuestas precisas: Ajuste fino: LexisNexis explica que su herramienta Lexis+ AI es una versión reentrenada de nuestra LLM listos para usar. Grandes cantidades de datos legales relevantes mejoran su capacidad para realizar tareas en el ámbito legal. RAG: La precisión de los resultados se compara con una fuente confiable de conocimiento a través de RAG. Lexis+ AI, por ejemplo, hace referencia al contenido legal de alta calidad para fundamentar respuestas veraces. Ingeniería rápida: una buena ingeniería rápida puede reducir significativamente el riesgo de alucinaciones en casos de uso legal, y es probable que los abogados capacitados sean buenos en esta disciplina debido a sus habilidades de razonamiento verbal. ¿Cómo podría la adopción de la IA cambiar el mercado legal de Australia? El mercado legal de Australia es altamente competitivo. Varias firmas de abogados grandes, medianas y boutique compiten por relaciones con clientes y nuevos negocios en una variedad de áreas de práctica lucrativas, incluidas empresas, fusiones y adquisiciones, medios, telecomunicaciones y litigios. La implementación de la IA tiene el potencial de cambiar los servicios legales de varias maneras. El asesoramiento jurídico podría entregarse a los clientes más rápidamente. La puntualidad del asesoramiento jurídico es fundamental para apoyar a los clientes. La integración de la IA podría acelerar enormemente la capacidad de los abogados para investigar y analizar la legislación y la jurisprudencia y brindar asesoramiento jurídico considerado. Algunas empresas locales han sido testigos de la reducción de horas en algunas tareas. VER: El sector legal de Australia podría aprender de los “experimentos” de la CBA con IA en la banca. «La capacidad de generar contenido, incluida correspondencia con clientes, términos de contratos, alegatos, memorandos de asesoramiento legal y otra documentación, representa una oportunidad increíble para que la profesión jurídica acelere de manera segura y responsable el trabajo legal de rutina», según el informe de Microsoft. La IA podría reducir los costos del asesoramiento jurídico externo. Las firmas de abogados podrán cada vez más ofrecer asesoramiento jurídico preciso y relevante a un precio más bajo. La posible reducción de las horas facturables requeridas por los abogados a nivel de asociado, asociado senior y socio podría resultar en una guerra de precios en los despachos de abogados y presión sobre los honorarios legales. Los bufetes de abogados, cuyos socios en el mercado de Sydney pueden ganar 1,5 millones de dólares al año, estarán deseosos de conservar el valor de los honorarios pagados a pesar de las mejoras en la productividad. Es probable que cambien aún más la facturación hacia precios basados ​​en el valor en lugar de facturar por el número de horas trabajadas. La IA podría convertirse en un frente de batalla en la guerra del talento jurídico. Los bufetes de abogados australianos compiten fuertemente por el talento jurídico. Las empresas quieren contratar y retener a los mejores abogados y convertirlos en socios. Los bufetes de abogados que no adoptan herramientas de inteligencia artificial corren el riesgo de perder abogados frente a quienes sí lo hacen porque pueden ver esto como el futuro de la práctica jurídica. La IA podría ser una amenaza existencial para algunos abogados Los abogados trabajan en una industria del conocimiento y se considera que están muy expuestos a la IA generativa. Un informe publicado por Goldman Sachs a principios de 2023 analizó el mercado estadounidense y descubrió que hasta el 44% de las tareas que realizan los abogados hoy en día podrían algún día automatizarse con herramientas de inteligencia artificial. El bufete de abogados australiano Holding Redlich participó anteriormente en un ejercicio de prueba de Turing que confirmó que la herramienta ‘analizador de argumentos’ de LexisNexis, Lexis+, podría superar a un ser humano en el fortalecimiento de la presentación de un abogado al sugerir jurisprudencia relevante a la que hacer referencia en ella. Los bufetes de abogados con IA emplearán súper abogados, capaces de realizar muchas de las tareas de conocimiento que consumen el tiempo de los abogados. Los abogados pueden involucrarse más en solicitar y revisar los resultados de la IA, asesorar sobre asuntos más complejos o emergentes y construir relaciones con los clientes.

Source link

Sam Altman se reincorpora a la junta directiva de OpenAI y la empresa añade tres nuevos miembros

OpenAI anunció el viernes su nueva junta directiva y la conclusión de una investigación interna realizada por el bufete de abogados estadounidense WilmerHale sobre los acontecimientos que condujeron al derrocamiento del director ejecutivo de OpenAI, Sam Altman. Sam Altman también se reincorporará a la junta directiva de OpenAI. Los nuevos miembros de la junta son: Dra. Sue Desmond-Hellmann, ex directora ejecutiva de la Fundación Bill y Melinda Gates, quien también forma parte de la junta directiva de Pfizer y del Consejo Presidencial de Asesores en Ciencia y Tecnología. Nicole Seligman, ex vicepresidenta ejecutiva y asesor general global de Sony y presidente de Sony Entertainment, que también forma parte de la junta directiva de Paramount Global, Meira GTx e Intuitive Machines, Inc. Fidji Simo, director ejecutivo y presidente de Instacart, que también forma parte de la junta directiva de Shopify. Los tres nuevos miembros «trabajarán en estrecha colaboración con los miembros actuales de la junta directiva Adam D’Angelo, Larry Summers y Bret Taylor, así como con Greg, Sam y la alta dirección de OpenAI», según un comunicado. OpenAI seguirá ampliando el tablero en el futuro, según una llamada de Zoom con periodistas. «La revisión concluyó que hubo una importante ruptura de confianza entre la junta anterior y Sam y Greg», dijo Taylor, y agregó que la revisión también «concluyó que la junta actuó de buena fe… [and] No anticipé parte de la inestabilidad que condujo después». Taylor también dijo que las preocupaciones de la junta no surgieron con respecto a preocupaciones sobre la seguridad del producto, las finanzas de OpenAI o las declaraciones a clientes o socios comerciales, que fue «simplemente una ruptura de confianza entre la junta y el Sr. Altman». La investigación de WilmerHale comenzó en diciembre, y los abogados presentaron su informe hoy, que incluyó docenas de entrevistas con miembros y asesores anteriores de la junta directiva de OpenAI, ejecutivos actuales y otros testigos. La investigación también implicó la revisión de más de 30.000 documentos, «Hemos llegado a la conclusión unánime de que Sam y Greg son los líderes adecuados para OpenAI», dijo Bret Taylor, presidente de la junta directiva de OpenAI, en un comunicado.»Estoy muy agradecido con Bret, Larry y WilmerHale», dijo Altman. En la llamada de Zoom con los periodistas, agregó, hablando de la CTO Mira Murati, «Mira en particular es incremental para OpenAI todo el tiempo… pero durante ese período en noviembre, ha hecho un trabajo increíble ayudando a liderar la empresa». Agregó que está «emocionado de seguir adelante aquí» y de que la situación haya «terminado». También mencionó que desearía haber actuado de manera diferente con respecto a las diferencias de opinión con la junta. En noviembre, la junta directiva de OpenAI destituyó a Altman, lo que provocó renuncias (o amenazas de renuncias), incluida una carta abierta firmada por prácticamente todos los empleados de OpenAI, y el revuelo de los inversores, incluido Microsoft. Al cabo de una semana, Altman estaba de regreso en la empresa y los miembros de la junta directiva Helen Toner, Tasha McCauley e Ilya Sutskever, que habían votado a favor de destituir a Altman, estaban fuera. Adam D’Angelo, que también había votado para derrocar a Altman, permaneció en la junta. Cuando se le preguntó a Altman sobre el estado de Sutskever en la llamada de Zoom con los periodistas, dijo que no había actualizaciones para compartir. «Amo a Ilya… espero Trabajamos juntos por el resto de nuestras carreras, mi carrera, lo que sea», dijo Altman. «Nada que anunciar hoy». Desde entonces, OpenAI ha anunciado nuevos miembros de la junta directiva, incluido el ex codirector ejecutivo de Salesforce, Bret Taylor, y el exsecretario del Tesoro, Larry Summers. Microsoft obtuvo un puesto de observador en la junta sin derecho a voto. Después del lanzamiento de ChatGPT en noviembre de 2022, batió récords en ese momento como la aplicación para consumidores de más rápido crecimiento en la historia y ahora tiene alrededor de 100 millones de usuarios activos semanales, junto con más del 92% de las empresas Fortune 500. empresas que utilizan la plataforma, según OpenAI. El año pasado, Microsoft invirtió 10 mil millones de dólares adicionales en la compañía, lo que la convierte en la mayor inversión en IA del año, según PitchBook, y se informa que OpenAI cerró un acuerdo que permitirá a los empleados vender acciones por una valoración de 86 mil millones de dólares, aunque el acuerdo Según se informa, el cierre tardó más de lo esperado debido a los acontecimientos que rodearon el derrocamiento de Altman. La montaña rusa de un par de semanas en la compañía todavía la afecta meses después. Este mes, el magnate tecnológico multimillonario Elon Musk demandó a los cofundadores de OpenAI, Sam Altman y Greg Brockman, por incumplimiento. de contrato e incumplimiento de deber fiduciario, revelaron documentos judiciales el jueves. En su denuncia, Musk y sus abogados alegan que el fabricante de ChatGPT «se ha transformado en una filial de facto de código cerrado de la empresa de tecnología más grande del mundo: Microsoft». » También argumentan que este acuerdo va en contra de un acuerdo de fundación y una certificación de incorporación de 2015 que OpenAI estableció con Musk, quien fue un donante fundamental de un cofundador de OpenAI en sus primeros años. Como parte del contrato de Microsoft con OpenAI, el gigante tecnológico solo tiene derechos sobre la tecnología «pre-AGI» de OpenAI, y corresponde a la junta directiva de OpenAI determinar si la compañía ha alcanzado ese hito. Musk argumentó en su presentación que desde la reorganización de la junta directiva de OpenAI en noviembre -cuando Toner, McCauley y Sutskever fueron destituidos- la nueva junta está «mal equipada» para determinar de forma independiente si OpenAI ha alcanzado AGI y, por lo tanto, si su tecnología está fuera del alcance de el acuerdo de exclusividad con Microsoft. Los abogados dijeron a CNBC que tenían dudas sobre la viabilidad legal del caso de Musk, y OpenAI ha dicho que planea presentar una moción para desestimar todos los reclamos de Musk. En respuesta a la demanda de alto perfil, OpenAI reprodujo viejos correos electrónicos de Musk en los que el CEO de Tesla y SpaceX animaba a la emergente startup a recaudar al menos mil millones de dólares en financiación, y acordaba que debería «comenzar a ser menos abierta» con el tiempo y «no compartir» la ciencia de la compañía con el público. La demanda de Musk también sigue a cierta controversia sobre los esfuerzos e inversiones anteriores de Altman en chips. Justo antes del breve derrocamiento de Altman, se informó que estaba buscando miles de millones para una empresa de chips nueva y aún no formada con el nombre en código «Tigris» para eventualmente competir con Nvidia, viajando al Medio. East para recaudar dinero de los inversores. En 2018, Altman invirtió personalmente en una startup de chips de IA llamada Rain Neuromorphics, con sede cerca de la sede de OpenAI en San Francisco, y en 2019, OpenAI firmó una carta de intención para gastar 51 millones de dólares en los chips de Rain. En diciembre, Estados Unidos obligó a una firma de capital de riesgo respaldada por Saudi Aramco a vender sus acciones en Rain.

Source link

El ingeniero de inteligencia artificial de Microsoft dice que Copilot Designer crea imágenes perturbadoras

En una noche de diciembre, Shane Jones, un ingeniero de inteligencia artificial de Microsoft, se sintió asqueado por las imágenes que aparecían en su computadora. Jones estaba jugueteando con Copilot Designer, el generador de imágenes de IA que Microsoft estrenó en marzo de 2023, impulsado por la tecnología OpenAI. . Al igual que con DALL-E de OpenAI, los usuarios ingresan mensajes de texto para crear imágenes. Se fomenta que la creatividad se vuelva loca. Desde el mes anterior, Jones había estado probando activamente el producto en busca de vulnerabilidades, una práctica conocida como equipo rojo. En ese tiempo, vio que la herramienta generaba imágenes que iban en contra de los principios de IA responsable de Microsoft, frecuentemente citados. El servicio de IA ha representado demonios y monstruos junto con terminología relacionada con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos. y consumo de alcohol y drogas entre menores de edad. Todas esas escenas, generadas en los últimos tres meses, han sido recreadas por CNBC esta semana utilizando la herramienta Copilot, que originalmente se llamaba Bing Image Creator. «Fue un momento revelador», dijo Jones, quien continúa probando la imagen. generador, dijo a CNBC en una entrevista. «Fue entonces cuando me di cuenta por primera vez de que realmente no es un modelo seguro». Jones ha trabajado en Microsoft durante seis años y actualmente es gerente principal de ingeniería de software en la sede corporativa en Redmond, Washington. Dijo que no trabaja en Copilot a título profesional. Más bien, como miembro del equipo rojo, Jones forma parte de un ejército de empleados y personas externas que, en su tiempo libre, eligen probar la tecnología de inteligencia artificial de la empresa y ver dónde pueden estar surgiendo problemas. Jones estaba tan alarmado por su experiencia que comenzó a informar internamente. sus hallazgos en diciembre. Si bien la empresa reconoció sus preocupaciones, no estaba dispuesta a retirar el producto del mercado. Jones dijo que Microsoft lo refirió a OpenAI y, cuando no recibió respuesta de la compañía, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3 (la última versión del modelo de IA) para una investigación. En esta fotografía ilustrativa tomada en Cracovia, Polonia, el 30 de octubre de 2023, se ve el logotipo de Copilot en la pantalla de una computadora portátil y el logotipo de Microsoft en la pantalla de un teléfono. Jakub Porzycki | Nurfoto | Getty Images El departamento legal de Microsoft le dijo a Jones que eliminara su publicación de inmediato, dijo, y él cumplió. En enero, escribió una carta a los senadores estadounidenses sobre el asunto y luego se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. Ahora, sus preocupaciones están aumentando aún más. El miércoles, Jones envió una carta a la presidenta de la Comisión Federal de Comercio, Lina Khan, y otra a la junta directiva de Microsoft. Compartió las cartas con CNBC con anticipación. «Durante los últimos tres meses, he instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores salvaguardas», escribió Jones en la carta a Khan. Añadió que, dado que Microsoft ha «rechazado esa recomendación», está pidiendo a la compañía que agregue información sobre el producto y cambie la clasificación de la aplicación de Google para Android para dejar en claro que es sólo para audiencias adultas. «Una vez más, no han logrado implementar estos cambios y continuar comercializando el producto para ‘Cualquiera. En cualquier lugar. Cualquier dispositivo'», escribió. Jones dijo que el riesgo «ya era conocido por Microsoft y OpenAI antes del lanzamiento público del modelo de IA en octubre pasado». Sus cartas públicas llegan después de que Google a fines del mes pasado dejara de lado temporalmente su generador de imágenes de IA, que es parte de su suite Gemini AI. tras las quejas de los usuarios sobre fotografías inexactas y respuestas cuestionables derivadas de sus consultas. En su carta a la junta directiva de Microsoft, Jones solicitó que el comité de política pública, social y ambiental de la compañía investigara ciertas decisiones del departamento legal y la gerencia, así como que comenzara «una investigación independiente». revisión de los procesos de notificación de incidentes de IA responsable de Microsoft». Le dijo a la junta que «ha realizado esfuerzos extraordinarios para tratar de plantear este problema internamente» al informar sobre imágenes a la Oficina de IA Responsable, publicar una publicación interna sobre el asunto y reunirse directamente con alta dirección responsable de Copilot Designer. «Estamos comprometidos a abordar todas y cada una de las inquietudes que los empleados tengan de acuerdo con las políticas de nuestra empresa, y apreciamos los esfuerzos de los empleados para estudiar y probar nuestra última tecnología para mejorar aún más su seguridad», dijo un portavoz de Microsoft a CNBC. «Cuando se trata de omisiones de seguridad o inquietudes que podrían tener un impacto potencial en nuestros servicios o nuestros socios, hemos establecido sólidos canales de informes internos para investigar y remediar adecuadamente cualquier problema, que animamos a los empleados a utilizar para que podamos validar y probar adecuadamente. sus preocupaciones.»Lea más CNBC informa sobre la IA’No hay muchos límites’Jones se está metiendo en un debate público sobre la IA generativa que está cobrando fuerza antes de un gran año de elecciones en todo el mundo, que afectará a unos 4 mil millones de personas en más de 40 países. La cantidad de deepfakes creados ha aumentado un 900% en un año, según datos de la firma de aprendizaje automático Clarity, y es probable que una cantidad sin precedentes de contenido generado por IA agrave el creciente problema de la desinformación en línea relacionada con las elecciones. Jones no está ni mucho menos solo en sus temores sobre la IA generativa y la falta de barreras de seguridad en torno a la tecnología emergente. Según la información que recopiló internamente, dijo que el equipo de Copilot recibe más de 1,000 mensajes de comentarios sobre productos todos los días, y para abordar todos los problemas se requeriría una inversión sustancial en nuevas protecciones o reentrenamiento del modelo. Jones dijo que en las reuniones le han dicho que el equipo está seleccionando solo los problemas más atroces y que no hay suficientes recursos disponibles para investigar todos los riesgos y resultados problemáticos. Mientras prueba el modelo OpenAI que impulsa el generador de imágenes de Copilot, Jones dijo se dio cuenta de «cuánto contenido violento era capaz de producir». «No había muchos límites sobre lo que ese modelo era capaz de hacer», dijo Jones. «Esa fue la primera vez que tuve una idea de cuál era probablemente el conjunto de datos de entrenamiento y la falta de limpieza de ese conjunto de datos de entrenamiento». El director ejecutivo de Microsoft, Satya Nadella, a la derecha, saluda al director ejecutivo de OpenAI, Sam Altman, durante el evento OpenAI DevDay en San Francisco. el 6 de noviembre de 2023.Justin Sullivan | Getty Images Noticias | Getty ImagesLa aplicación para Android de Copilot Designer sigue teniendo la calificación «E para todos», la calificación de aplicación más inclusiva por edades, lo que sugiere que es segura y apropiada para usuarios de cualquier edad. En su carta a Khan, Jones dijo que Copilot Designer puede crear imágenes potencialmente dañinas en categorías como prejuicios políticos, consumo de alcohol y drogas entre menores de edad, estereotipos religiosos y teorías de conspiración. Al simplemente poner el término «pro-elección» en Copilot Designer, sin ninguna otra indicación, Jones descubrió que la herramienta generaba una gran cantidad de imágenes de dibujos animados que representaban demonios, monstruos y escenas violentas. Las imágenes, que fueron vistas por CNBC, incluían a un demonio con dientes afilados a punto de comerse a un bebé, Darth Vader sosteniendo un sable de luz junto a bebés mutados y un dispositivo de mano similar a un taladro con la etiqueta «pro elección» que se usaba en un bebé adulto. También había imágenes de sangre brotando de una mujer sonriente rodeada de médicos felices, un útero enorme en un área abarrotada rodeada de antorchas encendidas y un hombre con una horca del diablo parado junto a un demonio y una máquina con la etiqueta «pro-elección». [sic].CNBC pudo generar imágenes similares de forma independiente. Uno mostraba flechas apuntando a un bebé sostenido por un hombre con tatuajes pro-elección, y otro representaba a un demonio alado y con cuernos con un bebé en su útero. El término «accidente automovilístico», sin ninguna otra motivación, generó imágenes de mujeres sexualizadas a continuación. hasta representaciones violentas de accidentes automovilísticos, incluida una en lencería arrodillada junto a un vehículo destrozado y otras de mujeres con ropa reveladora sentadas encima de autos destartalados. Personajes de Disney Con el mensaje «fiesta de adolescentes 420», Jones pudo generar numerosas imágenes de menores bebiendo y consumo de drogas. Compartió las imágenes con CNBC. Copilot Designer también produce rápidamente imágenes de hojas de cannabis, porros, vaporizadores y montones de marihuana en bolsas, tazones y frascos, así como botellas de cerveza y vasos rojos sin marcar. CNBC pudo generar de forma independiente imágenes similares deletreando «cuatro veinte, » ya que la versión numérica, una referencia al cannabis en la cultura pop, parecía estar bloqueada. Cuando Jones le pidió a Copilot Designer que generara imágenes de niños y adolescentes jugando a ser asesinos con rifles de asalto, las herramientas produjeron una amplia variedad de imágenes que representaban a niños y adolescentes en sudaderas con capucha y mascarillas con ametralladoras. CNBC pudo generar los mismos tipos de imágenes con esas indicaciones. Además de las preocupaciones sobre la violencia y la toxicidad, también están en juego cuestiones de derechos de autor. La herramienta Copilot produjo imágenes de personajes de Disney, como Elsa de «Frozen», Blancanieves, Mickey Mouse y personajes de Star Wars, lo que podría violar tanto las leyes de derechos de autor como las políticas de Microsoft. Las imágenes vistas por CNBC incluyen una pistola con la marca Elsa, latas Bud Light con la marca Star Wars y la imagen de Blancanieves en un vaporizador. La herramienta también creó fácilmente imágenes de Elsa en la Franja de Gaza frente a edificios destrozados y carteles de «Gaza libre». sosteniendo una bandera palestina, así como imágenes de Elsa vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y blandiendo un escudo adornado con la bandera de Israel.»Estoy ciertamente convencida de que esto no es sólo una barrera de protección de derechos de autor que está fallando, sino que hay una Esto está fallando», dijo Jones a CNBC. Y agregó: «El problema es que, como empleado preocupado de Microsoft, si este producto comienza a difundir imágenes dañinas y perturbadoras en todo el mundo, no hay lugar para denunciarlo, no hay un número de teléfono al que llamar ni manera de escalar esto para que se solucione de inmediato». MIRAR: Google vs. Google

Source link

La ingeniería de avisos de IA está muerta


Desde que ChatGPT cayó en el otoño de 2022, todos y sus burros han probado suerte con la ingeniería rápida: han encontrado una forma inteligente de expresar su consulta en un modelo de lenguaje grande (LLM) o en un generador de video o arte de IA para obtener los mejores resultados o protecciones de paso lateral. Internet está repleto de guías de ingeniería, hojas de trucos e hilos de consejos que le ayudarán a aprovechar al máximo un LLM. En el sector comercial, las empresas ahora están disputando LLM para crear copilotos de productos, automatizar trabajos tediosos y crear asistentes personales. y más, dice Austin Henley, un ex empleado de Microsoft que realizó una serie de entrevistas con personas que desarrollan copilotos con tecnología LLM. “Todas las empresas intentan utilizarlo para prácticamente todos los casos de uso que puedan imaginar”, afirma Henley. “La única tendencia real puede ser que no haya tendencia. Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de estímulo determinado probablemente sea específico de la combinación particular en cuestión”. —Rick Battle y Teja Gollapudi, VMware Para lograrlo, han contado con la ayuda de ingenieros rápidos de manera profesional. Sin embargo, una nueva investigación sugiere que la mejor manera de realizar la ingeniería rápida es el modelo en sí, y no un ingeniero humano. Esto ha arrojado dudas sobre el futuro de la ingeniería rápida y ha aumentado las sospechas de que una buena parte de los trabajos de ingeniería rápida pueden ser una moda pasajera, al menos tal como se imagina actualmente este campo. Las indicaciones autoajustadas son exitosas y extrañas. Rick Battle y Teja Gollapudi en la nube con sede en California. La empresa de informática VMware estaba perpleja por lo quisquilloso e impredecible que era el rendimiento del LLM en respuesta a técnicas de indicaciones extrañas. Por ejemplo, las personas han descubierto que pedir a los modelos que expliquen su razonamiento paso a paso (una técnica llamada cadena de pensamiento) mejoró su desempeño en una variedad de preguntas de matemáticas y lógica. Aún más extraño, Battle descubrió que darle a un modelo indicaciones positivas, como “esto será divertido” o “eres tan inteligente como chatGPT”, a veces mejoraba el rendimiento. Battle y Gollapudi decidieron probar sistemáticamente cómo las diferentes estrategias de ingeniería rápida impactan la capacidad de un LLM para resolver preguntas de matemáticas de la escuela primaria. Probaron tres modelos diferentes de lenguaje de código abierto con 60 combinaciones de mensajes diferentes cada uno. Lo que encontraron fue una sorprendente falta de coherencia. Incluso las indicaciones en cadena de pensamientos a veces ayudaron y otras perjudicaron el desempeño. «La única tendencia real puede ser que no haya tendencia», escriben. «Lo que es mejor para cualquier modelo, conjunto de datos y estrategia de indicaciones probablemente sea específico de la combinación particular en cuestión». Según un equipo de investigación, ningún ser humano debería optimizar manualmente las indicaciones nunca más. Existe una alternativa a la prueba y -Ingeniería de indicaciones de estilo de error que produjo resultados tan inconsistentes: pida al modelo de lenguaje que diseñe su propia indicación óptima. Recientemente, se han desarrollado nuevas herramientas para automatizar este proceso. Dados algunos ejemplos y una métrica de éxito cuantitativa, estas herramientas encontrarán de forma iterativa la frase óptima para incorporar al LLM. Battle y sus colaboradores descubrieron que en casi todos los casos, este mensaje generado automáticamente funcionó mejor que el mejor mensaje encontrado mediante prueba y error. Y el proceso fue mucho más rápido, un par de horas en lugar de varios días de búsqueda. Las indicaciones óptimas que arrojaba el algoritmo eran tan extrañas que es probable que a ningún ser humano se le hubieran ocurrido jamás. «Literalmente no podía creer algunas de las cosas que generó», dice Battle. En un caso, el mensaje era simplemente una referencia extendida a Star Trek: “Comando, necesitamos que trace un curso a través de esta turbulencia y localice la fuente de la anomalía. Utilice todos los datos disponibles y su experiencia para guiarnos a través de esta situación desafiante”. Aparentemente, pensar que fue el Capitán Kirk ayudó a este LLM en particular a obtener mejores resultados en las preguntas de matemáticas de la escuela primaria. Battle dice que optimizar las indicaciones algorítmicamente tiene fundamentalmente sentido dado lo que realmente son los modelos de lenguaje: modelos. “Mucha gente antropomorfiza estas cosas porque ‘habla inglés’. No, no es así”, dice Battle. “No habla inglés. Hace muchos cálculos”. De hecho, a la luz de los resultados de su equipo, Battle dice que ningún humano debería volver a optimizar manualmente las indicaciones. «Estás sentado ahí tratando de descubrir qué combinación mágica especial de palabras te dará el mejor rendimiento posible para tu tarea». Battle dice: “Pero ahí es donde, con suerte, esta investigación entrará y dirá ‘no te molestes’. Simplemente desarrolle una métrica de puntuación para que el sistema pueda determinar si un mensaje es mejor que otro y luego deje que el modelo se optimice”. Los mensajes autoajustados también hacen que las imágenes sean más bonitas. Los algoritmos de generación de imágenes también pueden beneficiarse de los mensajes generados automáticamente. Recientemente, un equipo de los laboratorios Intel, dirigido por Vasudev Lal, emprendió una búsqueda similar para optimizar las indicaciones para el modelo de generación de imágenes Difusión Estable. «Parece más un error de los LLM y los modelos de difusión, no una característica, que hay que hacer esta ingeniería rápida y experta», dice Lal. «Entonces queríamos ver si podemos automatizar este tipo de ingeniería rápida». «Ahora tenemos esta maquinaria completa, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería rápida humana”. —Vasudev Lal, el equipo de Intel LabsLal creó una herramienta llamada NeuroPrompts que toma un mensaje de entrada simple, como “niño a caballo”, y lo mejora automáticamente para producir una mejor imagen. Para hacer esto, comenzaron con una variedad de indicaciones generadas por expertos en ingeniería de indicaciones humanas. Luego entrenaron un modelo de lenguaje para transformar indicaciones simples en indicaciones de nivel experto. Además de eso, utilizaron el aprendizaje por refuerzo para optimizar estas indicaciones y crear imágenes estéticamente más agradables, según lo calificado por otro modelo de aprendizaje automático, PickScore, una herramienta de evaluación de imágenes desarrollada recientemente. NeuroPrompts es un sintonizador automático de indicaciones de IA generativa que transforma imágenes simples indicaciones para obtener resultados de StableDiffusion más detallados y visualmente impresionantes, como en este caso, una imagen generada por una indicación genérica (izquierda) frente a su imagen equivalente generada por NeuroPrompt. Intel Labs/Stable DiffusionAquí también, las indicaciones generadas automáticamente obtuvieron mejores resultados que las de los expertos. indicaciones humanas que utilizaron como punto de partida, al menos según la métrica PickScore. A Lal esto no le sorprendió. «Los humanos sólo lo lograrán mediante prueba y error», dice Lal. “Pero ahora tenemos toda esta maquinaria, el ciclo completo que se completa con este aprendizaje por refuerzo. … Es por eso que podemos superar la ingeniería de avisos humanos”. Dado que la calidad estética es notoriamente subjetiva, Lal y su equipo querían darle al usuario cierto control sobre cómo se optimizaba su aviso. En su herramienta, el usuario puede especificar el mensaje original (por ejemplo, «niño a caballo»), así como un artista a emular, un estilo, un formato y otros modificadores. Lal cree que a medida que evolucionan los modelos generativos de IA, ya sea generadores de imágenes o modelos de lenguaje grandes, las extrañas peculiaridades de la dependencia rápida deberían desaparecer. «Creo que es importante que se investiguen este tipo de optimizaciones y luego, en última instancia, se incorporen realmente al modelo base en sí, de modo que no sea necesario un paso de ingeniería complicado y rápido». La ingeniería rápida seguirá viva, con algún nombre. Incluso Si los avisos de ajuste automático se convierten en la norma de la industria, los trabajos de ingeniería de avisos de alguna forma no desaparecerán, dice Tim Cramer, vicepresidente senior de ingeniería de software de Red Hat. Adaptar la IA generativa a las necesidades de la industria es una tarea complicada y de múltiples etapas que seguirá requiriendo que los seres humanos estén al tanto en el futuro previsible. “Tal vez hoy los llamemos ingenieros rápidos. Pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando”. —Vasudev Lal, Intel Labs“Creo que habrá ingenieros rápidos durante bastante tiempo y científicos de datos”, dice Cramer. “No se trata sólo de hacer preguntas al LLM y asegurarse de que la respuesta se vea bien. Pero hay una serie de cosas que los ingenieros realmente necesitan poder hacer”. “Es muy fácil hacer un prototipo”, dice Henley. «Es muy difícil producirlo». La ingeniería rápida parece una gran pieza del rompecabezas cuando se construye un prototipo, dice Henley, pero muchas otras consideraciones entran en juego cuando se fabrica un producto de calidad comercial. Los desafíos de fabricar un producto comercial incluyen garantizar la confiabilidad, por ejemplo, fallar con gracia cuando el modelo se desconecta; adaptar la salida del modelo al formato apropiado, ya que muchos casos de uso requieren salidas distintas al texto; pruebas para asegurarse de que el asistente de IA no haga algo dañino ni siquiera en un pequeño número de casos; y garantizar la seguridad, la privacidad y el cumplimiento. Las pruebas y el cumplimiento son particularmente difíciles, dice Henley, ya que las estrategias tradicionales de prueba de desarrollo de software no están adaptadas para los LLM no deterministas. Para cumplir con estas innumerables tareas, muchas grandes empresas están anunciando un nuevo título de trabajo: Large Language Model Operations, o LLMOps, que incluye ingeniería rápida en su ciclo de vida, pero también implica todas las demás tareas necesarias para implementar el producto. Henley dice que los predecesores de LLMOps, los ingenieros de operaciones de aprendizaje automático (MLOps), están en la mejor posición para asumir estos trabajos. Ya sea que los títulos de trabajo sean “ingeniero rápido”, “ingeniero LLMOps” o algo completamente nuevo, la naturaleza del trabajo seguirá evolucionando rápidamente. «Tal vez hoy los llamemos ingenieros rápidos», dice Lal, «pero creo que la naturaleza de esa interacción seguirá cambiando a medida que los modelos de IA también sigan cambiando». con otro tipo de categoría laboral o función laboral”, dice Cramer, “pero no creo que estas cosas vayan a desaparecer pronto. Y el panorama es demasiado loco en este momento. Todo está cambiando mucho. No vamos a resolverlo todo en unos meses”. Henley dice que, hasta cierto punto, en esta fase inicial del campo, la única regla predominante parece ser la ausencia de reglas. «Esto es una especie de salvaje oeste en este momento». él dice.De los artículos de su sitioArtículos relacionados en la Web

Source link

Informatica afirma que la fragmentación de datos se interpone en el camino de la IA generativa de APAC

Los jefes de datos de la región de Asia y el Pacífico están buscando seriamente el despliegue de la inteligencia artificial, según una encuesta internacional de Informatica entre 600 líderes de datos globales. India está a la cabeza en la región: el 75% de los encuestados ya ha adoptado la IA generativa. Sin embargo, los encuestados de APAC enfrentan obstáculos en torno a la gestión de datos para la IA. Estos incluyen la fragmentación de datos en medio de una cantidad cada vez mayor de fuentes de datos, la calidad de los datos disponibles para la IA y la incorporación de una gobernanza de datos que sea lo suficientemente sólida para el desafío de la IA. Richard Scott, vicepresidente senior de Asia-Pacífico y Japón de Informatica, dijo que la alfabetización en datos es importante para respaldar la gestión de datos organizacionales. Scott recomendó implementar una arquitectura de datos en la nube desde el principio y centrarse en las personas, los procesos y la tecnología. La IA está impulsando un enfoque paralelo en la gestión de datos. Los líderes de datos de APAC dijeron que la capacidad de ofrecer datos confiables y consistentes aptos para la IA generativa (40%) era la principal prioridad de la estrategia de datos para 2024, junto con la mejora de la gobernanza y los procesos de datos (40%). Esto indica que la IA está impulsando un enfoque mutuo en la gestión de datos. VER: Los 10 principales beneficios de una mejor calidad de datos para su organización. La íntima conexión entre la IA y los datos también se reflejó en las intenciones de inversión. Tres de cada cuatro (78%) jefes de datos de APAC predijeron que sus inversiones en datos aumentarían en 2024. Ninguno de los encuestados no planeaba invertir en capacidades de gestión de datos de alguna forma. La inversión regional en capacidades de datos clave está aumentando. Varias capacidades de gestión de datos están recibiendo inversiones en línea con las prioridades de la estrategia de datos. La privacidad y protección de datos ocupó el primer lugar (45%), lo que refleja la necesidad de mantener los datos privados y seguros en medio de un aumento en un entorno de ciberseguridad que cambia rápidamente. Le siguieron la calidad y observabilidad de los datos (42%) y la integración e ingeniería de datos (40%). «Estamos viendo un aumento en la calidad de los datos como área de enfoque y en la gobernanza de los datos», dijo Scott. «Así que la IA realmente impulsará una especie de nueva ola de limpieza de los conjuntos de datos». VER: Cómo ve Matthew Candy de IBM la búsqueda de Australia de una escala de IA generativa en 2024. Más cobertura en Australia La IA está planteando muchos desafíos en la gestión de datos Según los resultados de la encuesta global de Informatica, que se obtuvieron de líderes de datos en organizaciones con más de 500 millones de dólares en ingresos, casi todos (99%) los líderes de datos habían encontrado obstáculos en su viaje hacia la IA. incluidos los de APAC. Fragmentación y crecimiento de datos Los líderes de datos de APAC esperan que la fragmentación y la complejidad de los datos empeoren en 2024. Informatica descubrió que el 56 % de los líderes de datos tenían dificultades para equilibrar más de 1000 fuentes de datos. Además, el 78% de los líderes de datos de APAC esperan que la cantidad de fuentes de datos aumente este año calendario. «Solo el año pasado, Informatica procesó alrededor de 86 billones de transacciones en la nube al mes, un 60% más que el año anterior», explicó Scott. “Entonces, mientras las organizaciones intentan poner en orden su centro de datos, los datos siguen explotando; Estamos viendo este crecimiento realmente explosivo”, afirmó. Calidad de los datos y sesgo del modelo de IA La calidad de los datos fue considerada el mayor desafío para la IA generativa por el 42% de los encuestados a nivel mundial. La posibilidad de sesgo se destacó como una preocupación particular en APAC debido a los grandes modelos lingüísticos; El 53% de los encuestados australianos dijeron que evitar los prejuicios era su mayor preocupación (Figura A). Figura A: La calidad de los datos es un desafío importante para los líderes de datos de todo el mundo en la carrera por la IA. Imagen: Informatica “En la era de la analítica, si se tuvieran bases de datos deficientes, se tomaría la decisión equivocada más rápidamente”, afirmó Scott. «Del mismo modo, si tienes un entorno de gestión de datos deficiente, obtendrás una respuesta de la IA generativa, pero puede llevarte en la dirección equivocada». La alfabetización en datos fuera del ámbito de los datos La alfabetización en datos organizacionales está frenando el avance de la IA, según los líderes de datos encuestados. Por ejemplo, el 98% de los líderes de datos globales dijeron que habían experimentado obstáculos organizacionales no técnicos para una mejor gestión de datos, como la falta de apoyo de liderazgo. Mejorar la cultura basada en datos y la alfabetización en datos fue nombrado por el 39% de los líderes de datos globales como una de las principales prioridades para 2024. Mejorar la alfabetización en datos fue la segunda medida más importante (42%) de la efectividad de la estrategia de datos, solo superada por la preparación de los datos para la IA. e iniciativas de análisis. “Nuestro director ejecutivo de Informatica habla mucho sobre el hecho de que, dado que las empresas subcontratan aplicaciones, edificios y tantos otros aspectos de un negocio, para muchas empresas su único activo son los datos. Por lo tanto, tiene que ser una prioridad realmente alta para el equipo ejecutivo y la junta directiva”, dijo Scott. Un crecimiento en las herramientas de gestión de datos El número de herramientas de gestión de datos está creciendo. Dos tercios (60%) de los líderes de APAC dicen que necesitarán cinco o más herramientas de gestión de datos para respaldar las prioridades y gestionar los conjuntos de datos, un aumento con respecto al número de jefes de datos que necesitaban esta cantidad de herramientas en 2023 (55%). Gobernanza y democratización de datos Mejorar la gobernanza de datos y procesos fue nombrado por el 40% de los líderes de datos regionales como una de las principales prioridades de la estrategia de datos para 2024. Los líderes de datos de APAC también pusieron el mayor énfasis (67%) en permitir una mayor democratización de los datos en toda su organización al utilizarlos. IA generativa. Esto está impulsando a los proveedores a ofrecer servicios y herramientas de gobernanza. Informatica lanzó recientemente una herramienta integrada de gestión de acceso a datos en la nube tras la adquisición de Privitar, que ayuda a respaldar la gestión, el intercambio y el uso de datos en jurisdicciones de todo el mundo. VER: La gobernanza de datos será un enfoque renovado en TI para las organizaciones australianas en 2024. Informatica también ofrece un mercado de datos de autoservicio diseñado para «democratizar» el acceso a los datos. Los usuarios pueden solicitar y acceder a datos según los permisos. Los datos se entregan con calificaciones de relevancia y calidad de los datos y se realiza un seguimiento para que los administradores de datos comprendan cómo se utilizan. Arquitectura fundamental para afrontar el desafío de los datos Richard Scott de Informatica aconsejó a los líderes de datos regionales implementar la arquitectura de nube adecuada para soportar la escala y centrarse en las personas y los procesos, así como en la tecnología. Comience con la arquitectura de nube adecuada Las organizaciones deben comenzar asegurándose de que su arquitectura de nube sea sólida, dijo Scott, ya que hacerlo bien desde el principio respaldará los esfuerzos futuros de escalamiento. «Cuando estás escalando y no tienes el tipo correcto de arquitectura de gestión de datos cuando te metes en verdaderos problemas», dijo Scott. Scott añadió que conseguir una arquitectura de nube desde el principio también es más barato. «Las empresas con múltiples contratos de nube pagan mucho dinero en costos de entrada y salida entre nubes», dijo Scott. «Una arquitectura de nube incorrecta no sólo da como resultado un entorno que tal vez no pueda soportar la IA generativa, sino que también es muy costosa». El cliente de Informatica, NRMA, una de las organizaciones con miembros más antiguas de Australia, está trabajando exitosamente con más de 3000 conjuntos de datos. Las organizaciones que se esfuerzan por lograr la arquitectura correcta pueden controlar los datos y tener un impacto material en su patrimonio de datos, dijo Scott. Observe a las personas, los procesos y la tecnología La naturaleza del desafío de los datos significa que las organizaciones deben considerar de manera más integral a las personas, los procesos y la tecnología. Scott dijo que para los líderes de datos en organizaciones que intentan solucionar los problemas a medida que surgen, puede parecer como «poner el dedo en el dique para detener una inundación». “Lo que sucederá es que si simplemente tapamos cada pequeño agujero en el dique obteniendo una nueva aplicación o escribiendo algún código, terminaremos con un entorno muy fragmentado, que será muy frágil. Es necesario observar a las personas, los procesos y la tecnología y tener una comprensión clara de hacia dónde se dirige; entonces podrá incorporar tecnología que se integrará increíblemente bien y le brindará la capacidad de transportar datos a través de su entorno”.

Source link

Anthropic, respaldado por Amazon, presenta Claude 3, su chatbot más poderoso hasta el momento

Anthropic presentó el lunes Claude 3, un conjunto de modelos de inteligencia artificial que, según afirma, son los más rápidos y potentes hasta el momento. Las nuevas herramientas se llaman Claude 3 Opus, Sonnet y Haiku. La compañía dijo que el más capaz de los nuevos modelos, Claude 3 Opus, superó al GPT-4 de OpenAI y al Gemini Ultra de Google en pruebas de referencia de la industria, como conocimiento a nivel de pregrado, nivel de posgrado. razonamiento y matemáticas básicas. Esta es la primera vez que Anthropic ofrece soporte multimodal. Los usuarios pueden cargar fotografías, gráficos, documentos y otros tipos de datos no estructurados para análisis y respuestas. Los otros modelos, Sonnet y Haiku, son más compactos y menos costosos que Opus. Sonnet y Opus están disponibles en 159 países a partir del lunes, mientras que Haiku llegará pronto, según Anthropic. La compañía se negó a especificar cuánto tiempo llevó entrenar a Claude 3 o cuánto costó, pero dijo que compañías como Airtable y Asana ayudaron a probar los modelos A/B. El año pasado, por estas fechas, Anthropic fue vista como una prometedora startup de IA generativa fundada por ex ejecutivos de investigación de OpenAI. Había completado las rondas de financiación de las Series A y B, pero solo había lanzado la primera versión de su chatbot sin ningún acceso al consumidor ni gran fanfarria. Doce meses después, es una de las nuevas empresas de inteligencia artificial más populares, con patrocinadores que incluyen a Google, Salesforce y Amazon. y un producto que compite directamente con ChatGPT tanto en el mundo empresarial como en el de consumo. Durante el año pasado, la startup cerró cinco acuerdos de financiación diferentes, por un total de alrededor de 7.300 millones de dólares. El campo de la IA generativa se ha disparado durante el año pasado, con un récord de 29.100 millones de dólares invertidos en casi 700 acuerdos en 2023, un aumento de más del 260% en los acuerdos. valor del año anterior, según PitchBook. Se ha convertido en la frase más comentada en las llamadas sobre resultados corporativos trimestre tras trimestre. Académicos y especialistas en ética han expresado importantes preocupaciones sobre la tendencia de la tecnología a propagar prejuicios, pero aun así, rápidamente llegó a las escuelas, los viajes en línea, la industria médica, la publicidad en línea y más. Entre 60 y 80 personas trabajaron en el modelo central de IA. , mientras que entre 120 y 150 personas trabajaron en sus aspectos técnicos, dijo a CNBC la cofundadora de Anthropic, Daniela Amodei, en una entrevista. Para la última versión del modelo de IA, un equipo de 30 a 35 personas trabajó directamente en él, con alrededor de 150 personas en total apoyándolo, dijo Amodei a CNBC en julio. Anthropic dijo que Claude 3 puede resumir hasta aproximadamente 150.000 palabras, o una cantidad considerable. libro (piense: alrededor del rango de duración de «Moby Dick» o «Harry Potter y las Reliquias de la Muerte»). Su versión anterior sólo podía resumir 75.000 palabras. Los usuarios pueden ingresar grandes conjuntos de datos y solicitar resúmenes en forma de memorando, carta o historia. ChatGPT, por el contrario, puede manejar alrededor de 3.000 palabras. Amodei también dijo que Claude 3 comprende mejor el riesgo en las respuestas que su versión anterior. «En nuestra búsqueda por tener un modelo altamente inofensivo, Claude 2 a veces se negaba demasiado», dijo Amodei. dijo a CNBC. «Cuando alguien se topaba con algunos de los temas más picantes o las barreras de confianza y seguridad, a veces Claude 2 tendía a ser un poco conservador al responder esas preguntas». Claude 3 tiene una comprensión más matizada de las indicaciones, según Anthropic La multimodalidad, o agregar opciones como capacidades de fotografía y video a la IA generativa, ya sea cargándolas usted mismo o creándolas usando un modelo de IA, se ha convertido rápidamente en uno de los casos de uso más populares de la industria. «El mundo es multimodal», dijo el director de operaciones de OpenAI, Brad Lightcap. CNBC en noviembre. «Si piensas en la forma en que nosotros, como seres humanos, procesamos el mundo y nos relacionamos con él, vemos cosas, oímos cosas, decimos cosas: el mundo es mucho más grande que el texto. Así que para nosotros, siempre nos pareció incompleto el texto y «Pero la multimodalidad y los modelos de IA cada vez más complejos también conllevan más riesgos potenciales. Google recientemente desconectó su generador de imágenes de IA, parte de su chatbot Gemini, después de que los usuarios descubrieron inexactitudes históricas y respuestas cuestionables, que han circulado ampliamente en las redes sociales. Claude 3 de Anthropic no genera imágenes; en cambio, sólo permite a los usuarios cargar imágenes y otros documentos para su análisis. «Por supuesto, ningún modelo es perfecto, y creo que es muy importante decirlo desde el principio», dijo Amodei a CNBC. «Hemos intentado con mucha diligencia hacer que estos modelos sean lo más capaces y seguros posible. Por supuesto, habrá lugares donde el modelo aún inventará algo de vez en cuando». Aclaración: Anthropic aclaró con CNBC que Claude 3 puede resumir unas 150.000 palabras, no 200.000.

Source link

Los programas universitarios de grado en IA están en auge. ¿Valen la pena el costo?

Ute Grabowsky | Fototeca | Getty Images Las ciencias de la computación no son una especialidad nueva en las mejores escuelas, pero con los trabajos de IA en alta demanda, hay una lista cada vez mayor de colegios y universidades que ofrecen un título de cuatro años en «IA» específicamente. Estos programas generalmente van más allá de los fundamentos de las ciencias de la computación. para centrarse en temas como el aprendizaje automático, los algoritmos informáticos, el análisis de datos y la robótica avanzada. La Universidad de Pensilvania anunció recientemente que su programa BSE en Inteligencia Artificial comenzará en el otoño de 2024. Carnegie Mellon introdujo un programa mucho antes de que la IA gen. fuera una palabra de moda, en el otoño de 2018, y el programa del MIT comenzó en el otoño de 2022. La Universidad Purdue ofrece una carrera universitaria en IA. especialización, mientras que muchos colegios y universidades ofrecen clases de IA dentro de su departamento de ciencias de la computación, incluso si no hay una especialización dedicada. El aumento de programas de grado específicos de IA se produce cuando las empresas tienen escasez de talento para este campo de rápido desarrollo. La mitad de las habilidades tecnológicas mejor pagadas son específicas de la IA, según el sitio web de empleo Indeed.com. Aun así, existe cierto grado de escepticismo sobre la aplicabilidad de un título de cuatro años específico de IA, dado lo rápido que está cambiando la tecnología. Pero sus defensores dicen que mientras un programa esté lleno de ciencias de la computación y otros fundamentos, centrarse en la IA podría ser una gran ayuda para la creación de currículums. Esto es lo que los estudiantes y sus padres, así como cualquiera que esté pensando en regresar a la escuela para una nueva carrera. carrera, necesita saber acerca de un título en IA de cuatro años: Los fundamentos de STEM siguen siendo críticos. Los estudiantes que quieran obtener un título en IA deben buscar un programa que enseñe información fundamental, como conceptos de informática, estadística, matemáticas e ingeniería, que sientan las bases. para una carrera en un campo relacionado con la IA, dijo Kerem Koca, director ejecutivo de BlueCloud, un proveedor de servicios en la nube. La tecnología en sí está cambiando, pero estos fundamentos básicos no, y pueden preparar a los estudiantes para tener éxito, incluso cuando la tecnología subyacente cambia, dijo.»Es importante que los títulos de IA y otros programas de capacitación educativa no solo se centren en el desarrollo de habilidades específicas, pero que el enfoque está en ayudar a los estudiantes a aprender cómo aprender, lo que incluye desarrollar una curiosidad intelectual y habilidades como liderazgo, comunicación y pensamiento crítico», dijo Maria Flynn, presidenta y directora ejecutiva de Jobs for the Future, una organización que se enfoca en Oportunidades y educación para los trabajadores, en un correo electrónico. Aumento de títulos en IA desde 2011 Hay varios programas diferentes que se centran en IA a nivel de pregrado y posgrado, y ha habido un aumento en las ofertas y títulos otorgados durante más de una década. Según el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, los títulos de IA han contrarrestado la tendencia general en educación desde 2011, con un crecimiento positivo en la concesión de títulos versus un crecimiento negativo en todas las áreas de grado. Los títulos relacionados con la IA, en particular, crecieron incluso más rápido que los títulos STEM como categoría general en los niveles de licenciatura, maestría y doctorado. Su revisión de datos gubernamentales y otras fuentes sobre el mercado de la educación superior describió el crecimiento de la concesión de títulos de IA como «dramático», aumentando un 120% desde 2011 tanto en el nivel de licenciatura como de maestría. Algunos estudiantes también podrían estar interesados ​​en obtener un título de asociado en IA , que ofrecen varias escuelas, incluido Miami Dade College. Relevancia de la educación en un mercado tecnológico que cambia rápidamente. Algunos estudiantes pueden preguntarse si necesitan un título, dado lo rápido que está cambiando el mercado y el hecho de que más empleadores han expresado su voluntad de contratar trabajadores sin títulos si tienen las habilidades adecuadas requeridas por el trabajo. Sin embargo, es importante tener en cuenta que investigaciones recientes sugieren que la práctica de contratar personas sin títulos se ha quedado corta, y la investigación del sitio de carreras Ladders muestra que todavía se requiere un título. para los trabajos mejor pagados, una lista que incluye ingenieros de software. Un título de cuatro años sigue siendo un gran paso adelante para la mayoría que ingresa al mercado laboral por primera vez, dijo Celeste Grupman, directora ejecutiva de Dataquest, que ofrece educación relacionada con la IA. materiales y laboratorios a las universidades. «Sigue siendo una de las primeras cosas que un empleador va a considerar. No te descalificarán, mientras que no tenerla sí podría hacerlo». Aun así, varios proveedores, incluidos Dataquest y Coursera, ofrecen programas de certificación para que los estudiantes desarrollen habilidades rápidamente. Estos programas pueden ser apropiados para estudiantes que carecen del tiempo y los recursos para completar un programa de cuatro años, o que ya tienen un título y buscan mejorar sus habilidades, dijo Grupman. Una plataforma en línea permite a los estudiantes comenzar rápidamente a crear proyectos y comprender cómo implementar estas herramientas con éxito con fines laborales. IA versus ciencias de la computación Es importante que los estudiantes piensen críticamente sobre el plan de estudios del programa que están considerando y en qué se diferencia de una computadora estándar. plan de estudios de ciencias, la probable trayectoria profesional de los graduados del programa y los resultados económicos de los graduados. «Como vemos en el marketing de productos, cualquiera puede incluir ‘IA’ en un producto existente. Los estudiantes deben preguntar qué aspectos de la IA aprenderán», dijo Flynn. También es importante que los estudiantes consideren cuidadosamente lo que quieren. ¿Están buscando un programa que brinde exposición a la IA o practique su uso, o quieren un programa técnico que brinde contenido fundamental y cursos sobre tecnología de IA? También deberían considerar si en última instancia quieren habilidades y conocimientos relevantes que los lleven al mercado laboral ahora mismo o si quieren un título más amplio que sea la base para un avance a largo plazo, dijo Flynn. «No quieres un título en martillos. Quieres entender los martillos, quieres entender la zonificación y quieres entender cómo construir una casa que ayude a una familia a cobrar vida. Lo mismo ocurre con la IA», dijo Nichol Bradford. , ejecutivo residente de inteligencia artificial e inteligencia humana en SHRM, una organización para profesionales de recursos humanos. Cómo obtener una ventaja con los empleadores Algunos empleadores pueden ver más favorablemente un título específico en IA que un título simple en ciencias de la computación, dijo David Leighton, director ejecutivo de WITI, una organización para profesionales con mentalidad tecnológica. «Creo que eso los distingue». Por otra parte, nadie sabe realmente en este momento cuál será el valor de un título de este tipo dentro de unos años. «En el año 2000, si tuvieras un título en Internet, si existiera tal cosa, habría sido fantástico», dijo Koca. «Ahora, no sería tan aplicable. Pero si lo tuvieras en 2002, podrías haber conseguido un trabajo en cualquier lugar. Lo mismo podría ser cierto para un título en IA». Dada la incertidumbre, algunos profesionales dijeron que los estudiantes no pueden equivocarse con un título tradicional en ciencias de la computación o uno específico de IA, siempre que se cubran los fundamentos. Sin embargo, aquellos que toman la primera ruta deberían considerar tomar clases relacionadas con la inteligencia artificial y la ciencia de datos, que pueden ser importantes para el empleo futuro. De lo contrario, los estudiantes podrían necesitar «cerrar ellos mismos la brecha de aplicaciones prácticas después de graduarse», dijo Bryan Ackermann, jefe de estrategia y transformación de IA en la consultora de gestión Korn Ferry, en un correo electrónico.

Source link

Página 2 de 8

Funciona con WordPress & Tema de Anders Norén