Anthropic presentó el lunes Claude 3, un conjunto de modelos de inteligencia artificial que, según afirma, son los más rápidos y potentes hasta el momento. Las nuevas herramientas se llaman Claude 3 Opus, Sonnet y Haiku. La compañía dijo que el más capaz de los nuevos modelos, Claude 3 Opus, superó al GPT-4 de OpenAI y al Gemini Ultra de Google en pruebas de referencia de la industria, como conocimiento a nivel de pregrado, nivel de posgrado. razonamiento y matemáticas básicas. Esta es la primera vez que Anthropic ofrece soporte multimodal. Los usuarios pueden cargar fotografías, gráficos, documentos y otros tipos de datos no estructurados para análisis y respuestas. Los otros modelos, Sonnet y Haiku, son más compactos y menos costosos que Opus. Sonnet y Opus están disponibles en 159 países a partir del lunes, mientras que Haiku llegará pronto, según Anthropic. La compañía se negó a especificar cuánto tiempo llevó entrenar a Claude 3 o cuánto costó, pero dijo que compañías como Airtable y Asana ayudaron a probar los modelos A/B. El año pasado, por estas fechas, Anthropic fue vista como una prometedora startup de IA generativa fundada por ex ejecutivos de investigación de OpenAI. Había completado las rondas de financiación de las Series A y B, pero solo había lanzado la primera versión de su chatbot sin ningún acceso al consumidor ni gran fanfarria. Doce meses después, es una de las nuevas empresas de inteligencia artificial más populares, con patrocinadores que incluyen a Google, Salesforce y Amazon. y un producto que compite directamente con ChatGPT tanto en el mundo empresarial como en el de consumo. Durante el año pasado, la startup cerró cinco acuerdos de financiación diferentes, por un total de alrededor de 7.300 millones de dólares. El campo de la IA generativa se ha disparado durante el año pasado, con un récord de 29.100 millones de dólares invertidos en casi 700 acuerdos en 2023, un aumento de más del 260% en los acuerdos. valor del año anterior, según PitchBook. Se ha convertido en la frase más comentada en las llamadas sobre resultados corporativos trimestre tras trimestre. Académicos y especialistas en ética han expresado importantes preocupaciones sobre la tendencia de la tecnología a propagar prejuicios, pero aun así, rápidamente llegó a las escuelas, los viajes en línea, la industria médica, la publicidad en línea y más. Entre 60 y 80 personas trabajaron en el modelo central de IA. , mientras que entre 120 y 150 personas trabajaron en sus aspectos técnicos, dijo a CNBC la cofundadora de Anthropic, Daniela Amodei, en una entrevista. Para la última versión del modelo de IA, un equipo de 30 a 35 personas trabajó directamente en él, con alrededor de 150 personas en total apoyándolo, dijo Amodei a CNBC en julio. Anthropic dijo que Claude 3 puede resumir hasta aproximadamente 150.000 palabras, o una cantidad considerable. libro (piense: alrededor del rango de duración de «Moby Dick» o «Harry Potter y las Reliquias de la Muerte»). Su versión anterior sólo podía resumir 75.000 palabras. Los usuarios pueden ingresar grandes conjuntos de datos y solicitar resúmenes en forma de memorando, carta o historia. ChatGPT, por el contrario, puede manejar alrededor de 3.000 palabras. Amodei también dijo que Claude 3 comprende mejor el riesgo en las respuestas que su versión anterior. «En nuestra búsqueda por tener un modelo altamente inofensivo, Claude 2 a veces se negaba demasiado», dijo Amodei. dijo a CNBC. «Cuando alguien se topaba con algunos de los temas más picantes o las barreras de confianza y seguridad, a veces Claude 2 tendía a ser un poco conservador al responder esas preguntas». Claude 3 tiene una comprensión más matizada de las indicaciones, según Anthropic La multimodalidad, o agregar opciones como capacidades de fotografía y video a la IA generativa, ya sea cargándolas usted mismo o creándolas usando un modelo de IA, se ha convertido rápidamente en uno de los casos de uso más populares de la industria. «El mundo es multimodal», dijo el director de operaciones de OpenAI, Brad Lightcap. CNBC en noviembre. «Si piensas en la forma en que nosotros, como seres humanos, procesamos el mundo y nos relacionamos con él, vemos cosas, oímos cosas, decimos cosas: el mundo es mucho más grande que el texto. Así que para nosotros, siempre nos pareció incompleto el texto y «Pero la multimodalidad y los modelos de IA cada vez más complejos también conllevan más riesgos potenciales. Google recientemente desconectó su generador de imágenes de IA, parte de su chatbot Gemini, después de que los usuarios descubrieron inexactitudes históricas y respuestas cuestionables, que han circulado ampliamente en las redes sociales. Claude 3 de Anthropic no genera imágenes; en cambio, sólo permite a los usuarios cargar imágenes y otros documentos para su análisis. «Por supuesto, ningún modelo es perfecto, y creo que es muy importante decirlo desde el principio», dijo Amodei a CNBC. «Hemos intentado con mucha diligencia hacer que estos modelos sean lo más capaces y seguros posible. Por supuesto, habrá lugares donde el modelo aún inventará algo de vez en cuando». Aclaración: Anthropic aclaró con CNBC que Claude 3 puede resumir unas 150.000 palabras, no 200.000.
Source link
Etiqueta: inteligencia artificial Página 7 de 17
Cada vez que usas tu voz para generar un mensaje en un teléfono móvil Samsung Galaxy o activas un dispositivo Google Home, estás usando herramientas que Chanwoo Kim ayudó a desarrollar. El ex vicepresidente ejecutivo de los Centros Globales de IA de Samsung Research se especializa en reconocimiento de voz de un extremo a otro, herramientas de conversión de texto a voz de un extremo a otro y modelado de lenguaje. «La parte más gratificante de mi carrera es ayudar a desarrollar tecnologías que mis amigos y familiares usan y disfrutan», dice Kim. Recientemente dejó Samsung para continuar su trabajo en el campo en la Universidad de Corea, en Seúl, dirigiendo el laboratorio de procesamiento del habla y el lenguaje de la escuela. Profesor de inteligencia artificial, dice que le apasiona enseñar a la próxima generación de líderes tecnológicos. «Estoy emocionado de tener mi propio laboratorio en la escuela y guiar a los estudiantes en la investigación», dice. Llevar Google Home al mercado Cuando Amazon anunció en 2014 que estaba desarrollando parlantes inteligentes con tecnología de asistencia de inteligencia artificial, un dispositivo ahora conocido como Echo, Google decidió desarrollar su propia versión. Kim vio un papel por su experiencia en el esfuerzo: tiene un doctorado. en lenguaje y tecnología de la información de Carnegie Mellon, y se especializó en reconocimiento de voz robusto. Amigos suyos que trabajaban en proyectos de este tipo en Google en Mountain View, California, lo animaron a postularse para un trabajo de ingeniería de software allí. Dejó Microsoft en Seattle, donde había trabajado durante tres años como ingeniero de desarrollo de software y científico del habla. Después de unirse al equipo de modelado acústico de Google en 2013, trabajó para garantizar que la tecnología de asistencia de inteligencia artificial de la compañía, utilizada en los productos Google Home, pudiera funcionar en presencia de ruido de fondo. Chanwoo Kim Empleador Universidad de Corea en Seúl Título Director del laboratorio de procesamiento del habla y el lenguaje y profesor de inteligencia artificial Miembro de grado Miembro alma maters Universidad Nacional de Seúl; Carnegie Mellon Lideró un esfuerzo para mejorar los algoritmos de reconocimiento de voz de Google Home, incluido el uso de modelado acústico, que permite que un dispositivo interprete la relación entre el habla y los fonemas (unidades fonéticas en los idiomas). «Cuando las personas utilizaban la función de reconocimiento de voz en sus teléfonos móviles, se encontraban como máximo a un metro de distancia del dispositivo», afirma. «Para el orador, mi equipo y yo teníamos que asegurarnos de que entendiera al usuario cuando hablaba a mayor distancia». Kim propuso utilizar un aumento de datos a gran escala que simule datos de voz de campo lejano para mejorar las capacidades de reconocimiento de voz del dispositivo. El aumento de datos analiza los datos de entrenamiento recibidos y genera artificialmente datos de entrenamiento adicionales para mejorar la precisión del reconocimiento. Sus contribuciones permitieron a la empresa lanzar su primer producto Google Home, un altavoz inteligente, en 2016. «Fue una experiencia realmente gratificante», afirma. Ese mismo año, Kim ascendió a ingeniero de software senior y continuó mejorando los algoritmos utilizados por Google Home para el aumento de datos a gran escala. También desarrolló tecnologías para reducir el tiempo y la potencia informática utilizados por la red neuronal y mejorar la formación de haces de múltiples micrófonos para el reconocimiento de voz de campo lejano. Kim, que creció en Corea del Sur, extrañaba a su familia y en 2018 regresó y se unió a Samsung como vicepresidente de su Centro de IA en Seúl. Cuando se unió a Samsung, su objetivo era desarrollar motores de reconocimiento de voz de extremo a extremo y de reconocimiento de texto a voz para los productos de la empresa, centrándose en el procesamiento en el dispositivo. Para ayudarlo a alcanzar sus objetivos, fundó un laboratorio de procesamiento de voz y dirigió un equipo de investigadores que desarrollaron redes neuronales para reemplazar los sistemas convencionales de reconocimiento de voz que entonces usaban los dispositivos de inteligencia artificial de Samsung. «La parte más gratificante de mi trabajo es ayudar a desarrollar tecnologías que mis amigos y familiares usan y disfrutan». Esos sistemas incluían un modelo acústico, un modelo de lenguaje, un modelo de pronunciación, un transductor de estado finito ponderado y un normalizador de texto inverso. El modelo de lenguaje analiza la relación entre las palabras pronunciadas por el usuario, mientras que el modelo de pronunciación actúa como un diccionario. El normalizador de texto inverso, utilizado con mayor frecuencia por las herramientas de conversión de texto a voz en los teléfonos, convierte la voz en expresiones escritas. Debido a que los componentes eran voluminosos, no fue posible desarrollar un sistema preciso de reconocimiento de voz en el dispositivo utilizando tecnología convencional, dice Kim. Una red neuronal de extremo a extremo completaría todas las tareas y “simplificaría enormemente los sistemas de reconocimiento de voz”, afirma. chanwoo kim [top row, seventh from the right] con algunos de los miembros de su laboratorio de procesamiento del habla en Samsung Research. Chanwoo Kim He y su equipo utilizaron un enfoque basado en la atención en streaming para desarrollar su modelo. Una secuencia de entrada (las palabras habladas) se codifica y luego se decodifica en una secuencia objetivo con la ayuda de un vector de contexto, una representación numérica de palabras generada por un modelo de aprendizaje profundo previamente entrenado para traducción automática. El modelo se comercializó en 2019 y ahora forma parte del teléfono Galaxy de Samsung. Ese mismo año se comercializó una versión en la nube del sistema que es utilizada por el asistente virtual del teléfono, Bixby. El equipo de Kim continuó mejorando los sistemas de reconocimiento de voz y texto a voz en otros productos y cada año comercializaban un nuevo motor. Incluyen los coeficientes cepstrales normalizados por potencia, que mejoran la precisión del reconocimiento de voz en entornos con perturbaciones como ruido aditivo, cambios en la señal, múltiples hablantes y reverberación. Suprime los efectos del ruido de fondo mediante el uso de estadísticas para estimar las características. Ahora se utiliza en una variedad de productos Samsung, incluidos aires acondicionados, teléfonos móviles y aspiradoras robóticas. Samsung ascendió a Kim en 2021 a vicepresidente ejecutivo de sus seis Centros Globales de IA, ubicados en Cambridge, Inglaterra; Montréal; Seúl; Silicon Valley; Nueva York; y Toronto. En ese cargo, supervisó la investigación sobre la incorporación de inteligencia artificial y aprendizaje automático en los productos Samsung. Es la persona más joven en ser vicepresidente ejecutivo de la empresa. También dirigió el desarrollo de los modelos generativos de lenguaje grande de Samsung, que evolucionaron en Samsung Gauss. El conjunto de modelos generativos de IA puede generar código, imágenes y texto. En marzo dejó la empresa para incorporarse a la Universidad de Corea como profesor de inteligencia artificial, lo cual es un sueño hecho realidad, afirma. «Cuando comencé mi trabajo de doctorado, mi sueño era seguir una carrera en el mundo académico», dice Kim. «Pero después de obtener mi doctorado, me sentí atraído por el impacto que mi investigación podría tener en productos reales, así que decidí dedicarme a la industria». Dice que estaba entusiasmado de unirse a la Universidad de Corea, ya que “tiene una fuerte presencia en inteligencia artificial” y es una de las mejores universidades del país. Kim dice que su investigación se centrará en los modelos del habla generativa, el procesamiento multimodal y la integración del habla generativa con los modelos del lenguaje. Persiguiendo su sueño en Carnegie Mellon El padre de Kim era ingeniero eléctrico y, desde muy joven, Kim quiso seguir sus pasos, dice. Asistió a una escuela secundaria centrada en las ciencias en Seúl para comenzar a aprender temas de ingeniería y programación. Obtuvo su licenciatura y maestría en ingeniería eléctrica de la Universidad Nacional de Seúl en 1998 y 2001, respectivamente. Durante mucho tiempo, Kim había esperado obtener un doctorado en una universidad estadounidense porque sentía que le brindaría más oportunidades. Y eso es exactamente lo que hizo. Se fue a Pittsburgh en 2005 para realizar un doctorado. en lenguaje y tecnología de la información en Carnegie Mellon. «Decidí especializarme en reconocimiento de voz porque estaba interesado en elevar el estándar de calidad», dice. «También me gustó que el campo es multifacético y podía trabajar en hardware o software y cambiar fácilmente el enfoque del procesamiento de señales en tiempo real al procesamiento de señales de imágenes u otro sector del campo». Kim hizo su trabajo doctoral bajo la dirección de Richard Stern, miembro vitalicio del IEEE, quien probablemente sea mejor conocido por su trabajo teórico sobre cómo el cerebro humano compara el sonido proveniente de cada oído para juzgar de dónde proviene. «En ese momento, quería mejorar la precisión de los sistemas de reconocimiento automático de voz en entornos ruidosos o cuando había varios hablantes», dice. Desarrolló varios algoritmos de procesamiento de señales que utilizaban representaciones matemáticas creadas a partir de información sobre cómo los humanos procesan la información auditiva. Kim obtuvo su doctorado. en 2010 y se unió a Microsoft en Seattle como ingeniero de desarrollo de software y científico del habla. Trabajó en Microsoft durante tres años antes de unirse a Google. Acceso a información confiable Kim se unió al IEEE cuando era estudiante de doctorado para poder presentar sus trabajos de investigación en las conferencias del IEEE. En 2016, se publicó un artículo que escribió con Stern en IEEE/ACM Transactions on Audio, Speech, and Language Processing. Les valió el premio al mejor artículo de la IEEE Signal Processing Society de 2019. Kim se sintió honrado, dice, de recibir este “prestigioso premio”. Kim mantiene su membresía en IEEE en parte porque, dice, IEEE es una fuente confiable de información y puede acceder a la información técnica más reciente. Otro beneficio de ser miembro es la red global del IEEE, dice Kim. «Al ser miembro, tengo la oportunidad de conocer a otros ingenieros en mi campo», dice. Asiste habitualmente a la Conferencia anual IEEE sobre acústica, habla y procesamiento de señales. Este año es el vicepresidente del comité del programa técnico para la reunión, que está prevista para el próximo mes en Seúl.
El director de Google Gemini elimina perfiles de redes sociales después del lanzamiento del producto
Betul Abali | Anadolu | Getty ImagesJack Krawczyk, líder de productos de inteligencia artificial de Google, se ha alejado de los sitios de redes sociales, incluidos X y LinkedIn, después de que el problemático lanzamiento del generador de imágenes de IA de la compañía lo convirtiera en blanco de acoso en línea. Krawczyk, que normalmente es activo en las redes sociales Los medios de comunicación, donde es conocido por solicitar comentarios de los usuarios y elogiar los productos y colegas de Google, eliminó información de identificación y convirtió algunas cuentas en privadas. El título oficial de Krawczyk es director senior de gestión de productos de Gemini, el principal grupo de modelos de IA de la compañía. Aunque está bajando su perfil público, Krawczyk todavía está involucrado en el trabajo en productos Gemini y tiene el mismo título, según fuentes con conocimiento del Matter que pidió no ser identificado para poder hablar sobre el tema. A principios de este mes, Google lanzó un generador de imágenes de IA a través de Gemini. La herramienta permitía a los usuarios introducir indicaciones para crear una imagen, de forma similar a cómo los servicios basados en texto como ChatGPT producen respuestas sofisticadas y respuestas a consultas. En los días posteriores al lanzamiento del motor de imágenes, los usuarios descubrieron imprecisiones históricas que se volvieron virales en línea. Google respondió retirando la función la semana pasada, con planes de relanzarla en las próximas semanas. Justo antes de que la compañía eliminara el producto, Krawczyk fue el primer líder de Google en escribir sobre X, diciendo: «Somos conscientes de que Gemini ofrece imprecisiones en algunas representaciones históricas de generación de imágenes, y estamos trabajando para solucionar esto de inmediato». El martes, el director ejecutivo de Alphabet, Sundar Pichai, envió un memorando a los empleados que calificaba los problemas de generación de imágenes de Gemini como «problemáticos» y decía que «han ofendido a nuestros usuarios» y «mostraron parcial», y agregó que la situación era «completamente inaceptable». Para entonces, Krawczyk había recibido gran parte de la presión cuando los informes resurgieron en algunas de sus antiguas publicaciones. Los críticos afirmaron, sin pruebas, que tenía una agenda «anti-blanca» e incluyeron imágenes de Krawczyk en sus publicaciones y respuestas. Elon Musk, director ejecutivo de X, que ha atacado con frecuencia el negocio de Google, amplificó esas voces en su plataforma, destacando a Krawczyk. Desde entonces, Krawczyk ha eliminado imágenes de sí mismo, así como cualquier información de identificación de las plataformas de redes sociales. MIRAR: Google vs. GoogleNo te lo pierdas estas historias de CNBC PRO:
Source link
OpenAI no está de acuerdo con la demanda de Musk: dice que está en competencia directa con Microsoft
La reciente demanda de Elon Musk contra OpenAI y su director ejecutivo, Sam Altman, ha desencadenado una batalla legal. El tema profundiza en los principios fundamentales y la dirección de la empresa de inteligencia artificial. OpenAI, una organización que alguna vez fue sin fines de lucro, se fundó con la misión de desarrollar IA para el beneficio de la humanidad. Sin embargo, ahora se encuentra en desacuerdo con las acusaciones de Musk de desviarse de este camino altruista. Elon Musk afirma que la empresa ahora tiene motivos de lucro influenciados por la participación de Microsoft. Acusaciones de Musk y detalles de la demanda La demanda de Musk acusa a OpenAI de traicionar su misión fundamental al priorizar las ganancias sobre la humanidad. Afirma que la empresa, bajo la influencia de Microsoft, ha evolucionado hacia el desarrollo de Inteligencia General Artificial (AGI) para obtener ganancias comerciales en lugar de un bien mayor. La demanda incluye reclamaciones por incumplimiento de contrato, incumplimiento de deberes fiduciarios y prácticas comerciales desleales contra Altman, Brockman y varias de las entidades de OpenAI. Elon Musk presentó la demanda ante el Tribunal Superior de San Francisco el jueves. Sostiene que OpenAI y su CEO, Sam Altman violan el acuerdo establecido por la empresa. Musk quiere que OpenAI vuelva a ser una empresa de código abierto. Además, solicitó una orden judicial para impedir que OpenAI, su presidente Brockman y su director ejecutivo Altman (que figuran como coacusados en el caso) y Microsoft se beneficien de la tecnología de IA de la empresa. Musk afirmó en la denuncia que “OpenAI Inc. se ha transformado en una subsidiaria de código cerrado de facto de Microsoft, la empresa de tecnología más grande del mundo. Bajo el liderazgo de su nueva junta directiva, no sólo ha desarrollado, e incluso perfeccionado, una forma de inteligencia artificial general (AGI) para maximizar las ganancias de Microsoft, no para beneficiar a la humanidad”. Respuesta y desacuerdo de OpenAI OpenAI ha rechazado con vehemencia la demanda de Musk, afirmando que no está de acuerdo categóricamente con sus afirmaciones. La compañía afirma que ha logrado avances significativos hacia su misión a pesar de las afirmaciones de Musk. OpenAI refuta las acusaciones de buscar ganancias a expensas de sus objetivos originales. Sostiene que la empresa enfatiza su compromiso con el avance de la tecnología de inteligencia artificial en beneficio de la sociedad. Según un memorando interno que OpenAI envió a los empleados, la empresa «no está de acuerdo categóricamente» con la demanda de Musk contra la empresa, informó Bloomberg. Jason Kwon, director de estrategia de OpenAI, refutó la afirmación de Musk de que OpenAI es una «subsidiaria de facto» de Microsoft. Dijo que la opinión de Musk «puede surgir de su arrepentimiento por no estar involucrado en la empresa hoy». Kwon señaló en el memorando que la misión de la empresa «es garantizar que la AGI (Inteligencia General Artificial) beneficie a todas las personas». Kwon también dijo que OpenAI es independiente y compite directamente con Microsoft. Gizchina Noticias de la semana En otro memorando visto por Bloomberg, Altman llamó a Musk “un héroe suyo” y dijo que extraña al hombre que competía con sus rivales desarrollando mejor tecnología. Con respecto a los dos memorandos, OpenAI se negó a comentar sobre la demanda. Evolución de la misión de OpenAI y el papel de Microsoft La demanda arroja luz sobre la evolución de la trayectoria de OpenAI, particularmente después de la importante inversión de Microsoft en la empresa. Musk destaca la preocupación de que AGI caiga en manos de entidades con fines de lucro como Google y enfatiza la importancia de regresar a las raíces de código abierto de OpenAI. La batalla legal pone de relieve un choque entre diferentes visiones del desarrollo de la IA: una impulsada por motivos de lucro y otra basada en objetivos humanitarios. Complejidades legales y desafíos jurisdiccionales El drama legal que rodea la demanda de Musk contra OpenAI no se trata solo de disputas contractuales sino que también profundiza en desafíos jurisdiccionales. Surgen preguntas sobre la aplicabilidad de los acuerdos destinados a garantizar que el desarrollo de la IA beneficie a la humanidad. La demanda navega por un terreno legal intrincado, incluidas cuestiones relacionadas con la doctrina de asuntos internos de las entidades de Delaware y disputas jurisdiccionales entre los tribunales de California y Delaware. El panorama legal que rodea los contratos de Inteligencia Artificial (IA) es complejo, especialmente cuando se consideran los desafíos jurisdiccionales en los acuerdos internacionales de IA. Estos desafíos surgen de la naturaleza global de las transacciones de IA, que involucran a partes de diversos sistemas legales y orígenes lingüísticos. La relación entre jurisdicción e Internet plantea un dilema importante debido al alcance global de Internet, lo que dificulta la alineación con los límites legales tradicionales. Los profesionales del derecho deben estar al tanto de estos desafíos para garantizar el cumplimiento, mitigar los riesgos y facilitar la resolución equitativa de disputas en el ámbito de los contratos de IA. Conclusión En conclusión, la demanda de Elon Musk contra OpenAI y su director ejecutivo, Sam Altman, ha desencadenado una polémica batalla legal que subraya desacuerdos fundamentales sobre la dirección del desarrollo de la IA. La demanda, presentada en el Tribunal Superior de San Francisco, acusa a OpenAI de desviarse de su misión original de desarrollar IA para el beneficio de la humanidad y priorizar motivos de lucro, particularmente bajo la influencia de Microsoft. Las acusaciones de Musk plantean cuestiones críticas sobre las implicaciones éticas del desarrollo de la IA y el papel de las entidades con fines de lucro en la configuración de su trayectoria. Sostiene que el giro de OpenAI hacia intereses comerciales contradice sus principios fundamentales y exige que la empresa regrese a sus raíces de código abierto. OpenAI refuta con vehemencia las afirmaciones de Musk y afirma su compromiso con el avance de la tecnología de IA para el bien común. La compañía mantiene su independencia y enfatiza su misión de garantizar que la Inteligencia General Artificial beneficie a todas las personas, contrariamente a las afirmaciones de Musk. La disputa legal subraya las complejidades de navegar el desarrollo de la IA en un panorama cada vez más comercializado. También destaca los desafíos jurisdiccionales y las complejidades legales que rodean los acuerdos contractuales destinados a salvaguardar los principios éticos de la IA. A medida que se desarrolla la demanda, subraya debates más amplios en torno a la ética de la IA, la responsabilidad corporativa y la dirección futura del desarrollo tecnológico. En última instancia, el resultado de la demanda de Musk contra OpenAI puede tener implicaciones de gran alcance para la gobernanza ética de la IA y el papel de las entidades con fines de lucro en la configuración de su evolución. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.
Ute Grabowsky | Fototeca | Getty Images Las ciencias de la computación no son una especialidad nueva en las mejores escuelas, pero con los trabajos de IA en alta demanda, hay una lista cada vez mayor de colegios y universidades que ofrecen un título de cuatro años en «IA» específicamente. Estos programas generalmente van más allá de los fundamentos de las ciencias de la computación. para centrarse en temas como el aprendizaje automático, los algoritmos informáticos, el análisis de datos y la robótica avanzada. La Universidad de Pensilvania anunció recientemente que su programa BSE en Inteligencia Artificial comenzará en el otoño de 2024. Carnegie Mellon introdujo un programa mucho antes de que la IA gen. fuera una palabra de moda, en el otoño de 2018, y el programa del MIT comenzó en el otoño de 2022. La Universidad Purdue ofrece una carrera universitaria en IA. especialización, mientras que muchos colegios y universidades ofrecen clases de IA dentro de su departamento de ciencias de la computación, incluso si no hay una especialización dedicada. El aumento de programas de grado específicos de IA se produce cuando las empresas tienen escasez de talento para este campo de rápido desarrollo. La mitad de las habilidades tecnológicas mejor pagadas son específicas de la IA, según el sitio web de empleo Indeed.com. Aun así, existe cierto grado de escepticismo sobre la aplicabilidad de un título de cuatro años específico de IA, dado lo rápido que está cambiando la tecnología. Pero sus defensores dicen que mientras un programa esté lleno de ciencias de la computación y otros fundamentos, centrarse en la IA podría ser una gran ayuda para la creación de currículums. Esto es lo que los estudiantes y sus padres, así como cualquiera que esté pensando en regresar a la escuela para una nueva carrera. carrera, necesita saber acerca de un título en IA de cuatro años: Los fundamentos de STEM siguen siendo críticos. Los estudiantes que quieran obtener un título en IA deben buscar un programa que enseñe información fundamental, como conceptos de informática, estadística, matemáticas e ingeniería, que sientan las bases. para una carrera en un campo relacionado con la IA, dijo Kerem Koca, director ejecutivo de BlueCloud, un proveedor de servicios en la nube. La tecnología en sí está cambiando, pero estos fundamentos básicos no, y pueden preparar a los estudiantes para tener éxito, incluso cuando la tecnología subyacente cambia, dijo.»Es importante que los títulos de IA y otros programas de capacitación educativa no solo se centren en el desarrollo de habilidades específicas, pero que el enfoque está en ayudar a los estudiantes a aprender cómo aprender, lo que incluye desarrollar una curiosidad intelectual y habilidades como liderazgo, comunicación y pensamiento crítico», dijo Maria Flynn, presidenta y directora ejecutiva de Jobs for the Future, una organización que se enfoca en Oportunidades y educación para los trabajadores, en un correo electrónico. Aumento de títulos en IA desde 2011 Hay varios programas diferentes que se centran en IA a nivel de pregrado y posgrado, y ha habido un aumento en las ofertas y títulos otorgados durante más de una década. Según el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, los títulos de IA han contrarrestado la tendencia general en educación desde 2011, con un crecimiento positivo en la concesión de títulos versus un crecimiento negativo en todas las áreas de grado. Los títulos relacionados con la IA, en particular, crecieron incluso más rápido que los títulos STEM como categoría general en los niveles de licenciatura, maestría y doctorado. Su revisión de datos gubernamentales y otras fuentes sobre el mercado de la educación superior describió el crecimiento de la concesión de títulos de IA como «dramático», aumentando un 120% desde 2011 tanto en el nivel de licenciatura como de maestría. Algunos estudiantes también podrían estar interesados en obtener un título de asociado en IA , que ofrecen varias escuelas, incluido Miami Dade College. Relevancia de la educación en un mercado tecnológico que cambia rápidamente. Algunos estudiantes pueden preguntarse si necesitan un título, dado lo rápido que está cambiando el mercado y el hecho de que más empleadores han expresado su voluntad de contratar trabajadores sin títulos si tienen las habilidades adecuadas requeridas por el trabajo. Sin embargo, es importante tener en cuenta que investigaciones recientes sugieren que la práctica de contratar personas sin títulos se ha quedado corta, y la investigación del sitio de carreras Ladders muestra que todavía se requiere un título. para los trabajos mejor pagados, una lista que incluye ingenieros de software. Un título de cuatro años sigue siendo un gran paso adelante para la mayoría que ingresa al mercado laboral por primera vez, dijo Celeste Grupman, directora ejecutiva de Dataquest, que ofrece educación relacionada con la IA. materiales y laboratorios a las universidades. «Sigue siendo una de las primeras cosas que un empleador va a considerar. No te descalificarán, mientras que no tenerla sí podría hacerlo». Aun así, varios proveedores, incluidos Dataquest y Coursera, ofrecen programas de certificación para que los estudiantes desarrollen habilidades rápidamente. Estos programas pueden ser apropiados para estudiantes que carecen del tiempo y los recursos para completar un programa de cuatro años, o que ya tienen un título y buscan mejorar sus habilidades, dijo Grupman. Una plataforma en línea permite a los estudiantes comenzar rápidamente a crear proyectos y comprender cómo implementar estas herramientas con éxito con fines laborales. IA versus ciencias de la computación Es importante que los estudiantes piensen críticamente sobre el plan de estudios del programa que están considerando y en qué se diferencia de una computadora estándar. plan de estudios de ciencias, la probable trayectoria profesional de los graduados del programa y los resultados económicos de los graduados. «Como vemos en el marketing de productos, cualquiera puede incluir ‘IA’ en un producto existente. Los estudiantes deben preguntar qué aspectos de la IA aprenderán», dijo Flynn. También es importante que los estudiantes consideren cuidadosamente lo que quieren. ¿Están buscando un programa que brinde exposición a la IA o practique su uso, o quieren un programa técnico que brinde contenido fundamental y cursos sobre tecnología de IA? También deberían considerar si en última instancia quieren habilidades y conocimientos relevantes que los lleven al mercado laboral ahora mismo o si quieren un título más amplio que sea la base para un avance a largo plazo, dijo Flynn. «No quieres un título en martillos. Quieres entender los martillos, quieres entender la zonificación y quieres entender cómo construir una casa que ayude a una familia a cobrar vida. Lo mismo ocurre con la IA», dijo Nichol Bradford. , ejecutivo residente de inteligencia artificial e inteligencia humana en SHRM, una organización para profesionales de recursos humanos. Cómo obtener una ventaja con los empleadores Algunos empleadores pueden ver más favorablemente un título específico en IA que un título simple en ciencias de la computación, dijo David Leighton, director ejecutivo de WITI, una organización para profesionales con mentalidad tecnológica. «Creo que eso los distingue». Por otra parte, nadie sabe realmente en este momento cuál será el valor de un título de este tipo dentro de unos años. «En el año 2000, si tuvieras un título en Internet, si existiera tal cosa, habría sido fantástico», dijo Koca. «Ahora, no sería tan aplicable. Pero si lo tuvieras en 2002, podrías haber conseguido un trabajo en cualquier lugar. Lo mismo podría ser cierto para un título en IA». Dada la incertidumbre, algunos profesionales dijeron que los estudiantes no pueden equivocarse con un título tradicional en ciencias de la computación o uno específico de IA, siempre que se cubran los fundamentos. Sin embargo, aquellos que toman la primera ruta deberían considerar tomar clases relacionadas con la inteligencia artificial y la ciencia de datos, que pueden ser importantes para el empleo futuro. De lo contrario, los estudiantes podrían necesitar «cerrar ellos mismos la brecha de aplicaciones prácticas después de graduarse», dijo Bryan Ackermann, jefe de estrategia y transformación de IA en la consultora de gestión Korn Ferry, en un correo electrónico.
Source link
Los líderes que transforman organizaciones complejas con Salesforce se reunieron en el World Tour Sydney 2024 de Salesforce para compartir aprendizajes clave para TI y otras partes interesadas en la transformación sobre cómo gestionar transformaciones digitales complejas y centradas en el cliente. Los proyectos incluyeron un rediseño y transformación completos de la pila tecnológica en HBF, donde desde 2018 la organización de servicios de salud ha estado avanzando hacia estar 90% en la nube a través de AWS para mediados de 2024, además de reemplazar su sistema central con Civica. Los consejos abarcaron desde tener una visión clara desde el principio hasta adoptar una estrategia y una arquitectura claras para respaldar la ampliación hacia el futuro. Estos líderes también recomiendan elegir bien a los socios de transformación, esperando dar un giro y centrarse en el cliente final. 1. Crear una visión sólida y una alineación del proyecto desde el principio Mejorar el servicio y la experiencia que podía brindar a los clientes fue la visión fundamental que guió y unió al equipo de State Trustees Victoria en su transformación continua del servicio con Salesforce, según Brett Comer, director financiero. y director general. Con la responsabilidad de apoyar a los clientes vulnerables en todo el estado de Victoria con sus necesidades financieras y legales, incluidas las personas con discapacidad, Comer dijo: «Estaba muy claro al más alto nivel que estábamos haciendo esto por nuestros clientes, no para hacer nuestro trabajo». más fácil.» VER: Principales tendencias de TI para las que los profesionales de TI deben estar preparados a lo largo de 2024. El éxito estuvo respaldado en todo momento por una visión colectiva y una alineación desde el principio. Comer dijo que esto incluía lograr la aceptación de para quién era el proyecto, por qué se estaba haciendo y cómo hacerlo, así como la importancia de Salesforce y lo que eso permitiría. Comer agregó que la visión se respaldó garantizando que se midiera el éxito, apoyando a los equipos a través de la gestión de cambios y garantizando que tanto los equipos como los socios compartieran el peso del proyecto, además de ver resultados del mundo real, como el cumplimiento de los pagos de los clientes. 2. Detallar una estrategia clara y construir bases de arquitectura que puedan soportar la escala Crystal Warner, líder de capacidad de Salesforce en el Departamento de Educación de Australia del Sur, dijo que el éxito de la revisión de los servicios impulsada por Salesforce del Departamento que proporcionó a estudiantes y escuelas con recursos adicionales Las necesidades se reducían a tener una estrategia. Desde que se unió hace dos años y medio, Warner dijo que había convertido la estrategia en una “biblia” para garantizar que el proyecto se mantuviera encaminado. «Cada vez que se hablaba de una nueva característica, siempre volvía a saber qué tan bien se alinea con lo que queremos lograr», dijo Warner. Conseguir la arquitectura correcta también fue fundamental para garantizar que el Departamento de Educación pudiera escalar en el futuro, afirmó. Al utilizar Salesforce Education Cloud, Warner dijo que pudo capitalizar la funcionalidad lista para usar y luego hacerla suya, mejorando el tiempo de entrega y el valor. 3. Elija bien los socios tecnológicos y los integradores de sistemas para impulsar la aceptación del negocio y los resultados de los clientes Billy Martin, gerente general de entrega de transformación en HBF, dijo que la empresa tuvo cuidado al elegir proveedores y socios de integración de sistemas como parte de su transformación digital crítica y holística. , con socios clave que eventualmente incluirán a PwC, Salesforce y AWS. Al formar un consorcio, que incluía a 55 personas entre sus socios, Martin dijo que HBF avanzó en la dirección de diseñar una pila tecnológica que estuviera menos centrada en la tecnología. Esto aseguró que los representantes comerciales pudieran entenderlo mejor y se priorizara a los clientes. 4. Centrarse en las experiencias del usuario final para maximizar las tasas de adopción National Australia Bank ha aumentado la presencia de su CRM unificado, impulsado por Salesforce, del 40% al 73% de los banqueros de la institución en más de 12 meses. El siguiente paso será implementar la plataforma en sus divisiones de banca personal y de negocios, y sus bancos corporativos e institucionales. Charlotte Cadness, ejecutiva digital, de datos y análisis de NAB, dijo que el banco había logrado una tasa de adopción del 90% entre los usuarios al crear una «experiencia maravillosa», informada al trabajar con ellos para crear un «producto mínimo adorable», no solo un mínimo viable. Producto. VER: Los grandes desafíos de TI que Australia debe abordar para aprovechar el momento de la IA. Gerrod Bland, director digital de NAB, dijo que este enfoque en la experiencia del usuario a veces resultó en que el equipo repitiera los diseños 15 o más veces en un esfuerzo por crear experiencias intuitivas para los usuarios de la plataforma. «Sólo tienes una oportunidad de causar una primera impresión», dijo Bland. 5. Espere girar a medida que cambien las necesidades del proyecto y del negocio. La transformación digital de HBF implicó un giro significativo a mitad del proyecto. Habiendo dividido el proyecto en tres horizontes, el último de los cuales fue el reemplazo de su sistema central, se tomó la decisión de cambiar los proveedores principales a mitad del proyecto y combinar las dos últimas fases del proyecto en una sola. Billy Martin dijo que esta propuesta de implementación más amplia se mitigó al adoptar un enfoque de “lanzamiento oscuro”. Al realizar una implementación temprana en un entorno de producción y realizar pruebas, HBF pudo solucionar cualquier problema antes de la implementación en lugar de verlo surgir durante la hipercuidado. 6. Aliente a los empleados a amar los datos a través de la IA Durante aproximadamente 100 años, la empresa energética australiana Endeavor Energy ha estado girando hacia ser una empresa más centrada en el cliente, debido a los cambios en la dinámica del mercado energético. Dado que los datos desempeñarán un papel fundamental, Melissa Irwin, directora de datos, personas y sostenibilidad, dijo que la IA podría ser el gancho crucial necesario para construir una cultura de datos. Irwin dijo que, dado que los empleados tienen interés en el uso de la IA y se benefician de los conocimientos que probablemente les proporcione, es más probable que se comprometan a garantizar que los datos que recopilan y utilizan en los sistemas de la empresa estén limpios y conduzcan a buenos resultados del modelo. Después de haber utilizado la IA durante un tiempo antes de la explosión de los modelos de lenguajes grandes, Endeavor Energy ahora fomenta activamente el uso de la IA entre los empleados en forma de CoPilot y su propia versión de ChatGPT, para que los empleados puedan ser socios en el futuro de la IA. el negocio. 7. Nunca olvidemos a los clientes a los que la transformación está destinada a servir. El proyecto de Warner en el Departamento de Educación SA impacta a 30.000 usuarios en las escuelas del estado, incluidos estudiantes con necesidades especiales. Dijo que era fundamental centrarse en los resultados que los usuarios necesitaban y deseaban, además de defenderlos cuando se trataba de diseño. El proyecto ahora permite que múltiples partes interesadas accedan a la información de los estudiantes a través de dos tipos de registros desde un solo lugar de forma segura, y se expandirá de nueve a 12 tipos de registros en 12 meses. Warner dijo que su éxito se demostró cuando los propios usuarios solicitan más de la plataforma.
El presidente de Cohere, Martin Kon, dice que muchas de las nuevas empresas de inteligencia artificial que están en el mercado hoy en día están construyendo el equivalente de autos deportivos de lujo. Su producto, dice, se parece más a un camión pesado. «Si está buscando vehículos para su departamento de servicio técnico de campo y lo llevo a una prueba de manejo en un Bugatti, quedará impresionado qué tan rápido y qué tan bien funciona», dijo Kon a CNBC en una entrevista. Sin embargo, dijo, el precio, junto con las limitaciones de espacio y la falta de un maletero, serán un problema. «Lo que realmente se necesita es una flota de camionetas F-150», dijo Kon. «Fabricamos F-150». Fundada por ex investigadores de IA de Google y respaldada por Nvidia, Cohere está apostando por la IA generativa para la empresa en lugar de por los chatbots de consumo, que han sido la comidilla de la industria tecnológica desde que OpenAI lanzó ChatGPT a finales de 2022. En junio, Cohere recaudó 270 millones de dólares con una valoración de 2.200 millones de dólares, y Salesforce y Oracle participaron en la ronda de financiación. Los ejecutivos de la empresa han asistido a foros de IA en la Casa Blanca. Y, según se informa, Cohere está en conversaciones para recaudar hasta mil millones de dólares en capital adicional. «No comentamos sobre rumores», dijo Kon a CNBC. «Pero alguien me dijo una vez que las nuevas empresas siempre están creciendo». El campo de la IA generativa se ha disparado durante el último año, con una inversión récord de 29.100 millones de dólares en casi 700 acuerdos en 2023, un aumento de más del 260% en el valor de los acuerdos respecto al año anterior, según PitchBook. Se ha convertido en la frase más comentada en las llamadas sobre resultados corporativos trimestre tras trimestre, y alguna forma de tecnología está automatizando tareas en casi todas las industrias, desde servicios financieros e investigación biomédica hasta logística, viajes en línea y servicios públicos. Aunque Cohere a menudo se menciona junto a los pesos pesados de la IA. Al igual que OpenAI, Anthropic, Google y Microsoft, el enfoque de la startup en chatbots exclusivos para empresas la ha diferenciado. Los competidores ofrecen productos de IA tanto para consumidores como para empresas. OpenAI, por ejemplo, lanzó ChatGPT Enterprise en agosto, y Anthropic abrió el acceso de los consumidores a su chatbot Claude, anteriormente exclusivo para empresas, en julio. Kon, quien también es el jefe de operaciones de la compañía, dijo que al mantenerse enfocado solo en la empresa, Cohere puede para funcionar de manera eficiente y mantener los costos bajo control incluso en medio de una escasez de chips, costos crecientes para las unidades de procesamiento de gráficos (GPU) y tarifas de licencia en constante cambio para los modelos de IA. «Rara vez he visto, en mi carrera, muchas empresas que puedan ser exitosamente consumidores y empresas al mismo tiempo, y mucho menos una startup», dijo Kon. Y añadió: «No tenemos que recaudar miles de millones de dólares para ofrecer un servicio gratuito al consumidor». Los clientes actuales incluyen Notion, Oracle y Bamboo HR, según el sitio web de Cohere. Muchos clientes pertenecen a las categorías de banca, servicios financieros y seguros, afirmó Kon. En noviembre, Cohere le dijo a CNBC que había visto un aumento en el interés de los clientes después del repentino y temporal despido del CEO Sam Altman por parte de OpenAI. Kon reconoce que la dinámica cambiante en la industria del hardware ha presentado desafíos persistentes. La compañía ha tenido una reserva de chips de Google durante más de dos años, dijo Kon, asegurada en los primeros días de Cohere para ayudarla a entrenar previamente sus modelos. Ahora, Cohere está avanzando hacia el uso de más GPU H100 de Nvidia, que alimentan a la mayoría de los grandes procesadores actuales. modelos de lenguaje. Las relaciones de Cohere con inversores estratégicos son otra área en la que se diferencia de los competidores de IA generativa, dijo Kon. Muchas empresas han recaudado dinero de empresas como Nvidia y Microsoft con algunas condiciones vinculadas al uso de su software o chips. Kon insiste en que Cohere nunca ha aceptado una inversión condicional y que cada cheque que cobra, incluido el de Nvidia, no tiene ataduras. «En nuestra última ronda, tuvimos varios controles del mismo tamaño; no teníamos condiciones asociadas con ninguno de ellos», dijo Kon. «Tomamos esa decisión explícitamente para poder decir que no estamos en deuda con nadie». La decisión de Cohere de centrarse en chatbots exclusivos para empresas puede ayudar a la empresa a mantenerse alejada del turbio territorio de las preocupaciones por la desinformación, especialmente a medida que se acerca la temporada electoral. En enero, la Comisión Federal de Comercio anunció una investigación de inteligencia artificial sobre Amazon, Alphabet, Microsoft, OpenAI y Anthropic. . La presidenta de la FTC, Lina Khan, lo describió como una «investigación de mercado sobre las inversiones y asociaciones que se están formando entre los desarrolladores de IA y los principales proveedores de servicios en la nube». Cohere no fue nombrado. Kon dice que el crecimiento de la compañía hasta ahora se ha centrado en gran medida en áreas como la búsqueda y recuperación, que requieren sus propios modelos de IA separados. Lo llama «uso de herramientas» e implica entrenar modelos sobre dónde, cuándo y cómo buscar la información que un cliente empresarial necesita, incluso si el modelo no fue entrenado originalmente con esos datos. La búsqueda, dijo Kon, es una pieza clave de la IA generativa que está recibiendo menos atención que otras áreas. «Eso sin duda, para las empresas, será el verdadero desbloqueo», dijo. Al discutir el cronograma de expansión, Kon calificó el año 2023 como «el año de la prueba de concepto.» «Creemos que 2024 se está convirtiendo en el año del despliegue a escala», afirmó. MIRAR: La IA generativa democratizará el acceso a los datos empresariales.
Source link
David Wadhwani, vicepresidente senior de medios digitales de Adobe, habla durante el lanzamiento de Adobe Creative Cloud y CS6 en San Francisco el 23 de abril de 2012.David Paul Morris | Bloomberg | Getty ImagesAdobe lanzó el martes un asistente de inteligencia artificial en sus aplicaciones Reader y Acrobat que puede producir resúmenes y responder preguntas sobre archivos PDF y otros documentos. El asistente de inteligencia artificial, actualmente en versión beta, ahora está disponible en Acrobat, «con funciones que llegarán a Reader a lo largo de en los próximos días y semanas», según un comunicado de prensa. Adobe planea lanzar un plan de suscripción para la herramienta una vez que salga de la versión beta. El asistente de IA ayudará a los usuarios a digerir información de documentos PDF largos generando breves resúmenes de sus contenidos, dijo la compañía. El asistente también puede responder preguntas sobre la información de un documento a través de una «interfaz conversacional» y sugerir preguntas sobre el archivo que los usuarios podrían hacer. Adobe dijo que el asistente de IA también puede generar citas que permitan a los usuarios verificar la fuente de las respuestas de la herramienta. , y puede producir texto para varios formatos, como correos electrónicos, presentaciones e informes, según el comunicado de prensa. Otros modelos de IA, como ChatGPT, ofrecen lectores de PDF que aceleran de manera similar los análisis de documentos extensos, pero esos servicios requieren que los usuarios carguen un PDF. El asistente de inteligencia artificial de Adobe es una función incorporada. En una entrevista en «Squawk on the Street» de CNBC el martes, el director ejecutivo de Adobe, Shantanu Narayen, dijo que la nueva herramienta representa el objetivo de la compañía de «democratizar el acceso» a los billones de archivos PDF en uso. Imagínense que han abierto un documento de 100 páginas. Quieren entender el resumen, quieren tener una conversación con él, quieren hacer preguntas», dijo Narayen. «Desea correlacionar eso con otros documentos que pueda tener, así como con toda la información que tiene en su empresa». La semana pasada, OpenAI, que desarrolló ChatGPT, lanzó una nueva herramienta que genera videos realistas de alta definición a partir de un mensaje de texto. Respondiendo a una pregunta sobre si el modelo de OpenAI, llamado Sora, representa una invasión del territorio de Adobe, Narayen dijo que la compañía está «trabajando también en nuestros modelos de video» y tiene la intención de aplicar esa tecnología «de manera responsable» a «herramientas y flujos de trabajo». «.
Source link
Jonathan Raá | Nurfoto | Getty Images Un paciente al que se le ha implantado la tecnología cerebral de Neuralink ahora puede controlar el ratón de una computadora con solo pensar, dijo el fundador de la compañía, Elon Musk.[The] «El paciente parece haberse recuperado completamente sin efectos nocivos de los que tengamos conocimiento y es capaz de controlar el mouse, mover el mouse por la pantalla con solo pensar», dijo Musk en una sesión de Spaces en la plataforma de redes sociales X.Neuralink es La startup del multimillonario, que dice haber desarrollado un implante cerebral diseñado para ayudar a los humanos a usar sus señales neuronales para controlar tecnologías externas, tiene como objetivo restaurar capacidades perdidas como la visión, la función motora y el habla. Neuralink no estuvo disponible de inmediato para hacer comentarios. Implantó su dispositivo en un humano por primera vez en enero. La compañía utiliza un robot para implantar con precisión el dispositivo en el cerebro. Musk, quien también es el CEO de Tesla, dijo que Neuralink está tratando de lograr «presionar tantos botones como sea posible». «de pensar» del paciente. Dijo que esto podría incluir mover el mouse de la computadora hacia arriba y hacia abajo para arrastrar cuadros en una pantalla. Neuralink comenzó a reclutar pacientes para su primer ensayo clínico en humanos en el otoño después de recibir la aprobación de la Agencia de Alimentos y Alimentos de EE. UU. La Administración de Medicamentos llevará a cabo el estudio en mayo, según una publicación de blog. El ensayo clínico en humanos marca solo un paso en el camino de Neuralink hacia la comercialización. Las empresas de dispositivos médicos deben pasar por varias rondas de intensa recopilación y pruebas de seguridad de datos antes de obtener la aprobación final de la FDA. Ashley Capoot de CNBC contribuyó a esta historia.
Source link
Pero primero, un poco de historia… Las primeras funciones impulsadas por IA en los teléfonos inteligentes incluyen Face ID y Animoji en teléfonos equipados con Apple A11, como el iPhone X de 2017, impulsado por Neural Engine, la marca de Apple para su unidad de procesamiento neuronal. . Ese «motor neuronal» está diseñado para tareas de procesamiento de IA. / © Apple La NPU de Qualcomm en realidad es anterior a eso, con su Hexagon DSP (procesador de señal digital) reutilizado para acelerar el procesamiento neuronal alrededor de 2015. En ese momento, las empresas ya estaban posicionando la IA en una de las funciones más utilizadas aún en 2024: mejorar la cámara. calidad. Otras empresas también invirtieron en sus NPU poco después, y tanto MediaTek como Samsung desarrollaron sus propias soluciones. Pero la IA fue llevada al siguiente nivel gracias a un recién llegado al SoC móvil: Google y su chip Tensor de 2021, que lleva el nombre de los propios núcleos de inteligencia artificial. El momento de Google ahora parece oportuno, con todo el interés renovado que generan las herramientas de inteligencia artificial generativa como Dall-E, ChatGPT y una lista que parece expandirse diariamente. Y eso nos lleva a algunas de las funciones de IA (generativas o no) que la mayoría de nosotros podemos usar ahora mismo. Círculo para buscar (Pixel y Samsung) Google Lens puede ser una función útil en los teléfonos, pero no es la herramienta más fácil de usar. Con el lanzamiento del Galaxy S24, Samsung presentó una función de Google antes de que los teléfonos Pixel la tuvieran: simplemente presione prolongadamente la barra/botón de inicio y dibuje un círculo alrededor de un objeto para iniciar una búsqueda en Lens. Sin embargo, existe una pequeña limitación, ya que actualmente solo se puede acceder a la función Círculo para buscar en dispositivos Samsung que ejecutan One UI 6.1. Pero Samsung ya ha anunciado una lista de teléfonos que obtendrán las funciones Galaxy AI. Puede utilizar la función para identificar especies, objetos exóticos (en el siguiente ejemplo, un modelo VW exclusivo de América Latina), prendas de vestir e incluso resolver ecuaciones matemáticas. El círculo para buscar es básicamente Google-Lens-en cualquier lugar de su teléfono. / © nextpit Es cierto que Circle to Search no es una función de IA adecuada, sino más bien un atajo más conveniente para una: Google Lens. Funciones útiles de Galaxy AI en Samsung Notes Desde un atajo de IA hasta la tendencia actual en LLM (modelos de idiomas grandes), llegamos a las nuevas funciones Galaxy AI de Samsung para la aplicación Notes (entre otras). Este también depende de One UI 6.1. La aplicación, a menudo descuidada, estaba salpicada de las últimas tendencias tecnológicas y ofrece una serie de funciones diferentes impulsadas por IA. Destacaremos dos: Formato automático y Resumir, pero la versión inicial también ofrece un corrector ortográfico y una herramienta de traducción, que son bastante sencillos. Si bien una función similar está disponible en el servicio Microsoft OneNote, es exclusiva para los suscriptores de Co-Pilot. Las funciones de Samsung Notes AI, por otro lado, son gratuitas (al menos por ahora) en los teléfonos Galaxy compatibles. Formato automático Si las notas de su reunión o clase no son más que un montón de palabras aleatorias incluidas en la aplicación, el formato automático puede darle cierta apariencia de orden. La función organiza las notas en temas e incluso crea algunos encabezados basados en sus anotaciones. Para usarlo, simplemente sigue estas instrucciones: Toca el botón Galaxy AI (estrellas) en una nota abierta. Seleccione Formato automático y espere brevemente a que se procese. Desliza el dedo hacia la izquierda o hacia la derecha para seleccionar entre diferentes opciones de formato. Elija Copiar/Reemplazar/Agregar a. Los encabezados «introducción» y «beneficios» fueron creados por AI, junto con los listados. / © nextpit Resumir Si necesita más que una organización para sus notas, la nueva función AI Resumarize puede darles un poco de sabor, reformulando su contenido en algo sorprendentemente útil. Para probarlo usted mismo, abra una anotación en Samsung Notes y luego: Toque el botón Galaxy AI (estrellas). Elija Resumir. Verifique la sugerencia, luego use uno de los botones para copiar, reemplazar o agregar el texto resumido en un bloc de notas. El resumen generado estuvo bien organizado en nuestras pruebas. Además #rip SnapSatellite, la tendencia de 2023 no se impuso. / © nextpit Aislamiento de voz en iPhones Esta función de iOS y iPadOS hace que las llamadas a través de líneas telefónicas, FaceTime e incluso algunas aplicaciones de terceros sean más claras, especialmente en entornos ruidosos. Voice Isolation requiere iOS 16.4 en un iPhone XR/XS o posterior y bloquea el ruido de fondo. Para activarlo: Inicia una llamada de voz o video. Abra el Centro de control deslizándose hacia abajo desde la esquina superior derecha de la pantalla. Toque el acceso directo al modo micrófono. Seleccione Aislamiento de voz. La función no requiere auriculares conectados y funciona tanto con el teléfono junto a tu cara como en una llamada de voz tradicional, como con la pantalla apuntando hacia ti en una videollamada. El aislamiento de voz permanece habilitado en las siguientes llamadas hasta que se desactiva manualmente, una cosa a tener en cuenta. Mejore la calidad de audio de sus llamadas con un interruptor oculto en iOS. / © nextpit En nuestras pruebas, la función hizo un trabajo inquietantemente bueno al eliminar el ruido de fondo que distraía, como si el orador estuviera en una cabina de sonido, incluso cuando estaba en un balcón con un tranvía pasando. Por supuesto, su kilometraje variará y siempre podrá preguntarle a la otra persona si es mejor habilitar o deshabilitar el aislamiento de voz. Elimina objetos no deseados con Magic Eraser (iPhone y Android) Todos hemos pasado por eso, la imagen “perfecta” arruinada por un dedo sobre la cámara, alguna persona al azar o, peor aún, un fotobombardero. Magic Eraser te permite simplemente editarlos, llenando el vacío con resultados sorprendentemente buenos. La función funciona con imágenes guardadas en su cuenta de Google Photos y requiere una cuenta de Google One o un teléfono Pixel compatible. Para propietarios de Pixel y suscriptores de Google One, simplemente sigan estos pasos: Seleccione una imagen en la aplicación Google Photos. Elija Editar. Seleccione el menú Herramientas. Toca Borrador mágico. Dibuja alrededor o sobre el objeto a eliminar. Confirme la edición tocando Listo y luego Guardar copia. Magic Eraser puede realizar ediciones rápidas adecuadas para compartir en las redes sociales. / © nextpit Magic Editor en Pixel y Galaxy AI Los teléfonos Pixel 8 y Galaxy S24 (por ahora) pueden usar una versión más potente de Magic Eraser. Sin embargo, mientras Magic Eraser funciona en el dispositivo (por ejemplo, sin conexión), Magic Editor procesa imágenes en los servidores de Google, lo que requiere una conexión a Internet. Los pasos son similares a los del Magic Eraser, pero Magic Editor también se puede usar para mover sujetos alrededor de la imagen, y en nuestras pruebas ofreció mejores resultados al llenar el espacio debajo de un objeto eliminado: seleccione una imagen en Google Photos (Pixel) o Galería Samsung (Galaxia). Toque el botón Magic Editor (ícono de estrellas en One UI) en la esquina inferior izquierda. Dibuja alrededor del objeto que vas a mover/eliminar. Toque el botón Borrar. En One UI, mantenga presionada la selección y elija el ícono de borrar, luego presione Generar. Confirme la edición tocando el botón de marca de verificación (Hecho en teléfonos Galaxy). Magic Editor puede mover objetos por la escena pero requiere una conexión a Internet. / © nextpit Con el procesamiento de IA basado en la nube, se recomienda leer los términos y condiciones de los servicios que utiliza, generalmente disponibles para leer antes de habilitarlos. Como regla general, no recomendamos compartir información de identificación personal ni datos confidenciales. También es importante destacar que todos los proveedores de IA desaconsejan el uso de sus servicios con fines médicos, legales, financieros u otros fines críticos. Como escribe Google en sus documentos legales: No envíe información sensible, confidencial o personal a los Servicios. ¿Qué pasa contigo? ¿Qué funciones impulsadas por IA te impresionaron? ¿Tuviste más suerte que nosotros con las funciones de traducción en vivo? ¿O crees que la IA es solo otra moda tecnológica como el metaverso, la conectividad satelital y otras tendencias de temporadas pasadas?