¡VB Transform 2024 regresa este julio! Más de 400 líderes empresariales se reunirán en San Francisco del 9 al 11 de julio para profundizar en el avance de las estrategias GenAI y participar en debates que invitan a la reflexión dentro de la comunidad. Descubre aquí cómo puedes asistir. Titulares recientes, como una IA que sugiere que la gente debería comer piedras o la creación de ‘Miss AI’, el primer concurso de belleza con concursantes generadas por IA, han reavivado los debates sobre el desarrollo y despliegue responsable de la IA. Lo primero es probablemente un defecto que debe resolverse, mientras que lo segundo revela los defectos de la naturaleza humana al valorar un estándar de belleza específico. En una época de repetidas advertencias sobre la fatalidad provocada por la IA, ¡la última advertencia personal de un investigador de IA fija la probabilidad en un 70%! – estos son los que encabezan la lista actual de preocupaciones y ninguno sugiere más que seguir como de costumbre. Por supuesto, ha habido ejemplos atroces de daños causados ​​por herramientas de inteligencia artificial, como los deepfakes utilizados para estafas financieras o la representación de inocentes en imágenes de desnudos. Sin embargo, estos deepfakes se crean bajo la dirección de humanos nefastos y no están dirigidos por IA. Además, existe la preocupación de que la aplicación de la IA pueda eliminar un número significativo de puestos de trabajo, aunque hasta ahora esto aún no se ha materializado. De hecho, existe una larga lista de riesgos potenciales de la tecnología de inteligencia artificial, incluido el hecho de que se está utilizando como arma, codifica prejuicios sociales, puede conducir a violaciones de la privacidad y que seguimos teniendo dificultades para explicar cómo funciona. Sin embargo, todavía no hay evidencia de que la IA por sí sola pueda dañarnos o matarnos. Sin embargo, esta falta de evidencia no impidió que 13 empleados actuales y anteriores de los principales proveedores de inteligencia artificial emitieran una carta de denuncia advirtiendo que la tecnología plantea graves riesgos para la humanidad, incluida una muerte significativa. Entre los denunciantes se incluyen expertos que han trabajado estrechamente con sistemas de inteligencia artificial de vanguardia, lo que añade peso a sus preocupaciones. Hemos escuchado esto antes, incluso del investigador de IA Eliezer Yudkowsky, a quien le preocupa que ChatGPT apunte hacia un futuro cercano en el que la IA “llegue a una inteligencia más inteligente que la humana” y mate a todos. La inscripción para VB Transform 2024 está abierta Únase a los líderes empresariales en San Francisco del 9 al 11 de julio para nuestro evento emblemático de IA. Conéctese con pares, explore las oportunidades y desafíos de la IA generativa y aprenda cómo integrar aplicaciones de IA en su industria. Regístrese ahora Aun así, como Casey Newton señaló sobre la carta en Platformer: “Cualquiera que busque acusaciones asombrosas de los denunciantes probablemente se irá decepcionado”. Señaló que esto podría deberse a que sus empleadores prohíben a dichos denunciantes denunciar. O podría ser que haya escasa evidencia más allá de las narrativas de ciencia ficción para respaldar las preocupaciones. Simplemente no lo sabemos. Cada vez más inteligentes Lo que sí sabemos es que los modelos de IA generativa “de frontera” continúan volviéndose más inteligentes, según lo medido por pruebas de referencia estandarizadas. Sin embargo, es posible que estos resultados estén sesgados por el «sobreajuste», cuando un modelo funciona bien con datos de entrenamiento pero mal con datos nuevos e invisibles. En un ejemplo, se demostró que las afirmaciones de rendimiento del percentil 90 en el examen uniforme de la abogacía estaban exageradas. Aun así, debido a los espectaculares avances en las capacidades de los últimos años para escalar estos modelos con más parámetros entrenados en conjuntos de datos más grandes, se acepta en gran medida que este camino de crecimiento conducirá a modelos aún más inteligentes en el próximo año o dos. Es más, muchos investigadores destacados de la IA, incluido Geoffrey Hinton (a menudo llamado el «padrino de la IA» por su trabajo pionero en redes neuronales), creen que la inteligencia artificial general (AGI) podría lograrse en cinco años. Se cree que AGI es un sistema de inteligencia artificial que puede igualar o superar la inteligencia a nivel humano en la mayoría de las tareas y dominios cognitivos, y el punto en el que las preocupaciones existenciales podrían realizarse. El punto de vista de Hinton es significativo, no sólo porque ha jugado un papel decisivo en la construcción de la tecnología que impulsa la generación de IA, sino porque, hasta hace poco, pensaba que la posibilidad de AGI estaba a décadas de distancia. Leopold Aschenbrenner, un ex investigador de OpenAI en el equipo de superalineación que fue despedido por supuestamente filtrar información, publicó recientemente un gráfico que muestra que se puede lograr AGI para 2027. Esta conclusión supone que el progreso continuará en línea recta, hacia arriba y hacia la derecha. Si es correcto, esto añade credibilidad a las afirmaciones de que el AGI podría alcanzarse en cinco años o menos. ¿Otro invierno de IA? Aunque no todo el mundo está de acuerdo en que la generación de IA alcance estas alturas. Parece probable que la próxima generación de herramientas (GPT-5 de OpenAI y la próxima versión de Claude y Gemini) obtenga avances impresionantes. Dicho esto, no se garantiza un progreso similar más allá de la próxima generación. Si los avances tecnológicos se estabilizan, las preocupaciones sobre las amenazas existenciales a la humanidad podrían ser discutibles. El influencer de IA Gary Marcus ha cuestionado durante mucho tiempo la escalabilidad de estos modelos. Ahora especula que en lugar de presenciar los primeros signos de AGI, ahora estamos viendo los primeros signos de un nuevo «Invierno de IA». Históricamente, la IA ha experimentado varios “inviernos”, como los períodos de los años 1970 y finales de los 1980, cuando el interés y la financiación en la investigación de la IA disminuyeron drásticamente debido a expectativas no cumplidas. Este fenómeno suele surgir después de un período de mayores expectativas y exageración en torno al potencial de la IA, lo que en última instancia conduce a la desilusión y las críticas cuando la tecnología no cumple promesas demasiado ambiciosas. Queda por ver si tal desilusión está en marcha, pero es posible. Marcus señala una historia reciente publicada por Pitchbook que dice: “Incluso con la IA, lo que sube eventualmente bajará. Durante dos trimestres consecutivos, los acuerdos de IA generativa en las primeras etapas han disminuido, cayendo un 76% desde su pico en el tercer trimestre de 2023, mientras los inversores cautelosos se sientan y reevalúan tras la avalancha inicial de capital en el espacio”. Esta disminución en los acuerdos de inversión y su tamaño puede significar que las empresas existentes se quedarán sin efectivo antes de que aparezcan ingresos sustanciales, lo que las obligará a reducir o cesar sus operaciones, y podría limitar el número de nuevas empresas y nuevas ideas que ingresan al mercado. Aunque es poco probable que esto tenga algún impacto en las empresas más grandes que desarrollan modelos de IA de vanguardia. Fuente: Pitchbook A esta tendencia se suma una historia de Fast Company que afirma que hay “poca evidencia de que el [AI] En términos generales, la tecnología está liberando suficiente productividad nueva como para aumentar las ganancias de las empresas o elevar los precios de las acciones”. En consecuencia, el artículo opina que la amenaza de un nuevo invierno de IA puede dominar la conversación sobre IA en la segunda mitad de 2024. A toda velocidad. Sin embargo, Gartner podría captar mejor la sabiduría predominante cuando afirma: “De manera similar a la introducción del Internet, la imprenta o incluso la electricidad, la IA está teniendo un impacto en la sociedad. Está a punto de transformar la sociedad en su conjunto. La era de la IA ha llegado. El avance de la IA no se puede detener ni siquiera frenar”. La comparación de la IA con la imprenta y la electricidad subraya el potencial transformador que muchos creen que tiene la IA, impulsando la inversión y el desarrollo continuos. Este punto de vista también explica por qué tantas personas apuestan por la IA. Ethan Mollick, profesor de Wharton Business School, dijo recientemente en un podcast Tech at Work de Harvard Business Review que los equipos de trabajo deberían incorporar la IA en todo lo que hacen, ahora mismo. En su blog One Useful Thing, Mollick señala evidencia reciente que muestra cuán avanzados han llegado los modelos de IA de generación. Por ejemplo: «Si debates con una IA, es un 87% más probable que te convenza de su punto de vista asignado que si debates con un humano promedio». También citó un estudio que mostró que un modelo de IA superaba a los humanos en cuanto a brindar apoyo emocional. En concreto, la investigación se centró en la habilidad de replantear situaciones negativas para reducir las emociones negativas, también conocida como reevaluación cognitiva. El robot superó a los humanos en tres de las cuatro métricas examinadas. Los cuernos de un dilema La pregunta subyacente detrás de esta conversación es si la IA resolverá algunos de nuestros mayores desafíos o si, en última instancia, destruirá a la humanidad. Lo más probable es que haya una combinación de beneficios mágicos y daños lamentables que surjan de la IA avanzada. La respuesta sencilla es que nadie lo sabe. Tal vez, de acuerdo con el espíritu de la época más amplio, la promesa de progreso tecnológico nunca ha estado tan polarizada. Incluso los multimillonarios tecnológicos, presumiblemente aquellos con más conocimiento que los demás, están divididos. Figuras como Elon Musk y Mark Zuckerberg se han enfrentado públicamente sobre los riesgos y beneficios potenciales de la IA. Lo que está claro es que el debate apocalíptico no va a desaparecer ni está cerca de resolverse. Mi propia probabilidad de perdición “P(perdición)” sigue siendo baja. Hace un año tomé la posición de que mi P(doom) es ~ 5% y lo mantengo. Si bien las preocupaciones son legítimas, encuentro alentadores los recientes desarrollos en el frente seguro de la IA. En particular, Anthropic ha avanzado en la explicación de cómo funcionan los LLM. Recientemente, los investigadores pudieron observar el interior de Claude 3 e identificar qué combinaciones de sus neuronas artificiales evocan conceptos o «características» específicos. Como señaló Steven Levy en Wired, «Un trabajo como este tiene implicaciones potencialmente enormes para la seguridad de la IA: si puedes descubrir dónde acecha el peligro dentro de un LLM, presumiblemente estarás mejor equipado para detenerlo». En última instancia, el futuro de la IA sigue siendo incierto, entre oportunidades sin precedentes y riesgos significativos. El diálogo informado, el desarrollo ético y la supervisión proactiva son cruciales para garantizar que la IA beneficie a la sociedad. Los sueños de muchos de un mundo de abundancia y ocio podrían hacerse realidad o convertirse en un infierno de pesadilla. El desarrollo responsable de la IA con principios éticos claros, pruebas de seguridad rigurosas, supervisión humana y medidas de control sólidas es esencial para navegar en este panorama en rápida evolución. Gary Grossman es vicepresidente ejecutivo de práctica tecnológica en Edelman y líder global del Centro de Excelencia de IA de Edelman. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podrías considerar contribuir con un artículo propio! Leer más de DataDecisionMakers