Descubra cómo las empresas están integrando responsablemente la IA en la producción. Este evento al que solo se puede invitar en SF explorará la intersección de la tecnología y los negocios. Descubre aquí cómo puedes asistir. Si sientes una repentina necesidad de sonreír al ver esta roca, estás en buena compañía. Como humanos, a menudo describimos irracionalmente comportamientos humanos a objetos con algunas, pero no todas, características (también conocido como antropomorfismo), y estamos viendo que esto ocurre cada vez más con la IA. En algunos casos, el antropomorfismo parece decir «por favor» y «gracias» al interactuar con un chatbot o elogiar la IA generativa cuando el resultado coincide con sus expectativas. Pero dejando de lado la etiqueta, el verdadero desafío aquí es cuando ves que la IA ‘razona’ con una tarea simple (como resumir este artículo) y luego esperas que realice lo mismo de manera efectiva en una antología de artículos científicos complejos. O, cuando ve que un modelo genera una respuesta sobre la reciente llamada de resultados de Microsoft y espera que realice una investigación de mercado proporcionando al modelo las mismas transcripciones de resultados de otras 10 empresas. Evento de VB The AI ​​Impact Tour – San Francisco Únase a nosotros mientras navegamos por las complejidades de la integración responsable de la IA en los negocios en la próxima parada del AI Impact Tour de VB en San Francisco. No pierda la oportunidad de obtener información de expertos de la industria, establecer contactos con innovadores de ideas afines y explorar el futuro de GenAI con experiencias de clientes y optimizar los procesos comerciales. Solicite una invitación Estas tareas aparentemente similares son en realidad muy diferentes para los modelos porque, como dice Cassie Kozyrkov, “la IA es tan creativa como un pincel”. La mayor barrera para la productividad con la IA es la capacidad humana para utilizarla como herramienta. Como anécdota, ya hemos oído hablar de clientes que implementaron licencias de Microsoft Copilot y luego redujeron el número de puestos porque las personas no sentían que eso agregara valor. Lo más probable es que esos usuarios tuvieran una discrepancia en las expectativas entre los problemas que la IA está preparada para resolver y la realidad. Y, por supuesto, las demostraciones pulidas parecen mágicas, pero la IA no es mágica. Estoy muy familiarizado con la decepción que se siente la primera vez que te das cuenta de que «Oh, la IA no sirve para eso». Pero en lugar de darse por vencido y abandonar la IA generacional, puede trabajar en desarrollar la intuición correcta para comprender la IA/ML de manera más efectiva y evitar los peligros del antropomorfismo. Definición de inteligencia y razonamiento para el aprendizaje automático Siempre hemos tenido una definición deficiente de inteligencia. Cuando un perro pide golosinas, ¿es inteligente? ¿Qué pasa cuando un mono usa una herramienta? ¿Es inteligente que sepamos intuitivamente alejar las manos del calor? Cuando las computadoras hacen estas mismas cosas, ¿eso las hace inteligentes? Solía ​​​​estar (hace 12 meses) en el bando que estaba en contra de admitir que los modelos de lenguaje grandes (LLM) pudieran «razonar». Sin embargo, en una discusión reciente con algunos fundadores confiables de IA, planteamos la hipótesis de una posible solución: una rúbrica para describir los niveles de razonamiento. Al igual que tenemos rúbricas para la comprensión lectora o el razonamiento cuantitativo, ¿qué pasaría si pudiéramos introducir un equivalente de IA? Esta podría ser una poderosa herramienta utilizada para comunicar a las partes interesadas el nivel esperado de «razonamiento» de una solución basada en LLM, junto con ejemplos de lo que no es realista. Los humanos tenemos expectativas poco realistas sobre la IA. Tendemos a ser más indulgentes con los errores humanos. De hecho, los coches autónomos son estadísticamente más seguros que los humanos. Sin embargo, cuando ocurren accidentes, hay un alboroto. Esto exaspera la decepción cuando las soluciones de inteligencia artificial no logran realizar una tarea que se esperaba que realizara un ser humano. Escucho muchas descripciones anecdóticas de las soluciones de IA como un ejército masivo de «pasantes». Y, sin embargo, las máquinas todavía fallan de maneras que los humanos no, aunque las superan con creces en otras tareas. Sabiendo esto, no sorprende que veamos que menos del 10% de las organizaciones desarrollan e implementan con éxito proyectos de IA genérica. Otros factores, como la desalineación con los valores empresariales y los esfuerzos de curación de datos inesperadamente costosos, no hacen más que agravar los desafíos que enfrentan las empresas con los proyectos de IA. Una de las claves para combatir estos desafíos y desbloquear el éxito del proyecto es dotar a los usuarios de IA de una mejor intuición sobre cuándo y cómo usar la IA. Usar el entrenamiento de IA para desarrollar la intuición El entrenamiento es la clave para hacer frente a la rápida evolución de la IA y redefinir nuestra comprensión de la inteligencia del aprendizaje automático (ML). La capacitación en IA puede parecer bastante vaga por sí sola, pero descubrí que separarla en tres grupos diferentes ha sido útil para la mayoría de las empresas. Seguridad: cómo utilizar la IA de forma segura y mantenerse alejado de estafas de phishing nuevas y mejoradas por la IA. Alfabetización: comprender qué es la IA, qué esperar de ella y cómo podría fallar. Preparación: saber cómo aprovechar de manera hábil (y eficiente) las herramientas impulsadas por IA para realizar el trabajo con mayor calidad. Proteger a su equipo con entrenamiento de seguridad de IA es como equipar a un ciclista nuevo con rodilleras y coderas: podría evitar algunos rasguños, pero no los preparará para los desafíos del ciclismo de montaña intenso. Mientras tanto, la capacitación en preparación para la IA garantiza que su equipo utilice la IA y el aprendizaje automático en su máximo potencial. Cuanto más le brinde a su fuerza laboral la oportunidad de interactuar de manera segura con herramientas de inteligencia artificial de generación, más desarrollarán la intuición adecuada para el éxito. Solo podemos adivinar qué capacidades estarán disponibles en los próximos 12 meses, pero poder vincularlas a la misma rúbrica (niveles de razonamiento) y saber qué esperar como resultado solo puede preparar mejor a su fuerza laboral para tener éxito. Sepa cuándo decir «No sé», sepa cuándo pedir ayuda y, lo más importante, sepa cuándo un problema está fuera del alcance de una determinada herramienta de IA. Cal Al-Dhubaib es jefe de inteligencia artificial y ciencia de datos en Further. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podrías considerar contribuir con un artículo propio! Leer más de DataDecisionMakers