Todo lo que necesitas saber sobre tecnología

Etiqueta: ai Página 2 de 19

Según los informes, Apple planea Health+ suscripción con coaching de IA en 2026

Según los informes, Apple planea Health+ suscripción con coaching de IA en 2026

Apple pronto podría agregar otra suscripción a su alineación en crecimiento. Según Mark Gurman de Bloomberg, la compañía está preparando Apple Health Plus, un entrenador de salud con IA diseñado para ofrecer planificación nutricional y sugerencias médicas personalizadas. Se espera que el servicio llegue el próximo año como parte de una renovación más amplia de la aplicación de salud. Apple ha pasado años posicionándose en torno a la salud y el bienestar, especialmente con el Apple Watch. El seguimiento de la aptitud física, el monitoreo cardíaco y las ideas del sueño ya han llegado al ecosistema de Apple. Health+ expandiría ese impulso al capas en la guía impulsada por la IA. A diferencia de Apple Fitness+, que se basa en entrenadores humanos y entrenamientos pregrabados, Health+ se centraría en las recomendaciones cotidianas impulsadas por la inteligencia artificial. El momento refleja la creciente necesidad de Apple de encontrar nuevas fuentes de ingresos. Gurman señala que la división de servicios, el brazo más rentable de Apple fuera del iPhone, enfrenta serios vientos en contra. Las decisiones judiciales en los EE. UU. Amenazan su modelo de compra en la aplicación, y el acuerdo de búsqueda de $ 20 mil millones con Google corre el riesgo de ser desmantelado. Si ambos vacilan, casi el 40% de los ingresos por servicios de Apple podrían estar en peligro. Apple ya ha hecho movimientos para contrarrestar esto. El mes pasado, introdujo AppleCare One, un plan de protección agrupado que cubre tres dispositivos por $ 20 por mes. También aumentó el precio de Apple TV+ de $ 9.99 a $ 12.99 a pesar de una biblioteca de contenido más pequeña en comparación con Netflix o Disney+. Health+ se ajusta a esa misma estrategia atacando por completo a un nuevo sector. La industria de la salud vale billones, y Apple claramente quiere un pedazo de ella. Aún así, el éxito de Health+ dependerá del progreso de Apple en la IA. La compañía ha tenido problemas en este espacio, con funciones avanzadas de Siri ahora retrasadas hasta 2026. Si Apple puede lograrlo, Health+ podría marcar su juego más ambicioso hasta ahora en salud y bienestar.

Estos centros tecnológicos de California están listos para dominar la economía de IA

Estos centros tecnológicos de California están listos para dominar la economía de IA

A pesar de las sugerencias de que ha estado perdiendo su ventaja, California está muy por delante de los demás cuando se trata de la tecnología más popular en este momento: la inteligencia artificial. Las regiones alrededor de San Francisco, San José y Los Ángeles se encuentran entre las mejores clasificadas en el país para la IA, según un informe publicado el miércoles por la Institución Brookings. El grupo de expertos de Washington llamó a las áreas metropolitanas de San Francisco y San José «superestrellas» cuando se trata de tener todo en su lugar para lanzar grandes empresas de IA. Según el informe, tres de las 10 principales regiones de la ciudad están listas para la IA en California. Ningún otro estado tiene más de una región en el top 10. Texas no tuvo ninguno en el top 10 de Brookings. Austin ocupó el puesto 11. Con gigantes tecnológicos como Google, Meta y Nvidia con sede en el norte de California y OpenAi que aseguran un récord de $ 40 mil millones en fondos y unir a las universidades de California para llevar su chatbot de chatbot AI a los campus este año, no es sorprendente que las ciudades del Área de la Bahía domine. «Realmente están en una clase propia, dada la escala, la sede dominante de la gran tecnología, los laboratorios de investigación masivos y el capital de riesgo», dijo Mark Muro, miembro senior del programa de políticas metropolitanas de Brookings, que coescribió el estudio. LOS Angeles, hogar de las universidades de primer nivel, estudios de cine, startups de tecnología de defensa, redes sociales y aplicaciones y fechas de frases, también es un gran contendiente. El área metropolitana de Los Ángeles, que incluye a Long Beach y Anaheim, es parte del segundo grupo más alto de regiones listas para AI Brookings llama «Star Hubs», según el informe. El análisis muestra cómo las áreas metropolitanas de California se encuentran entre las más preparadas para la IA, la tecnología con el potencial de remodelar industrias tan diversas como la atención médica y el entretenimiento. El área metropolitana de San Diego también era parte de un grupo considerado más listo para la IA. Se clasificó el 12 de Brookings examinó la financiación del capital de riesgo, las publicaciones de trabajo de IA, el número de titulares de titulares de grados informáticos, patentes y otros datos. La información recopiló alrededor de 387 áreas metropolitanas proporcionadas sobre si ciertos lugares tienen más o menos talento, innovación y adopción de IA. Después de analizar estos datos, el grupo de expertos agrupó las áreas metropolitanas en seis grupos diferentes, lo que indica cuáles son los más listos para AI. Los grupos son superestrellas, centros de estrellas, centros emergentes, motores enfocados, adoptantes nacientes y otros. Dos áreas metropolitanas se consideran superestrellas, mientras que 28 son centros estelares. Los grupos menos listos para AI se quedaron atrás cuando se trataba de los principales empleadores tecnológicos, graduados de informática, patentes, contratos y otros factores. Las áreas metropolitanas que incluían Stockton, Modesto, Visalia y Bakersfield en California eran parte del clúster «otros». Los condados rurales y las pequeñas áreas metropolitanas se quedaron atrás cuando se trataba de talento e innovación de IA, según el informe. El número de startups de IA y fondos de capital de riesgo fue «prácticamente inexistente» en estas áreas. AI tiene el potencial de crear nuevos empleos, pero también podría desplazar tareas mundanas y tediosas, remodelando el mercado laboral. Asegurarse de que la IA no solo ponga a los trabajadores tecnológicos y a otras personas sin trabajo sea una desventaja más a la baja que más áreas metropolitanas listas para AI tengan que vigilar, dijo Muro. Los despidos masivos en la industria tecnológica, el lanzamiento de herramientas de IA que pueden codificar y hacer otras tareas, y los comentarios ejecutivos han aumentado las preocupaciones de que las empresas redujerán su fuerza laboral. Las áreas metro que incluían Nueva York, Boston, Washington, Chicago, Atlanta y Seattle también se consideraron más listas para otros lugares. Varias áreas metropolitanas de Texas que abarcan Austin, Dallas, Houston o San Antonio son parte del grupo Star Hubs. La región alrededor de Nueva York ocupó el puesto número 1 para la preparación de la IA para el gran volumen de talento, las publicaciones de trabajo de IA y el uso de calculación de alto rendimiento. Pero los investigadores también consideraron otros factores, como la densidad de una región, cuando se les ocurrió grupos y querían resaltar la ventaja del Área de la Bahía. La industria tecnológica está creciendo en Texas, donde Austin lleva el apodo de «Silicon Hills». Algunas de las compañías tecnológicas más grandes del mundo, incluidas Google, Meta y Amazon, tienen oficinas en Austin. Y algunos empresarios, incluido Elon Musk, han trasladado la sede de sus empresas a Texas en los últimos años. El área de Austin tiene un gran grupo de graduados de informática, ingeniería y matemáticas, pero el Área de la Bahía de San Francisco todavía tiene más startups de IA, ofertas de capital de riesgo, patentes y perfiles de trabajadores estadounidenses con habilidades de IA, datos de Brookings. arriba. El Área de la Bahía, dijo Muro, probablemente seguirá siendo un centro central de IA en el futuro. «Probablemente no desplazarán la importancia del Área de la Bahía, pero lo complementarán», dijo.

Creación de confianza en la IA: permitir que las empresas establezcan un futuro ético de IA

Creación de confianza en la IA: permitir que las empresas establezcan un futuro ético de IA

¿Por qué confiar en dispositivos de IA que no pueden decirte cómo toman decisiones? Desde la aprobación de los préstamos para el hogar hasta la evaluación de los solicitantes de empleo hasta recomendar tratamientos contra el cáncer: AI ya está haciendo llamadas de alto riesgo. ¡La tecnología es poderosa! Sin embargo, la pregunta no es si AI transformará su negocio. Ya lo ha hecho. La verdadera pregunta es: ¿cómo generar confianza en los sistemas de inteligencia artificial? Y aquí está la verdad: la confianza en la IA no es una «cosa tecnológica». Se trata de cómo las empresas estrategias. Este blog tiene como objetivo profundizar en la construcción de IA ética que sea segura y confiable. Por qué construir confianza en la IA es una confianza imperativa comercial en la IA no es solo una preocupación técnica. Es una línea de vida empresarial. Sin ella, la adopción se ralentiza. La confianza del usuario cae. Y sí: los riesgos financieros comienzan a acumularse. Una encuesta de KPMG presentó que el 61% de los encuestados no confían completamente en los sistemas de IA. Eso no es una pequeña brecha. Es un cañón de credibilidad. Y tiene un costo: despliegue de IA retrasado, capacitación costosa de los empleados, bajo ROI y lo peor de todo, los ingresos perdidos. En una carrera mundial hacia la automatización, ese déficit de confianza podría dejar a las empresas detrás. Desempaquemos por qué esto no es solo un problema tecnológico: es un negocio: los consumidores son escépticos, nadie quiere ser manipulado o juzgado por un sistema. ¿Y los consumidores de hoy? Son más nítidos que nunca. No solo usan servicios impulsados ​​por la IA, sino que los cuestionan. Preguntan: ¿Quién construyó este modelo? ¿En qué suposiciones se hornean? ¿Cuáles son sus puntos ciegos y quién es responsable cuando se equivoca? Los reguladores están observando a los gobiernos de todo el mundo endureciendo los tornillos de la IA con leyes como la Ley de AI de la UE, y la aplicación de la AI de la FTC empuja en los EE. UU. El mensaje es claro: si su IA no es explicable o justa, es responsable. La confianza es una gran ventaja competitiva que McKinsey descubrió que las empresas líderes con los programas de IA responsables maduros informan ganancias, como una mayor eficiencia, una confianza más fuerte de las partes interesadas y menos incidentes. ¿Por qué? Porque la gente usa lo que confían. Período. Desbloquee las victorias rápidas con IA Integre sin esfuerzo AI con sus sistemas existentes ¿Cuáles son los riesgos de la IA cuando falta confianza? Cuando falta la confianza en la IA, los riesgos se acumulan rápido y alto. Las cosas se rompen. Las tasas de error disparan. Grietas de cumplimiento. Los reguladores vienen tocando. ¿Y tu marca? Se necesita un golpe del que es difícil recuperarse. Para 2026, las empresas que construyen IA con transparencia, confianza y seguridad fuerte estarán 50% por delante, no solo en la adopción, sino en los resultados comerciales y la satisfacción del usuario. Y el mensaje es claro: la confianza no es agradable de tener. Es tu ventaja competitiva. Esto es lo que está en juego: sesgo que refuerza la desigualdadei aprende de los datos disponibles. Si se deja sin control, eso podría resultar en negaciones de préstamos injustos. Prácticas de contratación discriminatorias o diagnósticos médicos incorrectos. ¿Y una vez que el público ve el sesgo? La confianza no solo cae, sino que desaparece. Pesadería de privacidad de datos Los datos personales no solo son riesgosos. Es legalmente explosivo. Cuando los usuarios creen que su privacidad se ha visto comprometida, pierden confianza. Esta ausencia de confianza puede dar lugar a acciones legales injustificadas y una mayor aplicación regulatoria. Algoritms de caja negra Nadie, ni siquiera su equipo de desarrollo, puede explicar una decisión de IA, ¿cómo se defiende? La opacidad es más que inconveniente en los campos de finanzas, seguros y medicina. No es aceptable. Falta de responsabilidad de los resultados de la inexplicabilidad. La IA debería apoyar a las personas, no de lado. El control total de una máquina, especialmente en situaciones de alto riesgo, no es innovación. Es negligencia. La automatización sin supervisión es como poner un bote de correo electrónico autoenfacido a cargo de los contratos legales. ¿Rápido? Seguro. ¿Preciso? Tal vez. ¿Confiable? Solo si alguien lee antes de hacer clic en Enviar. La crisis de repercusiones reputacional y legal se puede iniciar sin malicia. ¿Un algoritmo malo para la contratación? Lo siguiente que sabes es que estás atrapado en una demanda colectiva. ¿Cómo podemos crear una IA confiable que siga siendo efectiva en el futuro? La IA que es inteligente ya no es suficiente. Si quieres que la gente confíe en él mañana, tienes que construirlo bien hoy. No auditas en la confianza, lo diseñas. Un estudio de McKinsey mostró que las empresas que usan IA responsable desde el primer momento tenían un 40% más de probabilidades de ver rendimientos reales. ¿Por qué? Porque la confianza no es una palabra de moda para sentirse bien. Es lo que hace que las personas se sientan seguras y respetadas. Eso es todo en los negocios. La IA confiable no solo reduce el riesgo. Aumenta el compromiso. Aumenta la lealtad. Te da poder de permanencia. Y seamos realistas: Trust no es algo en lo que puedas darle cinta a conductos más tarde. No es un movimiento de relaciones públicas. Es la base. Eso nos lleva a la pregunta: ¿cómo se construye ese tipo de IA? 1. Incrustar la ética desde el principio No trate la ética como un ejercicio de Bolt-On o PR. Hacerlo fundamental. Luce en ética, expertos en dominios y mentes legales, principales y con frecuencia. ¿Por qué? Traerlo durante el diseño solo se volverá cada vez más costoso. No arreglamos los cinturones de seguridad en el auto después de un accidente, ¿verdad? 2. Haga que la transparencia no sea negociable use modelos interpretables cuando sea posible. Y cuando los modelos de caja negra son necesarios, aplique herramientas como SHAP o LIME para desempacar el «por qué» detrás de las predicciones. Sin visibilidad = sin responsabilidad. 3. Priorizar la integridad de los datos La IA confiable depende de datos confiables. Auditar sus conjuntos de datos. Identificar sesgo. Frota lo que no debería estar allí. Cifrar lo que nunca debería filtrarse. Porque si las entradas son desordenadas, las salidas no solo estarán equivocadas, serán peligrosas. 4. Mantenga a los humanos en el bucle que la IA debe apoyar, nunca anulando el juicio humano. Las llamadas más difíciles pertenecen a la gente. Personas que obtienen los matices. Las apuestas. La historia detrás de los datos. Porque la responsabilidad no se puede codificar. Ningún algoritmo debe llevar el peso de la responsabilidad humana. 5. Monitoree implacablemente un modelo ético hoy puede convertirse en una responsabilidad mañana. Los entornos empresariales cambian. También lo hacen los comportamientos de los usuarios y las salidas del modelo. Configure alertas en tiempo real, detección de deriva y auditorías regulares, como lo haría para sus finanzas. La confianza requiere mantenimiento. 6. Educar a su fuerza laboral No es suficiente capacitar a las personas para usar la IA, necesitan entenderlo. Ofrezca pistas de aprendizaje sobre cómo funciona la IA, dónde falla y cómo cuestionar sus resultados. El objetivo? Una cultura donde los empleados no siguen ciegamente el algoritmo, pero la desafían cuando algo se siente fuera. 7. Colaborar para elevar la barra AI no funciona de forma cero. Trabajar junto con reguladores, organizaciones educativas e incluso competidores para crear estándares compartidos. Porque una falla pública puede agrandar la confianza del usuario en toda la industria. Asegurar la integración segura de la IA con un enfoque humano en el bucle Fingent comprende los beneficios y la velocidad de IA aporta al desarrollo de software. Mientras aprovecha la eficiencia de la IA, Fingent garantiza la seguridad con un enfoque humano en el circuito. Fingent trabaja con ingenieros rápidos especialmente capacitados para validar la precisión y las vulnerabilidades de cada código generado. Nuestro proceso tiene como objetivo habilitar la utilización inteligente de LLM. Los modelos LLM se eligen después del análisis exhaustivo de las necesidades de un proyecto para adaptarse mejor a su singularidad. Creación de soluciones de IA confiables, Fingent asegura flujos de trabajo simplificados, costos operativos reducidos y un rendimiento mejorado para los clientes. ¡Cómo AI está transformando el desarrollo de software en Fingent Explore More! Preguntas Las empresas que hacen sobre AI Trust P: ¿Qué enfoques podemos usar para establecer la confianza en la IA? R: Construya como lo haría con un puente: priorizar la visibilidad, la responsabilidad y las bases robustas. Esto implica modelos transparentes, diseño responsable, sistemas evaluables y, importante, supervisión humana. Comience con anticipación. Permanecer abierto. Involucrar a las personas que utilizarán (o se verán afectados por) el sistema. P: ¿AI es confiable de alguna manera? R: De hecho, pero únicamente si nos esforzamos. La IA, por su naturaleza, no es confiable inicialmente. La confianza surge de la forma en que se establece, las personas involucradas en su creación y las medidas de seguridad implementadas. P: ¿Por qué la confianza en la IA es crítica para las empresas? R: La confianza es lo que transforma la tecnología en impulso. Si los clientes carecen de confianza en su IA, no participarán. ¿Qué pasa si los reguladores no? Es posible que ni siquiera tenga éxito en llevarlo al mercado. La confianza es táctica. P: ¿Cuáles son los peligros de usar una IA poco confiable? A: Piense en decisiones sesgadas. Fugas de privacidad. Incluso demandas. La reputación puede tanques durante la noche. Puestos de innovación. Lo peor de todo? Una vez que las personas dejan de confiar en su sistema, dejan de usarlo. Y reconstruir esa confianza es difícil. Es lento, doloroso y costoso. P: ¿Cómo construir modelos AI éticos y confiables que perduren? R: Comience fuerte, con datos de capacitación ricos y diversos. No hay atajos aquí. Haga que la ética sea parte del plan. Deje que la gente se mantenga en control donde realmente importa. Y establecer una gobernanza sólida como columna vertebral. ¿Está comprometido a comprender cómo construir modelos AI éticos y confiables? Si es así, asegúrese de que sea una responsabilidad compartida para todos. P: ¿Qué métodos podemos usar para mantener la confianza en la IA? R: La confianza no es como una solución única. No es una insignia, es un proceso. Diseño para ello. Monitorearlo. Crecerlo. Hacer auditorías. Entrena tus modelos y tus equipos. Adapte rápidamente cuando cambien la ley o las expectativas públicas. ¿Qué pasa si su IA se desarrolla, pero sus prácticas de confianza no? Estás construyendo sobre arena no sobre una base sólida. Palabra final: la IA ética no es una ventaja. Es la estrategia. Ya sabemos que la IA es poderosa. Eso está resuelto. Pero, ¿se puede confiar en que se puede confiar? Esa es la verdadera prueba. Las empresas que se adelantan no solo construyen una IA rápida: construirán una IA confiable desde adentro hacia afuera. No como un eslogan pegadizo. Pero como principio fundamental. Algo horneado, no atornillado. Porque esta es la verdad: solo la IA confiable puede usarse con confianza, escalarse de manera segura y ser imparable. ¿El resto? Claro, podrían ser rápidos fuera de la puerta. Pero la velocidad sin confianza es un sprint hacia el colapso. Por lo tanto, cada negocio de pensamiento a futuro está preguntando: ¿Cómo podemos crear modelos de IA éticos y confiables? ¿Y cómo podemos hacerlo sin obstaculizar la innovación? Porque en la economía de IA de hoy, hacer lo correcto es estratégico. Hazlo tu borde. ¡Hoy!

ANUNTOS EN CHATGPT? Operai dice que no está fuera de la mesa

ANUNTOS EN CHATGPT? Operai dice que no está fuera de la mesa

Openai está explorando nuevas formas de generar ingresos y no ha descartado la posibilidad de introducir anuncios en ChatGPT. En una entrevista con The Verge, el jefe de Chatgpt, Nick Turley, dijo que la compañía está abierta a la idea, pero enfatizó la necesidad de ser «muy reflexivo y de buen gusto» si avanza. Dijo que ChatGPT puede no ser adecuado para la publicidad porque debe alinearse estrechamente con los objetivos del usuario, pero otros productos OpenAI en el futuro podrían soportar diferentes modelos de negocio. Turley dijo que sigue confiando en el enfoque basado en suscripción, que ha impulsado el rápido crecimiento de los ingresos. Operai espera generar $ 12.7 mil millones en ingresos este año, más del triple de los $ 3.7 mil millones que ganó en 2024, según Bloomberg. A pesar de esto, la compañía todavía opera con pérdidas y no espera lograr un flujo de efectivo positivo antes de 2029. ChatGPT recientemente superó a 700 millones de usuarios totales, y a partir de abril, la plataforma tenía 20 millones de suscriptores pagados. Turley dijo que la mayoría de los usuarios permanecen en el nivel gratuito, pero agregó que esta base de usuarios crea una oportunidad para convertirlos en servicios premium. Operai también está trabajando en nuevas funciones de monetización, incluidas las recomendaciones de productos a través de ChatGPT. Turley dijo que la compañía está probando un sistema llamado «Comercio en ChatGPT», que podría permitir que OpenAi obtenga un recorte de las compras. Dijo que Openai no planea permitir que los ingresos de afiliados influyan en las recomendaciones y desee que el proceso de selección de productos permanezca independiente. Sam Altman, CEO de Operai, ha expresado su preocupación por mezclar anuncios con IA. Durante un evento de Harvard Business School el año pasado, dijo que la idea lo hizo «un poco inquieto» y solo debería usarse como último recurso. Sin embargo, en un episodio de podcast este junio, Altman dijo que «no se opone por completo» a los anuncios si se implementa de manera responsable. Turley dijo que Openai también está considerando futuras direcciones de productos que van más allá del formato de chatbot actual. Dijo que ChatGPT podría evolucionar a una herramienta más profundamente integrada para la productividad y el uso comercial, donde podrían aplicarse diferentes estrategias de monetización. En noticias relacionadas, una fuente descartó la exageración del lanzamiento de agosto en torno a Deepseek-R2 a medida que la presión crece en sus objetivos de IA, mientras que se dice que la nueva tecnología AI UCM de Huawei ayuda a contrarrestar a China sanciones y mejorar el rendimiento. Para obtener más actualizaciones diarias, visite nuestra sección de noticias. ¡Quédate con anticipación en tecnología! ¡Únase a nuestra comunidad Telegram y regístrese en nuestro boletín diario de las principales historias! 💡 (fuente)

Nueva función de fórmula de Excel permite que Microsoft Copilot genere funciones de inglés sencillo

Nueva función de fórmula de Excel permite que Microsoft Copilot genere funciones de inglés sencillo

Aprender la fórmula de Excel correcta siempre ha sido un punto de dolor para muchos usuarios. Ahora, Microsoft Copilot lo está facilitando al escribir las instrucciones de inglés liso directamente en una celda y generar automáticamente la fórmula correcta. Esta nueva característica ahorra tiempo y reduce la necesidad de memorizar la sintaxis compleja. Cómo funciona anteriormente la nueva función de copilot de Excel, tenía que abrir una ventana de copiloto separada para solicitar ayuda con las fórmulas. Con esta actualización, ahora puede escribir instrucciones lisas en inglés directamente en una celda, y el copiloto las convertirá en la fórmula de Excel correcta. Microsoft dice que este es el reverso de otra adición reciente, donde Copilot explicó las fórmulas de Excel existentes en un lenguaje simple. Juntas, las dos herramientas hacen que Excel sea mucho más accesible. Uno le ayuda a comprender las fórmulas, la otra lo ayuda a crearlas sin memorizar la sintaxis. Si no eres particularmente experto en tecnología pero aún quieres armar hojas de Excel funcionales, esto podría ayudar. Ejemplos prácticos El caso de uso más básico es sencillo: podría escribir algo como «Encuentra el número más alto» y aprobar el copiloto de una variedad de celdas. Pero Microsoft también destacó ejemplos más avanzados. En una demostración, Copilot analizó una columna de comentarios de los usuarios y generó un resumen de lo que la gente decía. Eso significa que podría pedirle que encuentre tendencias, compare conjuntos de datos o resalte los problemas recurrentes sin necesidad de escribir fórmulas complicadas usted mismo. Para cualquiera que haya luchado con la curva de aprendizaje de Excel, esta nueva integración de copilotos podría ser un cambio de juego.

Colaborador: la IA será más perjudicial que Covid. ¿Qué fiesta puede aprovechar el momento?

Colaborador: la IA será más perjudicial que Covid. ¿Qué fiesta puede aprovechar el momento?

Los demócratas, bendicen sus corazones, sigan tratando de descubrir la fórmula mágica para detener al presidente Trump. Pero aquí hay un toque frío de la realidad: si la popularidad de Trump alguna vez se derrumba, probablemente se deba a algo completamente más allá de su control. En 2020, no fue una estrategia brillante la que derrotó a Trump. Era Covid. Una pandemia global. Un acto de Dios (o Wuhan). Esto plantea un pensamiento incómodo: la próxima interrupción, la que podría sacudir el globo de nieve política, probablemente será mucho más grande que Covid. Ese inquietante perturbación es la inteligencia artificial. En un reciente ensayo de sustitución, Pete Buttigieg sugirió que «el desafío de liderazgo número uno para los líderes mundiales, incluido el presidente de los Estados Unidos, será manejar los cambios que la IA está provocando». Continúa observando que «nuestro presidente, y su oposición, aún no han dejado en claro cuáles son sus políticas de IA incluso». No se equivoca con la falta de preparación bipartidista. Y por esta razón, es probable que las consecuencias políticas sean brutales para cualquier partido que esté a cargo cuando llega el punto de inflexión y la IA restablece la vida de millones de estadounidenses. Trump todavía le quedan tres años y medio en el reloj, solo el tiempo suficiente para que la IA salga de la alfombra de debajo de él. Esa es una oportunidad de oro para los demócratas, si son lo suficientemente inteligentes como para capitalizarlo. Pero los demócratas deberían detenerse a la lonaza alegremente en 2028, ya que el año ai les entrega las llaves de la Casa Blanca a perpetuidad. ¿Por qué? Porque los grandes choques para el sistema tienden a empoderar a) a) solucionadores de problemas audaces ob) demagogos populistas. Mild Olvidamos, el último cambio de tecnología sísmica, el aumento de la edad de la información, nos dio globalización, dislocación económica (para los estadounidenses de la clase trabajadora) y (eventualmente) Donald Trump. Esta próxima interrupción podría ser aún más traumática. AI no solo viene para los camioneros. Viene para asistentes legales, diseñadores gráficos, desarrolladores de software junior, incluso escritores (ejem). Los graduados universitarios que pasaron décadas creyendo que su título era un escudo contra la obsolescencia están a punto de probar lo que los mineros de carbón, los trabajadores de acero, los mecanógrafos y los agentes de viajes ya han soportado. Cuando eso suceda, los moderados desencantados radicalizarán y la desigualdad de ingresos se detonará. Las personas que construyen y controlan la IA obviamente se enriquecerán sucias. También lo harán los cirujanos superestrella y los litigantes de élite, personas cuya experiencia y habilidades enrarecidas no se pueden replicar de forma remota. Pero sus legiones de asociados, investigadores y asistentes legales desaparecerán como videos de gran éxito. Ahora, por generaciones, trabajos perdidos e industrias fueron reemplazados por nuevos, gracias a lo que los economistas llaman «destrucción creativa». El creador de buggy dio paso a la industria automotriz y al mecánico de automóviles, y a la sociedad avanzó. Pero esta vez, las viejas reglas pueden no aplicarse, al menos, no en virtud de alguna «mano invisible» orgánica. Si este cambio es tan severo y generalizado como muchos creen que será (una gran advertencia, sin duda), no se resolverá jugando con tasas impositivas marginales o con los beneficios de la implementación ligeramente expandiendo. Requerirá una gran reinvención de lo que hace el gobierno: el tipo de cosa que haría que los puristas de libre mercado estallaran en las colmenas. Pero aquí es donde se vuelve complicado para los demócratas: no pueden simplemente los trabajadores desplazados a mano un cheque y llamarlo una solución. Este es el problema central con los ingresos básicos universales, a menudo promocionado como la respuesta a las pérdidas de empleo con AI ai. La modesta cifra de $ 1,000 a mes que ha sido flotada es una broma. Pero incluso si la cantidad fuera mayor, aún tendría que emparejarse con un trabajo significativo. Algo que los demócratas deben aprender: la gente no solo quiere dinero. Anhelan la dignidad, el propósito, la pertenencia y una razón para levantarse por la mañana. Eso significa pensar en grandes y encontrar oportunidades significativas para que los desplazados sirvan y proporcionen valor. Imagine un maestro por cada cinco estudiantes en las aulas de la escuela pública y universitaria de Estados Unidos. Imagine los autobuses escolares con tres adultos en lugar de un conductor con exceso de trabajo. Iimagine Un cuerpo nacional de enfermeras y fisioterapeutas bien remunerados que realizan visitas regulares a las personas mayores aisladas y proporcionan salud a tiempo completo. Aprendizaje para capacitar a la próxima ola de electricistas, fontaneros y carpinteros, junto con una universidad gratuita o capacitación vocacional a cambio de uno o dos años del servicio nacional. No sucedería de la noche a la mañana. La gestión de esta transición requeriría beneficios de desempleo sólidos, por ejemplo, el 90% del salario anterior para un período fijo, no como bienestar, sino como una inversión en personas y un dividendo sobre el valor que han ayudado a crear en virtud de los dólares de impuestos (que construyeron Internet) y datos (esa automatización de combustible). Porque nuevamente, abordar el dilema del desplazamiento laboral es más que dinero. Lo que nos lleva a algunas preguntas importantes que tuvimos mejor responder. ¿Qué significa ser ciudadano en una sociedad cuando la IA hace que la mitad del mercado laboral se sienta redundante? ¿Cómo se retiene su identidad y sentido de autoestima cuando el trabajo al que ha dedicado su vida puede ser realizado de manera más eficiente por la inteligencia artificial? ¿Y cómo redujeamos a los seres humanos: decenas de millones de ellos: en los roles que hacen la vida mejor para los demás y les dará el respeto propio que proviene del servicio? Sea recordado, si es que lo hace, como el juguetón mientras Roma fue automatizado. Matt K. Lewis es el autor de «políticos ricos filtros» y «demasiado tonto para fallar».

Las escuelas de cine están adoptando la IA. Deberían?

Las escuelas de cine están adoptando la IA. Deberían?

Jake Panek, un estudiante de cine de 20 años, dice que se lo pasó muy bien en la Universidad de DePaul en Chicago, y una experiencia muy positiva con el programa de cine de la escuela. Sin embargo, un correo electrónico reciente alertando a los estudiantes sobre un nuevo curso en «escritura de guiones de IA» desencadenó una fuente de rabia sin explotar en él. El correo electrónico, que se distribuyó la semana pasada, ofreció a los estudiantes universitarios la oportunidad de examinar «el papel en rápida evolución de la inteligencia artificial en el proceso de escritura de guiones» y para ayudar a los estudiantes «explorar cómo la IA puede apoyar y mejorar la creatividad en la escritura de cine y televisión». Panek no lo tenía. No mucho después de recibir el correo electrónico, el joven cineasta estaba tan enojado que se dirigió a Instagram para expresar sus pensamientos: «Ver este correo electrónico me avergonzó a ser un estudiante de cine de DePaul», escribió, etiquetando la escuela y su programa cinematográfico. «Creo que el profesor que ‘enseñará’ este curso, todos los estudiantes que se inscriben en este curso y todos los que permitan que ocurra este curso debería reconsiderarlo seriamente, este curso no debería ser una cosa». Cuando Panek me habló sobre el programa, su desdén por la clase no parecía haber disminuido mucho. «Creo que es una mierda», me dijo. «Estoy tan enojado por la existencia misma». La Escuela de Artes Cinemáticas de DePaul se considera uno de los mejores programas de cine del país, y a menudo se ha distinguido al permitir que el cuerpo estudiantil acceda a equipos y software de vanguardia. Recientemente, sin embargo, los funcionarios de la escuela se han interesado en la IA. En mayo, el programa de cine celebró un simposio de «IA en las artes», diseñado para explorar «el papel transformador de la inteligencia artificial en las artes». Incluso antes de este evento, ciertas personas dentro de la administración han estado impulsando el programa de cine para explorar más a fondo la integración de la IA en su plan de estudios, dijo Matthew Quinn, el profesor de DePaul a quien se le ha encargado enseñar el nuevo curso de escritura de guiones. «Nuestra escuela, la Escuela de Artes Cinemáticas, se encuentra en la Facultad de Computación y Medios Digitales», dijo Quinn. «Nuestro decano es de la Escuela de Computación, por lo que, por supuesto, están muy interesados en IA». DePaul también tiene un grupo de trabajo de IA, agregó, y señaló que hubo un esfuerzo universitario para estudiar e integrar la IA en el plan de estudios. ¿Qué implica un curso de «escritura de guiones de IA»? Quinn dijo que el curso era muy similar a otros cursos de escritura de guiones que había enseñado, con la diferencia clave que se usó AI generativa para ayudar a crear y dar forma al material. “Entonces, como cuando se trata de generar líneas de registro y luego trabajar en el biografías de personajes y el desarrollo de personajes, y luego finalmente culminando con un paso de paso [a step outline is a summary of a script’s scenes]», Quinn dijo que los estudiantes de la clase» colaborarían «con Chatgpt. Más tarde, los estudiantes participarían en un taller donde se discutieron sus tareas, dijo Quinn. Los estudiantes hablarían sobre su proceso creativo, discutirían sus colaboraciones con los chatbots, y explicaran qué fue» lo que no. Para reconocer el uso de AI en la escritura de guiones. Las industrias de los medios y el periodismo. La tierra de interés cultural en la IA generativa. [the] Nuevas formas de narración de historias «que la tecnología podría proporcionar.» Creo que hay problemas definitivos con la IA generativa y cómo se ha introducido a los cineastas y artistas, y cómo, en este momento, gran parte de la propiedad de las herramientas está dentro de un contexto corporativo «, dijo.» Pero al mismo tiempo, el trabajo que veo es realmente emocionante «. En un artículo sobre el uso de la AI en las artes, Willis destaca el trabajo de Souki Mansoor, un ex documentalista que «tropezó con la AI Filmmaking Rabbit Hole» y ahora trabaja en la industria de la tecnología, que se desempeñó como orador invitado en una de las clases de Willis, actualmente, actualmente trabaja como «Sora Artist Program» Según su vínculo. quien se describe a sí misma como un «cineasta en recuperación», ha producido algunas piezas visuales utilizando plataformas como las que OpenAi es actualmente comercializada. «Diría que los estudiantes están muy nerviosos», dijo. O temas. Aclaró que el curso no se aplica a la IA. Educador, siento que estoy perjudicando a los estudiantes si no los estoy exponiendo a esto o fingiendo que no está sucediendo «. Quinn quiere que los estudiantes tomen una decisión informada sobre si quieren interactuar con la AI o no, y para hacerlo, necesitan entenderlo para los estudiantes como Panek, todo parece una gran traición de los fundamentos de los fundamentos del proceso creativo. Formas propias de resolver problemas: esa es hacer películas. Simplemente usemos eso ‘”Es difícil llamar realmente un artista.

Google Flights agrega herramienta de ofertas de vuelo con IA para ayudar a los viajeros a ahorrar dinero

Google Flights agrega herramienta de ofertas de vuelo con IA para ayudar a los viajeros a ahorrar dinero

Si alguna vez has pasado horas buscando vuelos baratos, sabes lo frustrante que puede ser. Desde descubrir el destino correcto y las fechas de viaje hasta encontrar la ruta perfecta, el proceso puede sentirse rápidamente abrumador. Google dice que está listo para ayudar, y está usando AI para hacerlo. La compañía ha anunciado una nueva característica para los vuelos de Google llamado ofertas de vuelo, diseñada para ayudar a los viajeros a ahorrar dinero con un esfuerzo mínimo. En lugar de buscar manualmente a través de filtros interminables, simplemente puede describir su viaje en lenguaje sencillo. Por ejemplo, Google sugiere indicaciones como «Viaje de una semana de duración este invierno a una ciudad con excelente comida, solo sin parar» o «Viaje de esquí de 10 días a un resort de clase mundial con polvo fresco». Una vez que haya ingresado sus preferencias, la IA aprovecha los datos de vuelos de Google en tiempo real para sugerir destinos y opciones de vuelo que coincidan con sus criterios. Puede elegir entre las recomendaciones o refinar su opinión para ver diferentes resultados. Google no es el primero en notar la demanda de planificación de viajes con IA. Muchos viajeros en hilos ya han estado compartiendo cómo usan ChatGPT para descubrir vuelos baratos. Parece que Google ha tomado nota, construyendo su propia herramienta integrada directamente en los vuelos de Google para una experiencia más perfecta. La función de ofertas de vuelo se implementará en Beta la próxima semana para los usuarios en los EE. UU., Canadá e India. Cuando llegue, podrá acceder a él desde la parte superior de la página de vuelos de Google o a través del menú en la esquina superior izquierda. Google dice que está alentando a los primeros usuarios a compartir comentarios para que pueda ajustar la herramienta antes de una versión más amplia.

5 razones por las que la IA en la programación puede ser mala: riesgos y desafíos

Comparta en su plataforma favorita de inteligencia artificial (AI) ha revolucionado muchas industrias, incluido el desarrollo de software. Herramientas como GitHub Copilot, CHATGPT y otros asistentes de codificación propulsados por IA prometen hacer que la programación sea más rápida y eficiente. Sin embargo, aunque la IA puede ser un aliado poderoso, no está exento de sus inconvenientes. En este artículo, exploraremos cinco razones por las que confiar demasiado en la IA en la programación puede ser una mala idea, y lo que los desarrolladores deben tener en cuenta para evitar estas dificultades. La dependencia excesiva y la degradación de habilidades de los mayores riesgos del uso de IA en la programación es el potencial de excesiva dependencia. Cuando los desarrolladores dependen demasiado de las herramientas de IA para escribir código, depuración o resolución de problemas, sus habilidades de programación fundamentales pueden erosionarse. El pensamiento crítico, la resolución de problemas y la capacidad de escribir código desde cero pueden sufrir. Con el tiempo, esta dependencia puede hacer que los desarrolladores sean menos capaces de trabajar de forma independiente o comprender la lógica central detrás de su código. Por ejemplo, un estudio realizado por GitHub encontró que, si bien las herramientas de IA como el copilot pueden aumentar la productividad, a menudo conducen a una mentalidad de «copia», donde los desarrolladores aceptan código generado por IA sin comprenderlo completamente. Cuando los desarrolladores dependen demasiado de las herramientas de IA pueden afectar las habilidades de los desarrolladores 2. Código generado por riesgos de calidad y seguridad no siempre es perfecto. De hecho, puede introducir errores, ineficiencias o incluso vulnerabilidades de seguridad. Las herramientas de IA están capacitadas en grandes cantidades de código disponible públicamente, que incluyen prácticas anticuadas o inseguras. Sin una revisión exhaustiva, esto puede conducir a problemas graves en los entornos de producción. Por ejemplo, un informe de OWASP destaca cómo el código generado por IA puede inadvertidamente vulnerabilidades como inyección SQL o secuencia de comandos de sitios cruzados (XSS) si no cuidadosamente veteramente. El código generado por AI puede introducir vulnerabilidades como inyección SQL o secuencia de comandos de sitios cruzados (XSS) 3. La falta de creatividad y las herramientas de innovacióni están diseñadas para seguir patrones y replicar las soluciones existentes. Si bien esto puede ser útil para las tareas de rutina, puede sofocar la creatividad y la innovación en la programación. Los desarrolladores que confían demasiado en la IA pueden perder oportunidades para crear soluciones únicas e innovadoras que empujan los límites de lo que es posible. Como señaló TechCrunch, la IA es excelente para automatizar tareas repetitivas, pero se queda corto cuando se trata de pensar fuera de la caja.4. La preocupación ética y legal del uso de la IA en la programación plantea preguntas éticas y legales significativas. Por ejemplo, las herramientas de IA a menudo se capacitan en el código disponible públicamente, que puede incluir material con derechos de autor o con licencia. Esto puede conducir a disputas de propiedad intelectual (IP) o desafíos legales para las organizaciones que usan código generado por IA. Además, existe la preocupación ética del desplazamiento del trabajo. A medida que la IA se vuelve más capaz, existe el riesgo de que pueda reemplazar a los desarrolladores junior o reducir la demanda de ciertos roles de programación. La pérdida de contexto y las herramientas de comprensióni carecen de la capacidad de comprender completamente los requisitos específicos, las limitaciones o la lógica comercial de un proyecto. Esto puede dar lugar a un código que, aunque sintácticamente correcto, no se alinee con la funcionalidad prevista o los objetivos a largo plazo del software. Los desarrolladores que confían demasiado en la IA también pueden perder el contacto con el contexto más amplio de su trabajo, lo que lleva a sistemas mal integrados o mantenibles. Conclusión Si bien la IA tiene el potencial de transformar la programación, no es una bala de plata. La excesiva dependencia de las herramientas de IA puede conducir a la degradación de habilidades, problemas de calidad y una falta de innovación. Además, las preocupaciones éticas y legales, así como la pérdida de contexto, dejan en claro que la IA debe usarse como un suplemento, no un reemplazo, para la experiencia humana. Al equilibrar el uso de IA con el juicio y la creatividad humana, los desarrolladores pueden aprovechar su poder mientras evitan sus dificultades. Adoptengamos la tecnología de manera responsable y continuamos superando los límites de lo que es posible en el desarrollo de software. AI debe usarse como un suplemento, no un reemplazo, para la experiencia humana. Suscríbase a nuestro boletín para obtener información exclusiva, consejos y recursos entregados directamente a su bandeja de entrada. ¡No se pierda el sucripción de nuestro boletín! Relacionado en su plataforma favorita

Las ventanas emergentes de verificación de edad de búsqueda de Google aparecen en los Estados Unidos, reflejando el sistema de IA de YouTube

Las ventanas emergentes de verificación de edad de búsqueda de Google aparecen en los Estados Unidos, reflejando el sistema de IA de YouTube

Si ha estado en línea últimamente, es posible que haya notado un cambio sutil pero importante. Comenzó con YouTube, donde los usuarios comenzaron a ver indicaciones para verificar su edad. Ahora, la búsqueda de Google parece estar uniendo la tendencia. Una captura de pantalla publicada en Reddit muestra una ventana emergente en Google Search diciendo: «Hemos cambiado algunas de sus configuraciones» porque Google «no pudo verificar que eres un adulto». Según TechIsSuestoday, esto es parte del sistema de estimación de edad basado en la IA de Google, que la compañía confirmó anteriormente se expandiría más allá de YouTube. Ahora se está implementando en los Estados Unidos. Durante años, el atractivo de Internet fue poder buscar nada sin demostrar quién es usted. En YouTube, las restricciones de edad pueden bloquear videos. En la búsqueda de Google, el impacto podría ser mucho más amplio, desde filtrar imágenes hasta bloquear ciertos sitios por completo. La verificación AI Age de YouTube ya ha dibujado una reacción violenta, con los críticos que lo califican como una violación de la privacidad. Muchos usuarios están incómodos sobre la idea de que un sistema de IA analice sus datos para adivinar su edad. Ahora, medidas similares en la búsqueda de Google están aumentando los temores de que incluso las búsquedas básicas podrían requerir iniciar sesión y verificar su edad. Hasta ahora, los informes sugieren que las ventanas emergentes son raras. Google ha dicho que su sistema actuará sutilmente, por lo que esto puede no convertirse en un filtro general como la moderación de IA de Meta. Aún así, señala un cambio. Para los usuarios, la elección se está volviendo más clara: comparta los datos personales con Google para seguir buscando sin interrupciones, o cambiar a alternativas como Duckduckgo o Bing. Lo que alguna vez fue anónimo y sin fricción se está volviendo más personalizado y más restringido.

Página 2 de 19

Funciona con WordPress & Tema de Anders Norén