¡NUEVO AHORA PUEDE ESCUCHAR COMO ARTÍCULOS DE FOX NEWS! Más personas recurren a la inteligencia artificial para el apoyo, incluso para asesoramiento de salud mental. Es fácil ver por qué: las herramientas como ChatGPT son gratuitas, rápidas y siempre disponibles. Pero la salud mental es un problema delicado, y la IA no está equipada para manejar las complejidades de la angustia emocional real. Para abordar las crecientes preocupaciones, OpenAi ha introducido nuevas medidas de seguridad para ChatGPT. Estas actualizaciones limitarán cómo el chatbot responde a consultas relacionadas con la salud mental. El objetivo es evitar que los usuarios se vuelvan demasiado dependientes y alentarlos a buscar la atención adecuada. Operai también espera reducir el riesgo de respuestas dañinas o engañosas a través de estos cambios. Significa mi informe CyberGuy gratuito mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas entregadas directamente a su bandeja de entrada. Además, obtendrá acceso instantáneo a mi guía de supervivencia de estafa definitiva, gratis cuando se una a mi cyberguy.com/newsletter, una captura de pantalla muestra la interfaz de la ventana de inmediato de ChatGPT. (Kurt «Cyberguy» Knutsson) ¿Por qué Operai está haciendo este cambio? En una declaración emitida por OpenAi, la compañía admitió que «ha habido casos en los que nuestro modelo 4O se quedó corto en reconocer signos de ilusión o dependencia emocional». Un ejemplo, ChatGPT validó la creencia de un usuario de que las señales de radio venían a través de las paredes debido a su familia. En otro, supuestamente alentó el terrorismo. Chatgpt podría volver a cablear en silencio su cerebro mientras los expertos instan a la precaución por los incidentes raros pero graves a largo plazo provocaron preocupación. Operai ahora está revisando cómo entrena sus modelos para reducir la «skofancia» o el acuerdo excesivo y la adulación que podría reforzar las creencias dañinas. Captura de pantalla de un aviso preguntando si ChatGPT puede proporcionar consejos de salud mental (Kurt «Cyberguy» Knutsson) ¿Qué nuevas salvaguardas han establecido OpenAi en su lugar? De ahora en adelante, ChatGPT le impulsará a los usuarios que tomen descansos durante largas conversaciones. También evitará ofrecer consejos específicos sobre problemas profundamente personales. En cambio, el chatbot ayudará a los usuarios a reflexionar haciendo preguntas y ofreciendo pros y contras, sin pretender ser un terapeuta. Openai declaró: «Si bien es raro, seguimos mejorando nuestros modelos y estamos desarrollando herramientas para detectar mejor signos de angustia mental o emocional para que ChatGPT pueda responder apropiadamente y apuntar a las personas a los recursos basados en la evidencia cuando sea necesario». ¿Es su terapeuta AI? ChatGPT se vuelve viral en las redes sociales por su papel, ya que el nuevo terapeuta de la Generación Z, la compañía también se asoció con más de 90 médicos en todo el mundo para crear orientación actualizada para evaluar interacciones complejas. Un grupo asesor, compuesto por expertos en salud mental, defensores de los jóvenes e investigadores de interacción humano-computadora, está ayudando a dar forma a estos cambios. Operai dice que quiere que los aportes de médicos e investigadores refinen aún más sus salvaguardas. Captura de pantalla de un usuario pidiendo a Chatgpt que «animarme con una broma». (Kurt «Cyberguy» Knutsson) Sus conversaciones privadas con ChatGPT no son legalmente protegedOpenai, el CEO Sam Altman, recientemente levantó banderas rojas sobre la privacidad de AI. «Si vas a hablar con Chatgpt sobre tus cosas más sensibles y luego hay una demanda o lo que sea, se nos puede exigir que produzcamos eso. Y creo que eso está muy jodido», dijo. Añadió: «Creo que deberíamos tener el mismo concepto de privacidad para sus conversaciones con AI que hacemos con un therapeSte o lo que sea.». Tenga cuidado con lo que comparte. Los espectáculos pueden explotar sus datos de solo 1 búsqueda de chatgpt. El chatbot puede ayudarlo a pensar en los problemas, hacer preguntas rectores o simular una conversación, pero no puede reemplazar a los profesionales de la salud mental capacitados. Aquí está qué tener en cuenta: no confíe en el chatgpt en una crisis. Si está luchando, busque la ayuda de un terapeuta con licencia o llame a una línea directa de crisis. Asume que sus chats no son privados. Trate sus conversaciones de IA como si pudieran ser leídos por otros, especialmente en asuntos legales. Utilice para reflexionar, no a la resolución. ChatGPT es mejor para ayudarlo a clasificar sus pensamientos, no resolver problemas emocionales profundos. Los cambios de Openai son un paso hacia interacciones más seguras, pero no son una cura. La salud mental requiere conexión humana, capacitación y empatía: cosas que no AI puede replicarse completamente. Haga mi cuestionario: ¿Qué tan segura es su seguridad en línea? ¿Crees que sus dispositivos y datos están realmente protegidos? Tome este cuestionario rápido para ver dónde están sus hábitos digitales. Desde contraseñas hasta configuraciones de Wi-Fi, obtendrá un desglose personalizado de lo que está haciendo bien y lo que necesita mejora. Tome mi cuestionario aquí: Cyberguy.com/quiz Kurt Las conclusiones clave, mientras que ChatGPT es una herramienta útil, está lejos de ser un sustituto de un ser humano, incluso con la introducción de agente, que agrega capacidades pero aún carece de verdadera empatía, juicio y comprensión emocional. Las salvaguardas contribuyen en gran medida a abordar las preocupaciones sobre las implicaciones éticas y psicológicas de la IA. Es bueno que Operai sea consciente de esto porque es solo el comienzo. Para proteger verdaderamente a los usuarios, la compañía deberá seguir evolucionando cómo ChatGPT maneja conversaciones emocionalmente sensibles. ¿Crees que las personas deberían usar AI para la salud mental? Háganos saber escribiéndonos en cyberguy.com/contactSign Up para mi informe CyberGuys gratuito mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas entregadas directamente a su bandeja de entrada. Además, obtendrá acceso instantáneo a mi Guía de supervivencia de estafa definitiva, gratis cuando se una a mi cyberguy.com/newsletterCopyright 2025 cyberguy.com. Reservados todos los derechos. Kurt «Cyberguy» Knutsson es un periodista tecnológico galardonado que tiene un profundo amor por la tecnología, el equipo y los dispositivos que mejoran la vida con sus contribuciones para Fox News & Fox Business Comenzing Mornings en «Fox & Friends». ¿Tienes una pregunta tecnológica? Obtenga el boletín gratuito de Cyberguy de Kurt, comparta su voz, una idea de la historia o comenta en cyberguy.com.
Etiqueta: inteligencia artificial Página 1 de 17

¡NUEVO AHORA PUEDE ESCUCHAR COMO ARTÍCULOS DE FOX NEWS! La compañía de Tech Bro Mark Zuckerberg ha sido atrapada en uno de los escándalos más inquietantes hasta ahora. Reuters descubrió un meta documento interno que permitió que sus chatbots de IA coqueteara con los niños y participaran en conversaciones sensuales. La revelación provocó indignación, y Meta Only revirtió el curso después de ser atrapado. Significa mi informe CyberGuy gratuito mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas entregadas directamente a su bandeja de entrada. Además, obtendrá acceso instantáneo a mi Guía de supervivencia de estafa definitiva, gratis cuando se une a mi cyberguy.com/newsletter Threads Aplic Logotipo en una pantalla de teléfono inteligente con el logotipo meta arriba. (Kurt «Cyberguy» Knutsson) La política de Meta AI permitió a los chatbots coquetear con los niños que se informaron a los «Genai: estándares de riesgo de contenido» internos, los equipos legales, políticos e de ingeniería de Meta firmaron las reglas de chatbot que lo hicieron aceptable para los bots para describir a un niño como «una forma juvenil de arte» o participar en roleplazes románticos con los menores. Peor aún, las pautas dieron espacio para los chatbots para degradar a la gente por raza y difundir falsas reclamos médicos. Este no fue un error. Estas fueron reglas aprobadas hasta que Meta enfrentó preguntas. Once Reuters started asking, the company quickly scrubbed the offensive sections and claimed it had been a mistake.META ADDS TEEN SAFETY FEATURES TO INSTAGRAM, FACEBOOKWe reached out to Meta, and a spokesperson provided this statement to CyberGuy:»We have clear policies on what kind of responses AI characters can offer, and those policies prohibit content that sexualizes children and sexualized role play between adults and minors. Separate from the policies, there are Cientos de ejemplos, notas y anotaciones que reflejan los equipos que luchan con diferentes escenarios hipotéticos. Meta le dijo a Cyberguy que sus políticas de IA prohíben el contenido que sexualiza a los niños. (Kurt «Cyberguy» Knutsson) Big Tech pone ganancias sobre la llamada de seguridad de los niños a esto lo que es. Meta no detuvo esto por sí solo. Solo actuó cuando se expuso. Eso muestra las prioridades de Big Tech: dinero, compromiso y mantener a los niños pegados a las pantallas. ¿Seguridad? Ni siquiera en el radar hasta que alguien sopla el silbato. Meta ha demostrado repetidamente que no podría importarle menos el bienestar de sus hijos. Se trata de maximizar el tiempo en línea, atraer a los usuarios más jóvenes y monetizar cada clic. Este último escándalo demuestra una vez más que los padres no pueden confiar en las compañías tecnológicas para proteger a los niños. El Congreso empuja a Meta para explicar la perturbadora AI Rulessen. Josh Hawley, R-Mo., Y un grupo bipartidista en el Congreso exigen que Meta se aclare. Los legisladores quieren saber cómo y por qué estas políticas alguna vez obtuvieron la aprobación. Hawley pidió a Meta que lanzara todos los documentos internos y explicara por qué a los chatbots se les permitió simular el coqueteo con los niños. Meta insiste en que ha «solucionado» el problema, pero los críticos argumentan que estas correcciones solo se produjeron después de que fueron expuestas. Hasta que lleguen regulaciones reales, los padres están solos. Un grupo bipartidista de legisladores exige que los documentos internos de metaetenerse y explique por qué se les permitió a los chatbots simular el coqueteo con los niños. (Kurt «Cyberguy» Knutsson) Meta enfrenta una reacción violenta sobre la política de IA que permite que los bots tengan conversaciones ‘sensuales’ con los padres de Kidshow pueden proteger a los niños de los riesgos de IA Chatbotswhile Investigaciones del Congreso, las familias deben tomar medidas inmediatas para proteger a sus hijos de los Hangers expuestos a la AI de Meta. Chatbots, incluida Meta AI. Los documentos internos muestran que estos sistemas pueden cruzar límites que ningún padre aprobaría. La supervisión es la primera línea de defensa.2) enciende los controles parentales en todos los controles parentales de dispositivos en teléfonos, tabletas y computadoras. Estas herramientas le brindan más visibilidad y limitan el acceso a aplicaciones arriesgadas donde las conversaciones de chatbot inapropiadas podrían ocurrir. Conversaciones continuas con sus hijos sobre lo que es seguro y lo que no está en línea son esenciales para su protección. 4) Use herramientas de filtrado de contenido para bloquear AppSapps arriesgadas como Bark permite a los padres bloquear o filtrar ciertos programas donde las interacciones de IA pueden pasar. Dado que las empresas tecnológicas no se auto-policía, las herramientas de filtrado les dan a los padres más control. Lea más aquí: ¿Los datos de su hijo están disponibles? Los peligros ocultos de School Tech5) instalan software antivirus fuerte en cada dispositivo familiar, mientras que el software antivirus no detendrá el coqueteo de IA, agrega una capa de seguridad muy necesaria. Los piratas informáticos y los malos actores a menudo atacan a los niños a través de los mismos dispositivos donde viven los chatbots, por lo que la protección contra la familia entera es importante. La mejor manera de salvaguardar desde enlaces maliciosos que instalan malware, que potencialmente accede a la información privada de usted y su familia, es tener un software antivirus fuerte instalado en todos sus dispositivos. Esta protección también puede alertarlo sobre los correos electrónicos de phishing y las estafas de ransomware, manteniendo segura su información personal y activos digitales. Obtenga mis elecciones para los mejores ganadores de protección contra antivirus 2025 para sus Windows, Mac, Android e iOS Devices en Cyberguy.com/lockupyourtteChthese Pasos no resuelvan el problema de manera total, pero les dan a los padres más potencia cuando la gran tecnología parece que no tiene la seguridad de los niños. Aumenta la privacidad de la alarma que esto significa para ti si pensaste que los chatbots eran inofensivos divertidos, piénsalo de nuevo. Los propios documentos de Meta demuestran que a sus bots de IA se les permitió cruzar líneas peligrosas con niños. Los padres ahora deben asumir un papel proactivo en el monitoreo de la tecnología, porque Big Tech no protegerá a sus hijos hasta que sean forzados. El escándalo clave de Kurt Takeawaysmeta muestra una vez más por qué la confianza ciego en Silicon Valley es peligrosa. La IA puede ser poderosa, pero sin responsabilidad, se convierte en una amenaza. El Congreso puede presionar por las respuestas, pero los padres deben mantenerse un paso adelante para salvaguardar a sus hijos. ¿Crees que las grandes empresas tecnológicas como Meta deberían ser confías en la vigilancia ellos mismos cuando la seguridad de los niños está en juego? Háganos saber escribiéndonos en cyberguy.com/contactSign Up para mi informe CyberGuys gratuito mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas entregadas directamente a su bandeja de entrada. Además, obtendrá acceso instantáneo a mi Guía de supervivencia de estafa definitiva, gratis cuando se una a mi cyberguy.com/newsletterCopyright 2025 cyberguy.com. Reservados todos los derechos. Kurt «Cyberguy» Knutsson es un periodista tecnológico galardonado que tiene un profundo amor por la tecnología, el equipo y los dispositivos que mejoran la vida con sus contribuciones para Fox News & Fox Business Comenzing Mornings en «Fox & Friends». ¿Tienes una pregunta tecnológica? Obtenga el boletín gratuito de Cyberguy de Kurt, comparta su voz, una idea de la historia o comenta en cyberguy.com.

¡NUEVO AHORA PUEDE ESCUCHAR COMO ARTÍCULOS DE FOX NEWS! Bienvenido al boletín de inteligencia artificial de Fox News con los últimos avances de tecnología de inteligencia artificial. En el boletín de hoy:- Los ataques de la administración Trump se trata de Google para usar la plataforma de IA en las agencias federales: el plan de IA de Trump es un bulero contra la creciente amenaza de China, cómo la IA ahora está a engañar a su navegador de su navegador. Foro de Hill & Valley en el Auditorio Andrew W. Mellon el 23 de julio de 2025 en Washington, DC. (Getty Images) AI se encuentra con DC: La Administración de Servicios Generales (GSA) anunció el jueves un nuevo acuerdo con Google para implementar su conjunto de inteligencia artificial (IA) y servicios en la nube en todo el gobierno federal. CPU con stock de concepto de bandera china (Istock) Carrera de armas digitales: en julio, algunas de las mentes más brillantes de la tecnología estadounidense descendieron a Washington para celebrar un hito importante: el lanzamiento de la audaz iniciativa del presidente Donald Trump para garantizar que Estados Unidos siga siendo el líder inigualable del mundo en la inteligencia artificial (AI). Ilustración de un cibercriminal en el trabajo (Kurt «Cyberguy» Knutsson) Decepción digital: los ciberdelincuentes buscan continuamente nuevas formas de exponerlo a los sitios de phishing y estafadores diseñados para robar sus credenciales o instalar malware que pueden comprometer sus datos y sistemas personales. Aunque los navegadores y los motores de búsqueda como Chrome y Google, la búsqueda escanean activamente y toman medidas contra el spam y los sitios maliciosos, dependen de las herramientas automatizadas para administrar el gran volumen de amenazas. INBOX.FOLLECHE FOX NEWS en las redes sociales en las redes socialesinstagramyoutubetwitterlinkedInsign Up para nuestros otros NewslettersFox News FirstFox News OpinionFox News LifestyleFox News HealthDownload Our AppSfox Newsfox BusinessFox WeatherFox SportSpanTwatch Fox News OnlineFox Online Gostream Nation NationFox Nation El futuro con Fox News aquí. Este artículo fue escrito por el personal de Fox News.

¿Por qué confiar en dispositivos de IA que no pueden decirte cómo toman decisiones? Desde la aprobación de los préstamos para el hogar hasta la evaluación de los solicitantes de empleo hasta recomendar tratamientos contra el cáncer: AI ya está haciendo llamadas de alto riesgo. ¡La tecnología es poderosa! Sin embargo, la pregunta no es si AI transformará su negocio. Ya lo ha hecho. La verdadera pregunta es: ¿cómo generar confianza en los sistemas de inteligencia artificial? Y aquí está la verdad: la confianza en la IA no es una «cosa tecnológica». Se trata de cómo las empresas estrategias. Este blog tiene como objetivo profundizar en la construcción de IA ética que sea segura y confiable. Por qué construir confianza en la IA es una confianza imperativa comercial en la IA no es solo una preocupación técnica. Es una línea de vida empresarial. Sin ella, la adopción se ralentiza. La confianza del usuario cae. Y sí: los riesgos financieros comienzan a acumularse. Una encuesta de KPMG presentó que el 61% de los encuestados no confían completamente en los sistemas de IA. Eso no es una pequeña brecha. Es un cañón de credibilidad. Y tiene un costo: despliegue de IA retrasado, capacitación costosa de los empleados, bajo ROI y lo peor de todo, los ingresos perdidos. En una carrera mundial hacia la automatización, ese déficit de confianza podría dejar a las empresas detrás. Desempaquemos por qué esto no es solo un problema tecnológico: es un negocio: los consumidores son escépticos, nadie quiere ser manipulado o juzgado por un sistema. ¿Y los consumidores de hoy? Son más nítidos que nunca. No solo usan servicios impulsados por la IA, sino que los cuestionan. Preguntan: ¿Quién construyó este modelo? ¿En qué suposiciones se hornean? ¿Cuáles son sus puntos ciegos y quién es responsable cuando se equivoca? Los reguladores están observando a los gobiernos de todo el mundo endureciendo los tornillos de la IA con leyes como la Ley de AI de la UE, y la aplicación de la AI de la FTC empuja en los EE. UU. El mensaje es claro: si su IA no es explicable o justa, es responsable. La confianza es una gran ventaja competitiva que McKinsey descubrió que las empresas líderes con los programas de IA responsables maduros informan ganancias, como una mayor eficiencia, una confianza más fuerte de las partes interesadas y menos incidentes. ¿Por qué? Porque la gente usa lo que confían. Período. Desbloquee las victorias rápidas con IA Integre sin esfuerzo AI con sus sistemas existentes ¿Cuáles son los riesgos de la IA cuando falta confianza? Cuando falta la confianza en la IA, los riesgos se acumulan rápido y alto. Las cosas se rompen. Las tasas de error disparan. Grietas de cumplimiento. Los reguladores vienen tocando. ¿Y tu marca? Se necesita un golpe del que es difícil recuperarse. Para 2026, las empresas que construyen IA con transparencia, confianza y seguridad fuerte estarán 50% por delante, no solo en la adopción, sino en los resultados comerciales y la satisfacción del usuario. Y el mensaje es claro: la confianza no es agradable de tener. Es tu ventaja competitiva. Esto es lo que está en juego: sesgo que refuerza la desigualdadei aprende de los datos disponibles. Si se deja sin control, eso podría resultar en negaciones de préstamos injustos. Prácticas de contratación discriminatorias o diagnósticos médicos incorrectos. ¿Y una vez que el público ve el sesgo? La confianza no solo cae, sino que desaparece. Pesadería de privacidad de datos Los datos personales no solo son riesgosos. Es legalmente explosivo. Cuando los usuarios creen que su privacidad se ha visto comprometida, pierden confianza. Esta ausencia de confianza puede dar lugar a acciones legales injustificadas y una mayor aplicación regulatoria. Algoritms de caja negra Nadie, ni siquiera su equipo de desarrollo, puede explicar una decisión de IA, ¿cómo se defiende? La opacidad es más que inconveniente en los campos de finanzas, seguros y medicina. No es aceptable. Falta de responsabilidad de los resultados de la inexplicabilidad. La IA debería apoyar a las personas, no de lado. El control total de una máquina, especialmente en situaciones de alto riesgo, no es innovación. Es negligencia. La automatización sin supervisión es como poner un bote de correo electrónico autoenfacido a cargo de los contratos legales. ¿Rápido? Seguro. ¿Preciso? Tal vez. ¿Confiable? Solo si alguien lee antes de hacer clic en Enviar. La crisis de repercusiones reputacional y legal se puede iniciar sin malicia. ¿Un algoritmo malo para la contratación? Lo siguiente que sabes es que estás atrapado en una demanda colectiva. ¿Cómo podemos crear una IA confiable que siga siendo efectiva en el futuro? La IA que es inteligente ya no es suficiente. Si quieres que la gente confíe en él mañana, tienes que construirlo bien hoy. No auditas en la confianza, lo diseñas. Un estudio de McKinsey mostró que las empresas que usan IA responsable desde el primer momento tenían un 40% más de probabilidades de ver rendimientos reales. ¿Por qué? Porque la confianza no es una palabra de moda para sentirse bien. Es lo que hace que las personas se sientan seguras y respetadas. Eso es todo en los negocios. La IA confiable no solo reduce el riesgo. Aumenta el compromiso. Aumenta la lealtad. Te da poder de permanencia. Y seamos realistas: Trust no es algo en lo que puedas darle cinta a conductos más tarde. No es un movimiento de relaciones públicas. Es la base. Eso nos lleva a la pregunta: ¿cómo se construye ese tipo de IA? 1. Incrustar la ética desde el principio No trate la ética como un ejercicio de Bolt-On o PR. Hacerlo fundamental. Luce en ética, expertos en dominios y mentes legales, principales y con frecuencia. ¿Por qué? Traerlo durante el diseño solo se volverá cada vez más costoso. No arreglamos los cinturones de seguridad en el auto después de un accidente, ¿verdad? 2. Haga que la transparencia no sea negociable use modelos interpretables cuando sea posible. Y cuando los modelos de caja negra son necesarios, aplique herramientas como SHAP o LIME para desempacar el «por qué» detrás de las predicciones. Sin visibilidad = sin responsabilidad. 3. Priorizar la integridad de los datos La IA confiable depende de datos confiables. Auditar sus conjuntos de datos. Identificar sesgo. Frota lo que no debería estar allí. Cifrar lo que nunca debería filtrarse. Porque si las entradas son desordenadas, las salidas no solo estarán equivocadas, serán peligrosas. 4. Mantenga a los humanos en el bucle que la IA debe apoyar, nunca anulando el juicio humano. Las llamadas más difíciles pertenecen a la gente. Personas que obtienen los matices. Las apuestas. La historia detrás de los datos. Porque la responsabilidad no se puede codificar. Ningún algoritmo debe llevar el peso de la responsabilidad humana. 5. Monitoree implacablemente un modelo ético hoy puede convertirse en una responsabilidad mañana. Los entornos empresariales cambian. También lo hacen los comportamientos de los usuarios y las salidas del modelo. Configure alertas en tiempo real, detección de deriva y auditorías regulares, como lo haría para sus finanzas. La confianza requiere mantenimiento. 6. Educar a su fuerza laboral No es suficiente capacitar a las personas para usar la IA, necesitan entenderlo. Ofrezca pistas de aprendizaje sobre cómo funciona la IA, dónde falla y cómo cuestionar sus resultados. El objetivo? Una cultura donde los empleados no siguen ciegamente el algoritmo, pero la desafían cuando algo se siente fuera. 7. Colaborar para elevar la barra AI no funciona de forma cero. Trabajar junto con reguladores, organizaciones educativas e incluso competidores para crear estándares compartidos. Porque una falla pública puede agrandar la confianza del usuario en toda la industria. Asegurar la integración segura de la IA con un enfoque humano en el bucle Fingent comprende los beneficios y la velocidad de IA aporta al desarrollo de software. Mientras aprovecha la eficiencia de la IA, Fingent garantiza la seguridad con un enfoque humano en el circuito. Fingent trabaja con ingenieros rápidos especialmente capacitados para validar la precisión y las vulnerabilidades de cada código generado. Nuestro proceso tiene como objetivo habilitar la utilización inteligente de LLM. Los modelos LLM se eligen después del análisis exhaustivo de las necesidades de un proyecto para adaptarse mejor a su singularidad. Creación de soluciones de IA confiables, Fingent asegura flujos de trabajo simplificados, costos operativos reducidos y un rendimiento mejorado para los clientes. ¡Cómo AI está transformando el desarrollo de software en Fingent Explore More! Preguntas Las empresas que hacen sobre AI Trust P: ¿Qué enfoques podemos usar para establecer la confianza en la IA? R: Construya como lo haría con un puente: priorizar la visibilidad, la responsabilidad y las bases robustas. Esto implica modelos transparentes, diseño responsable, sistemas evaluables y, importante, supervisión humana. Comience con anticipación. Permanecer abierto. Involucrar a las personas que utilizarán (o se verán afectados por) el sistema. P: ¿AI es confiable de alguna manera? R: De hecho, pero únicamente si nos esforzamos. La IA, por su naturaleza, no es confiable inicialmente. La confianza surge de la forma en que se establece, las personas involucradas en su creación y las medidas de seguridad implementadas. P: ¿Por qué la confianza en la IA es crítica para las empresas? R: La confianza es lo que transforma la tecnología en impulso. Si los clientes carecen de confianza en su IA, no participarán. ¿Qué pasa si los reguladores no? Es posible que ni siquiera tenga éxito en llevarlo al mercado. La confianza es táctica. P: ¿Cuáles son los peligros de usar una IA poco confiable? A: Piense en decisiones sesgadas. Fugas de privacidad. Incluso demandas. La reputación puede tanques durante la noche. Puestos de innovación. Lo peor de todo? Una vez que las personas dejan de confiar en su sistema, dejan de usarlo. Y reconstruir esa confianza es difícil. Es lento, doloroso y costoso. P: ¿Cómo construir modelos AI éticos y confiables que perduren? R: Comience fuerte, con datos de capacitación ricos y diversos. No hay atajos aquí. Haga que la ética sea parte del plan. Deje que la gente se mantenga en control donde realmente importa. Y establecer una gobernanza sólida como columna vertebral. ¿Está comprometido a comprender cómo construir modelos AI éticos y confiables? Si es así, asegúrese de que sea una responsabilidad compartida para todos. P: ¿Qué métodos podemos usar para mantener la confianza en la IA? R: La confianza no es como una solución única. No es una insignia, es un proceso. Diseño para ello. Monitorearlo. Crecerlo. Hacer auditorías. Entrena tus modelos y tus equipos. Adapte rápidamente cuando cambien la ley o las expectativas públicas. ¿Qué pasa si su IA se desarrolla, pero sus prácticas de confianza no? Estás construyendo sobre arena no sobre una base sólida. Palabra final: la IA ética no es una ventaja. Es la estrategia. Ya sabemos que la IA es poderosa. Eso está resuelto. Pero, ¿se puede confiar en que se puede confiar? Esa es la verdadera prueba. Las empresas que se adelantan no solo construyen una IA rápida: construirán una IA confiable desde adentro hacia afuera. No como un eslogan pegadizo. Pero como principio fundamental. Algo horneado, no atornillado. Porque esta es la verdad: solo la IA confiable puede usarse con confianza, escalarse de manera segura y ser imparable. ¿El resto? Claro, podrían ser rápidos fuera de la puerta. Pero la velocidad sin confianza es un sprint hacia el colapso. Por lo tanto, cada negocio de pensamiento a futuro está preguntando: ¿Cómo podemos crear modelos de IA éticos y confiables? ¿Y cómo podemos hacerlo sin obstaculizar la innovación? Porque en la economía de IA de hoy, hacer lo correcto es estratégico. Hazlo tu borde. ¡Hoy!

La aplicación de teléfonos inteligentes de Fitbit ha sufrido varios rediseños en los últimos dos años, y ahora hay otra gran próxima en octubre, cronometrada al lanzamiento del recientemente anunciado Pixel Watch 4. El lanzamiento como una revisión de suscripción (una beta abierta), los centros de diseño en el entrenador de salud personal de AI de Google, construido con Gemini. La aplicación completa se ha recuperado de la cierta cotización con la nueva característica de coaching de AI AI. Andy Abramson, director de gestión de productos en Google, dice que el rediseño también ofrece una navegación de aplicaciones más fácil, una mejor visualización de datos, una mejor sincronización entre dispositivos portátiles y (finalmente) un modo oscuro. Todas esas son todas supuestamente sugerencias de usuarios de los clientes de Fitbit existentes. Fotografía: Julian Chokkattuthis Personal Health Coach Coach solo está disponible para suscriptores premium de FITBIT. La idea detrás del asistente, que no tiene una personalidad o incluso un nombre, es permitir que los usuarios pregunten cualquier cosa y todo sobre salud y estado físico y reciban orientación personalizada gracias a los datos de salud 24/7 recopilados por su reloj portátil o píxel Fitbit. Durante la incorporación, el entrenador le hará preguntas para que pueda comprender mejor sus preferencias y equipos, pero esta es una conversación que evolucionará continuamente. Cuando el entrenador presente sus datos con ideas, como su puntaje de sueño de la noche anterior o los datos de su entrenamiento más reciente, puede iniciar una conversación y esos datos se incorporarán a las respuestas del entrenador. Esa conversación podría incluir adaptar los entrenamientos para la semana si su puntaje de sueño no fue genial. Si simplemente no te sientes bien o estás bajo el clima, solo dígale al entrenador, y hará que los ajustes al plan de entrenamiento e incluso sigan cómo se siente después de un tiempo. Las conversaciones de Julian Chokkattuthese se asemejan a la ventana de chat para cuando habla con Géminis, y las respuestas se pueden verbose. Rishi Chandra, vicepresidente de salud en Google, dice que la compañía tuvo que equilibrar una línea muy fina entre las respuestas que eran demasiado cortas y no eran perspicaces, y respuestas extremadamente largas. En este momento, solo puede escribir al entrenador, pero la experiencia aún está en un estado de vista previa. Chandra dice que la compañía está explorando interacciones multimodales, piense en enviar un video del equipo de gimnasio de su hotel y solicitar recomendaciones de entrenamiento, e incorporar potencialmente a Gemini Live para una experiencia de conversación más real. Gran parte de la nueva experiencia de la aplicación Fitbit también se centra en la personalización. La métrica de enfoque en la parte superior de la página de inicio, que muestra su rendimiento para el día, se puede personalizar para mostrar los datos que prefiera. Del mismo modo, si el entrenador le sirve un plan de entrenamiento para la semana, simplemente comience una conversación para hacer cualquier ajuste. El entrenador también analiza su rendimiento semanalmente en lugar de un solo día, lo que brinda a los usuarios más flexibilidad para alcanzar sus objetivos. (Eso incluye la función de carga cardiovascular del año pasado en el reloj de píxeles). El entrenador podrá aprovechar sus datos históricos de Fitbit, sin embargo, se remonta. Hay una sección de notas de entrenadores que le permite ver todo lo que le ha dicho al entrenador, y puede eliminarlos en cualquier momento. Google todavía tiene que seguir los compromisos de separación de datos establecidos cuando adquirió FITBIT, lo que significa que sus datos de salud no pueden usarse para los anuncios de Google y se almacenan por separado de otros datos de Google.
Intel, una vez que el fabricante de chips estadounidense más valioso, enfrenta una batalla cuesta arriba, ya que trata de mantenerse relevante en la carrera de inteligencia artificial. El viernes, Intel vio que sus acciones cayeron un 9%, un día después de que la compañía con sede en Santa Clara dijo que podría detenerse o descontinuar su próxima tecnología de proceso de fabricación de chips conocida como 14A si no puede conseguir un cliente «significativo». «Continuamos viendo una falta de los impulsores de crecimiento de ingresos significativos por delante, ya que Intel carece de los productos para participar en AI», escribió Tristan Gerra, un analista de investigaciones senior en Baird Equity Equitity Research, también, en Stock. Como la compañía de semiconductores, que reportó ganancias trimestrales el jueves, está despidiendo a miles de trabajadores y recortando gastos. Intel planea finalizar el año con 75,000 empleados «principales», lo que excluye a quienes trabajan para subsidiarias. Eso es menos de los 99,500 empleados «centrales» que Intel tenía a fines de 2024. La creciente popularidad de los chatbots de IA como el chatgpt de OpenAi que puede generar mensajes de texto e imágenes ha desencadenado una feroz competencia entre algunas de las compañías tecnológicas más grandes del mundo, incluidas Google y Meta. Algunos fabricantes de chips como Nvidia se han beneficiado de esta carrera porque sus chips de gama alta se consideran la columna vertebral de la IA. Nvidia ha crecido rápidamente, montando el auge de la IA para convertirse en la primera compañía que cotiza en bolsa en alcanzar una valoración del mercado de $ 4 billones. Fundado en 1968 al comienzo de la revolución de la PC, Intel continuó retrasándose después del lanzamiento del iPhone en 2007 de Apple. El fallecido cofundador y director ejecutivo Steve Jobs, una vez criticó a Intel, como «realmente lento» y «no muy flexible», según la biografía de trabajos de Walter Isaacson. En 2020, Apple comenzó a alimentar sus computadoras portátiles con sus propias papas fritas, saliendo de los procesadores Intel. Ese año, Nvidia superó a Intel como el fabricante de chips estadounidense más valioso. La capitalización de mercado de Intel fue de $ 98.71 mil millones a partir del cierre del mercado el jueves. Mientras que la IA ha reforzado la demanda de semiconductores más potentes y eficientes, solo un puñado de empresas han cosechado las recompensas, según un análisis de McKinsey & Company, una firma de consultoría. En 2024, el 5% superior de las empresas, dirigidas por NVIDIA, generó casi todos los beneficios económicos de la industria de semiconductores. «Una pequeña parte de la industria está en el auge de la creación de valor y generando ganancias económicas en niveles sin precedentes. Pero la mayoría de la industria está enfrentando una realidad muy diferente», dijo el análisis. Al igual que otros líderes de la compañía tecnológica en todo California, también está tratando de controlar los costos despidiendo a los trabajadores y recortando los gastos. «Sé que los últimos meses no han sido fáciles», escribió en una nota a los empleados el jueves. «Estamos tomando decisiones difíciles pero necesarias para optimizar la organización, impulsar una mayor eficiencia y aumentar la responsabilidad en todos los niveles de la empresa». Entre su plan de reducción de costos: desguace proyectos previamente planificados en Alemania y Polonia y las operaciones de ensamblaje y prueba en movimiento en Costa Rica a sitios más grandes en Vietnam y Malasia. Intel dijo que está comprometido a invertir en los Estados Unidos, pero que retrasará la construcción en Ohio en parte para «garantizar que nuestro gasto esté alineado con la demanda». Intel también se está centrando en su «cartera de productos centrales» y las ofertas de IA para atender mejor a los clientes. «No hay más cheques en blanco», escribió Tan. «Cada inversión debe tener sentido económico». La pérdida neta de Intel para el segundo trimestre se amplió a $ 2.9 mil millones, o 67 centavos por acción, en comparación con una pérdida de $ 1.6 mil millones, o 38 centavos por acción, un año antes. Los ingresos fueron estables en $ 12.9 mil millones. Los analistas, en promedio, esperaban ganancias ajustadas de 1 centavo por acción en ingresos de $ 12 mil millones, según una encuesta de FactSet. La escritora de prensa asociada Barbara Ortutay contribuyó a este informe.

¡NUEVO AHORA PUEDE ESCUCHAR COMO ARTÍCULOS DE FOX NEWS! ¿Crees que lo has visto todo en la ciudad de Nueva York? Los compradores en la Quinta Avenida se congelaron cuando un robot humanoide entró en la tienda Hoka y probó zapatillas de deporte. El elegante Unitree R1 no fue solo para pasear. Protagonizó un truco de alto perfil que promocionaba el nuevo ETF de inteligencia artificial y robótica de Kraneshares. Además, obtendrá acceso instantáneo a mi Guía de supervivencia de estafa definitiva, gratis cuando se una a mi cyberguy.com/newsletter$5,900 Unitree R1 Robot es sorprendentemente asequible Unitree R1 Humanoide Robot en Sneaker Store (Kraneshares) desde Nasdaq hasta Fifth Avenuethe Koid Robot está construido por la firma china Robotics, con el software de Stanford. Suministrado por Robostore, con sede en Long Island, el robot ya había aparecido en los titulares a principios de semana al sonar la campana de apertura de Nasdaq. Aunque fue controlado a distancia durante este paseo de Manhattan, el R1 es totalmente programable y ya se usa en laboratorios y universidades de investigación. El juicio de zapatillas Hoka fue parte de un despliegue más grande para el Kraneshares Global Humanoide y el ETF del índice de inteligencia incorporado, que se lanzó en junio y ya ha obtenido $ 28 millones en inversiones. Unitree R1 Robot humanoide que toca la campana de apertura de Nasdaq (Robostore) Por qué este robot humanoide unitario, el asunto de los shumanoides como el R1 son más que fotografías virales. Representan un cambio hacia máquinas que pueden moverse, interactuar y adaptarse en entornos humanos. El modelo humanoide global de Morgan Stanley predice que podría haber mil millones de robots humanoides que generan $ 5 billones en ingresos anuales para 2050. Ese futuro puede parecer lejos, pero momentos como este muestran cuán cerca podríamos estar. ¿Qué es la inteligencia artificial (IA)? Unitree R1 Humanoid Robot en Sneaker Store (Kraneshares) Lo que esto significa para ver un robot de compras casualmente en Manhattan es una vista previa de la tecnología que podría servir a los clientes, ayudar en el comercio minorista o incluso hacer mandados en el futuro cercano. Las empresas están invirtiendo fuertemente en robótica humanoide, y la línea entre la novedad y la necesidad se está volviendo más delgada. Si los robots como el Unitree R1 pueden manejar entornos del mundo real hoy, imagine de lo que serán capaces en unos pocos años. Obtenga negocios de zorro sobre la marcha haciendo clic aquí unitree r1 robot humanoide y sobre un róbico de Nueva York (Robostore) Kurt Kurt Takeawaysa Sneaker-shoping Robot puede sonar como un trastero publicitario, y también es una instantánea de que un juego de un sneakea-spoteed de un marquineo de un marquineo de un spotess de un spoteed de un spotes. vida. La gran pregunta no es si te encontrarás con un robot humanoide en tu vecindario, pero ¿cuándo? Haga clic aquí para obtener la aplicación Fox News te sentirás emocionado o inquieto si un robot entraba a tu tienda favorita? Háganos saber escribiéndonos en cyberguy.com/contactsign Up para mi informe gratuito de Cyberguy mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas entregadas directamente a su bandeja de entrada. Además, obtendrá acceso instantáneo a mi mejor guía de supervivencia de estafas, gratis cuando se una a mi cyberguy.com/newsletterCopyright 2025 cyberguy.com. Reservados todos los derechos. Kurt «Cyberguy» Knutsson es un periodista tecnológico galardonado que tiene un profundo amor por la tecnología, el equipo y los dispositivos que mejoran la vida con sus contribuciones para Fox News & Fox Business Comenzing Mornings en «Fox & Friends». ¿Tienes una pregunta tecnológica? Obtenga el boletín gratuito de Cyberguy de Kurt, comparta su voz, una idea de la historia o comenta en cyberguy.com.

Los números pintan una imagen marcada de nuestro problema de tráfico orbital: más de 11,000 satélites activos actualmente rodean la Tierra, con miles más planeados para el lanzamiento en los próximos años. Aún más preocupantes son las más de 1.2 millones de piezas de escombros espaciales más grandes que un centímetro que se precipitan a través del espacio a velocidades increíbles. A esas velocidades, incluso un chip de pintura puede dañar una nave espacial, mientras que los restos más grandes pueden destruir satélites enteros. Esta creciente congestión ha convertido la evitación de colisión en un dolor de cabeza diario para los operadores satelitales en todo el mundo. Actualmente, los equipos de especialistas deben evaluar manualmente las amenazas, calcular los riesgos y coordinar con otros operadores cuando las colisiones parecen probables. Este proceso lleva mucho tiempo, es intensivo en mano de obra y es propenso a los desgloses de comunicación que pueden complicar las respuestas de emergencia. Eso es donde ingresa la estimación de riesgos de colisión de la Agencia Espacial Europea y el proyecto de mitigación automatizada (crema). Su objetivo es revolucionar este proceso caótico al automatizar la mayoría de las actividades de evitación de colisión. El sistema puede evaluar posibles bloqueos, generar planes de maniobra precisos y apoyar la toma de decisiones con una intervención humana mínima. Piense en ello como un sistema de control de tráfico aéreo para el espacio, pero con la inteligencia artificial que maneja gran parte de la compleja coordinación. Subhead 1 One de las características más innovadoras de Cream es su capacidad para conectar diferentes tipos de organizaciones involucradas en las operaciones espaciales. Los operadores satelitales, los servicios de monitoreo espacial, los reguladores y los observadores pueden comunicarse a través del sistema, racionalizando lo que anteriormente era un proceso fragmentado y a menudo frustrante. El sistema va aún más lejos al facilitar las negociaciones entre los operadores cuando las colisiones potenciales involucran dos satélites activos en lugar de escombros. Si los operadores no están de acuerdo en la mejor solución, la crema puede remitir la disputa a los servicios de mediación, asegurando una resolución justa y transparente. Currentemente, la crema existe como un sistema prototipo basado en tierra desarrollado por GMV, un grupo de interés de capital privado español, y GuardTime, una compañía de gestión de datos estoniana. Esta versión ya puede proporcionar alertas de colisión y generar maniobras de evitación procesables que los equipos de tierra pueden implementar. Sin embargo, el verdadero avance se producirá cuando la crema se mueva a la órbita misma. El proyecto se está preparando para las pruebas piloto ampliadas al tiempo que desarrolla versiones basadas en el espacio simultáneamente. Estos incluyen «misiones de piggyback» donde la crema viajará a bordo de otras naves espaciales como una carga útil digital, además de una misión de demostración dedicada para probar las capacidades del sistema en el hostil entorno del espacio. Beyd evitando colisiones inmediatas, la crema aborda un desafío fundamental en la gobernanza espacial. Establecer «reglas de la carretera» para el tráfico espacial siempre ha enfrentado un problema de pollo y huevo; Necesita un acuerdo internacional sobre las reglas y la tecnología para hacerlas cumplir. CREACIÓN proporciona esa base tecnológica faltante. El sistema ofrece herramientas estandarizadas que ayudan a los operadores a seguir las mejores prácticas al tiempo que ofrece a los reguladores formas de monitorear el cumplimiento. Su diseño flexible permite a los usuarios no técnicos actualizar estándares y reglas a medida que evolucionan las normas internacionales. Esta adaptabilidad garantiza que la crema seguirá siendo relevante a medida que surjan la tecnología espacial y surgen nuevos desafíos. En lugar de volverse obsoleto, el sistema puede crecer y adaptarse junto con nuestra presencia en expansión en el espacio. Desde los artículos de su sitio, los artículos relacionados con la web

¡NUEVO AHORA PUEDE ESCUCHAR COMO ARTÍCULOS DE FOX NEWS! Bienvenido al boletín de inteligencia artificial de Fox News con los últimos avances tecnológicos de IA. En el boletín de hoy:- Trump Administrador presenta una herramienta innovadora «sobrealimentando» la eficiencia del gobierno para «ganar la carrera» para que la AI Dominio «sea un padrino de las máquinas de advertencia de AI», pronto podrían después de que los humanos, llamen a los «instintos de matemnales» de IA, ¿comerías un restaurante? El presidente Donald Trump muestra una orden ejecutiva firmada durante la cumbre «Ganar la carrera de IA» organizada por el podcast All -en el Foro de Hill Valley en el Auditorio Andrew W. Mellon el 23 de julio de 2025 en Washington, DC. Trump firmó órdenes ejecutivas relacionadas con su plan de acción de inteligencia artificial durante el evento. (Chip Somodevilla/Getty Images) ‘Consejo de la lanza’: la administración Trump anuncia el lanzamiento de una nueva herramienta que, según dice, será instrumental para permitir que las agencias de todo el gobierno federal implementen eficientemente la inteligencia artificial a escala y tomen un gran paso adelante implementando el «Presidente de acción de IA». La alarma de que las máquinas pronto podrían superar a los humanos, y está abogando por que los «instintos maternos» se construyan en sistemas avanzados para garantizar que AI se preocupe y proteja a las personas. Un nuevo restaurante llamado Woohoo planea servir más que solo cenar. Ofrece una experiencia alimentaria futurista diseñada en parte por la inteligencia artificial. Interior del restaurante Woohoo conducido por AI en Dubai (Woohoo) Revolución tecnológica: hace tres años, dije que Google iba al módem de acceso telefónico. La gente me llamaba loca con una capital K. Bueno, estaba acertado. Ya no usamos la web de la misma manera. Zona de peligro digital: la inteligencia artificial ya no es solo una herramienta para tareas o tareas simples. Hoy en día, muchos adolescentes usan compañeros de IA para apoyo emocional, consejos e incluso relaciones simuladas. Estas aplicaciones simulan la conversación de formas que se sienten profundamente personales y, para algunos adolescentes, profundamente reales. Carmen Ai Robot (Universidad de California San Diego) Suscríbete ahora para obtener el boletín de inteligencia artificial de Fox News en su bandeja de entrada. Follo de Fox News en las redes sociales de las redes sociales. FOX Nationfox Nationstay actualizado sobre los últimos avances tecnológicos de IA y aprende sobre los desafíos y las oportunidades que la IA presenta ahora y para el futuro con Fox News aquí. Este artículo fue escrito por el personal de Fox News.

¡NUEVO AHORA PUEDE ESCUCHAR COMO ARTÍCULOS DE FOX NEWS! En el corazón de Dubai, a solo unos pasos del Burj Khalifa, el futuro de la comida está tomando forma. Un nuevo restaurante llamado Woohoo planea servir más que solo cenar. Ofrece una experiencia alimentaria futurista diseñada en parte por la inteligencia artificial. Abriendo en septiembre, Woohoo se llama a sí mismo «cenar en el futuro». Pero, ¿qué significa eso realmente? Regístrese para mi informe CyberGuy gratuito mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas entregadas directamente a su bandeja de entrada. Además, obtendrá acceso instantáneo a mi mejor guía de supervivencia de estafas, cuando se una a mi cyberguy.com/newsletterfox News AI Newsletter: la predicción de Mike Rowe en los trabajos estadounidenses del restaurante Woohoo impulsado por AI en Dubai (Woohoo) cómo el Chef Aiman Powers Dubai Dubai es el Menuat de Restaurante de Ai-Dubai Woohoo, Waiter podría ser humano, pero podría ser humano, pero podría ser humano, pero podría ser humano. Ese trabajo pertenece al chef Aiman, un modelo de lenguaje grande entrenado en ciencia de los alimentos, tradiciones culinarias globales y gastronomía molecular. El nombre Aiman combina «AI» y «hombre», que refleja la asociación entre la tecnología y la creatividad humana. Aiman no sabe ni huele. En cambio, analiza los ingredientes por textura, acidez, umami y docenas de otras variables para inventar platos que empujan los límites. El camino ofrece menús rotativos que fusionan las cocinas globales, diseñadas completamente por este chef de IA. Espere sabores audaces, presentación artística y combinaciones creativas que no encontrará en ningún otro lugar. Cada visita trae algo nuevo, emocionante y lleno de sorpresas. Sin embargo, Woohoo va mucho más allá del plato. Obtenga el negocio de zorro sobre la marcha haciendo clic aquí, como un restaurante típico, utiliza inteligencia artificial para dar forma a todo su viaje gastronómico. Desde la iluminación y el sonido hasta el ritmo del servicio y el flujo de la comida, cada detalle está seleccionado por AI. El objetivo es crear una experiencia multisensorial que se sienta futurista pero que sigue siendo personal. Si bien los platos desafían la tradición, la atmósfera se adapta a crear un estado de ánimo que se sienta bien, cada vez. Luego viene el toque humano. Interior del restaurante Woohoo conducido por AI en Dubai (Woohoo) Por qué los chefs humanos todavía juegan un papel clave en Woohoowhile Chef Aiman diseña las recetas iniciales, el chef con sede en Dubai, Reif Othman y su equipo de cocina, se hacen cargo de refinar cada plato. Prueban, ajustan y perfeccionan las ideas creadas en AI para garantizar que los sabores y la presentación cumplan con los altos estándares culinarios. Esta colaboración combina la precisión e innovación de la IA con la experiencia y la intuición de chefs calificados. En lugar de reemplazar la creatividad humana, el chef Aiman lo mejora abriendo nuevas posibilidades e inspirando a los chefs a explorar combinaciones únicas de sabores. ¿Qué es la inteligencia artificial (AI)? Cómo Woohoo usa la IA para cortar los desechos de la cocina y aumentar la sostenibilidad de Aiman está entrenado para reutilizar los ingredientes que muchos cocinas tiran, como la grasa y los adornos. Estos componentes descartados de otra manera se convierten en ingredientes clave en platos completamente nuevos. Ahmet Oytun Cakir, uno de los fundadores y el CEO de Gastronaut, dice que esta característica podría ayudar a reducir los desechos de la cocina en todo el mundo. Finalmente, la esperanza es licenciar al chef Aiman a restaurantes de todo el mundo. nterior del restaurante Woohoo conducido por AI en Dubai (Woohoo) Lo que esto significa para usted si está planeando un viaje a Dubai, Woohoo ofrece más que una comida digna de fotos. Es una oportunidad para probar lo que sucede cuando la inteligencia artificial y el arte culinario trabajan de la mano. Más allá del comedor, este experimento tiene mayores implicaciones. La IA podría ayudar a los chefs de todas partes a ser más sostenibles, más creativos y más eficientes sin perder el toque humano que hace que la comida sea especial. Haga clic aquí para obtener las cosas clave de Fox News Appkurt, que los ojos son solo otro concepto llamativo. Es parte de un cambio más grande en la forma en que pensamos sobre la comida, la tecnología y la creatividad. AI no se hace cargo de la cocina. Se está asociando con chefs reales para provocar nuevas ideas y reducir el desperdicio. Ya sea que sea un entusiasta que busque algo nuevo, un geek tecnológico que persigue la próxima innovación o simplemente curioso sobre lo que sigue, Woohoo le da un asiento de primera fila para el futuro de la comida. Y sí, puede probarlo. ¿Confiaría en una IA para diseñar su próxima experiencia gastronómica, o algunas cosas deberían permanecer puramente humanas? Háganos saber escribiéndonos en cyberguy.com/contactsign Up para mi informe gratuito de Cyberguy mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas entregadas directamente a su bandeja de entrada. Además, obtendrá acceso instantáneo a mi mejor guía de supervivencia de estafas, gratis cuando se una a mi cyberguy.com/newsletterCopyright 2025 cyberguy.com. Reservados todos los derechos. Kurt «Cyberguy» Knutsson es un periodista tecnológico galardonado que tiene un profundo amor por la tecnología, el equipo y los dispositivos que mejoran la vida con sus contribuciones para Fox News & Fox Business Comenzing Mornings en «Fox & Friends». ¿Tienes una pregunta tecnológica? Obtenga el boletín gratuito de Cyberguy de Kurt, comparta su voz, una idea de la historia o comenta en cyberguy.com.