Mustafa Suleyman, cofundador y director ejecutivo de Inflection AI UK Ltd., habla en el Foro Económico Mundial en Davos, Suiza, el 18 de enero de 2024.Stefan Wermuth | Bloomberg | Getty Images Microsoft revelará nuevas herramientas de inteligencia artificial para su uso en PC y en la nube en su conferencia anual Build, según una lista de sesiones publicada el miércoles. En enero, el director ejecutivo de Microsoft, Satya Nadella, dijo a los analistas que 2024 es el año en el que «la IA convertirse [a] «parte de primera clase de cada PC», y el itinerario de la conferencia de mayo de Microsoft refleja ese objetivo. Microsoft ha informado de un crecimiento significativo de los ingresos de los clientes que ejecutan modelos de IA en su nube pública Azure, y la compañía quiere mantener la tendencia implementando nuevos Funciones de IA para desarrolladores. El nuevo director de IA de Microsoft, Mustafa Suleyman, subirá al escenario junto a Nadella y otros ejecutivos de larga data durante el discurso de apertura del programa en Seattle. Suleyman, cofundador de DeepMind, la startup de IA que Google adquirió en 2014 – se unió a Microsoft el mes pasado desde la startup Inflection AI. Las personas que buscan aprovechar al máximo los sistemas operativos Windows han podido durante años instalar PowerToys, un paquete de utilidades de código abierto que incluye un widget de cambio de tamaño de imágenes y un programa de personalización de atajos de teclado. Build, Microsoft hablará sobre una nueva función de pegado avanzado, que se basa en modelos de IA que se ejecutan directamente en las PC, en lugar de tener que enviar datos a la nube y recibir respuestas. El fabricante de software también hablará sobre nuevas funciones de IA «que permiten a los usuarios interacción más profunda con sus vidas digitales en Windows», según la descripción de una sesión. Los desarrolladores podrán integrar estas funciones en las aplicaciones de Windows. Como parte de esta estrategia, Microsoft presentó en marzo las Surface PC, que cuentan con un botón Copilot para un acceso rápido al chatbot de la empresa. Esas máquinas contienen procesadores Intel. Durante años, Microsoft ha estado trabajando para mejorar la experiencia del usuario en PC con Windows ejecutando chips energéticamente eficientes en la arquitectura Arm en lugar del modelo x86 estándar que utiliza Intel. En Build, Microsoft planea discutir cómo las aplicaciones de Windows podrán aprovechar los motores de procesamiento neuronal basados en Arm, o NPU, para inteligencia artificial. Las organizaciones que construyen sus propios chatbots en Azure AI Studio escucharán sobre nuevas características relacionadas con la seguridad de la IA, que tendrá como objetivo reducir la probabilidad de que los modelos generen declaraciones sobre sexo y violencia o presenten riesgos de seguridad. Microsoft también está tratando de facilitar el uso de Azure en general. La compañía también hablará sobre las mejoras que se incorporarán al chatbot Copilot al que se puede acceder en Azure, que actualmente está disponible para clientes selectos en modo de vista previa. Puede encontrar el catálogo completo de sesiones para la conferencia Build 2024 aquí. No se pierda estas historias de CNBC PRO:
Etiqueta: Microsoft Corp. Página 1 de 5

Google está intentando hacer que la computación en la nube sea más asequible con un chip de servidor personalizado basado en Arm. En su conferencia Cloud Next celebrada en Las Vegas el martes, la compañía dijo que el nuevo procesador estará disponible más adelante en 2024. Con el nuevo chip basado en Arm, Google está tratando de ponerse al día con rivales como Amazon y Microsoft, que han estado empleando una estrategia similar durante años. Los gigantes tecnológicos compiten ferozmente en el creciente mercado de infraestructura en la nube, donde las organizaciones alquilan recursos en centros de datos lejanos y pagan en función del uso. La empresa matriz de Google, Alphabet, todavía obtiene tres cuartas partes de los ingresos de la publicidad, pero la nube está creciendo más rápido y ahora representa casi 11% de los ingresos de la empresa. El segmento que contiene aplicaciones de productividad corporativa también es rentable. Google poseía el 7,5% del mercado de infraestructura en la nube en 2022, mientras que Amazon y Microsoft controlaban juntos alrededor del 62%, según estimaciones de Gartner. El líder del mercado, Amazon Web Services, presentó su chip Graviton Arm en 2018. «Casi todos sus servicios ya están adaptados y optimizados en el ecosistema Arm», dijo a CNBC Chirag Dekate, analista de Gartner, investigador de la industria tecnológica, en una entrevista. Graviton ha adquirido negocios de Datadog, Elastic, Snowflake y Sprinklr, entre otros. Alibaba anunció procesadores Arm en 2021 y Microsoft hizo lo mismo en noviembre. Arm no es completamente nuevo en Google, que comenzó a vender acceso a máquinas virtuales, o VM, que utilizan chips basados en Arm de la startup Ampere, respaldada por Oracle, en 2022. Portar aplicaciones a máquinas Arm tiene sentido para las organizaciones que buscan reducir el gasto en computación en la nube debido a preocupaciones económicas. Cuando Arm Holdings presentó su solicitud para salir a bolsa el año pasado, señaló la afirmación de Amazon de que Graviton podría ofrecer un rendimiento de precio hasta un 40% mejor que instancias de servidor comparables, como el modelo común «x86» utilizado por los procesadores AMD e Intel. Google ha utilizado Arm -computadores servidores basados en fines internos para ejecutar publicidad de YouTube, las bases de datos BigTable y Spanner, y la herramienta de análisis de datos BigQuery. La compañía las trasladará gradualmente a las instancias Arm basadas en la nube, que se denominan Axion, cuando estén disponibles, dijo un portavoz. Datadog y Elastic planean adoptar Axion, junto con OpenX y Snap, dijo el portavoz. Un uso más amplio de Los chips basados en la arquitectura de Arm podrían conducir a menores emisiones de carbono para ciertas cargas de trabajo. Las porciones virtuales de servidores físicos que contienen chips Axion ofrecen un 60% más de eficiencia energética que las máquinas virtuales comparables basadas en el modelo x86, escribió el jefe de la nube de Google, Thomas Kurian, en una publicación de blog. Los chips Arm, que son populares en los teléfonos inteligentes, ofrecen un conjunto de instrucciones más corto que los chips x86, que se encuentran comúnmente en las PC. Los chips también pueden acelerar las aplicaciones. Axion ofrece un rendimiento un 30 % mejor que el procesador virtual más rápido basado en Arm de uso general. máquinas en la nube y un rendimiento un 50% mejor que las máquinas virtuales comparables basadas en x86, dijo Google. «Creo que completa su cartera», dijo Dekate. Corrección: la conferencia Cloud Next es el martes. Una versión anterior indicaba erróneamente el día.

La gente aprende sobre el servicio de chatbot de inteligencia artificial de Baidu, Ernie Bot, durante la 2.ª Exposición Mundial de Comercio Digital en el Centro Internacional de Exposiciones de Hangzhou el 23 de noviembre de 2023 en Hangzhou, provincia china de Zhejiang. Servicio de Noticias de China | Servicio de Noticias de China | Getty Images El viaje espacial de Nvidia en el mercado de valores subraya hasta qué punto la calidad y disponibilidad de los chips determinarán quiénes serán los ganadores en la era de la IA generativa. Pero hay otro aspecto a la hora de medir las primeras pistas en el espacio. En China, que busca producir sus propios chips u obtener más de Nvidia, todavía no ha surgido ningún competidor de IA de generación dominante para OpenAI entre docenas de titanes tecnológicos y nuevas empresas chinas. Al final del juego, China está tratando de tomar el liderazgo de OpenAI en un mercado de IA estadounidense más amplio formado por los titanes tecnológicos Microsoft, Google de Alphabet y Amazon, y startups bien financiadas como Anthropic, que esta semana recibió una infusión de 2.700 millones de dólares en efectivo de Amazon. En este campo de rápido movimiento, la brecha entre Estados Unidos y su rival tecnológico China se considera amplia. «Las principales empresas chinas están comparando con ChatGPT, lo que indica lo rezagadas que están», dijo Paul Triolo, vicepresidente senior para China y líder de política tecnológica de Dentons Global Advisors en Washington, DC. «No muchas empresas pueden respaldar sus propias grandes empresas». modelo lingüístico. Se necesita mucho capital. Silicon Valley definitivamente está muy por delante del juego», dijo Jenny Xiao, socia de la firma de capital riesgo de inteligencia artificial Leonis Capital en San Francisco. Estados Unidos sigue siendo el mayor mercado de inversión. El año pasado, la financiación de nuevas empresas de generación de IA representó casi la mitad de los 42.500 millones de dólares invertidos a nivel mundial en empresas de inteligencia artificial, según CB Insights. En Estados Unidos, los capitalistas de riesgo y los inversores corporativos impulsaron la inversión en IA a 31.000 millones de dólares en 1.151 acuerdos, liderados por grandes desembolsos en OpenAI, Anthropic e Inflection. Esto se compara con 2.000 millones de dólares en 68 acuerdos en China, lo que marcó una gran caída con respecto a los 5.500 millones de dólares en 377 acuerdos de 2022. La caída se puede atribuir en parte a las restricciones a la inversión de riesgo de Estados Unidos en China. «China está en gran desventaja a la hora de construir los modelos básicos para la generación de IA», dijo Rui Ma, inversor en IA y cofundador de un sindicato de inversión y un podcast. TechBuzz China. Pero donde China se queda atrás en los modelos fundamentales, que están dominados por OpenAI y Gemini de Google, está cerrando la brecha utilizando el código abierto de Meta, el modelo de lenguaje grande Llama 1, y Triolo dijo que los contendientes chinos, si están detrás, están mejorando el modelo estadounidense. «Muchos de los modelos chinos son efectivamente bifurcaciones de Llama, y el consenso es que estas bifurcaciones están uno o dos años por detrás de las principales empresas estadounidenses OpenAI y su modelo de video a texto Sora», dijo Ma. China tiene el talento tecnológico para marcar la diferencia en la rivalidad de la IA en los próximos años. Un nuevo estudio del grupo de expertos Marco Polo, dirigido por el Instituto Paulson, muestra que EE. UU. alberga el 60% de las principales instituciones de IA, y EE. UU. sigue siendo, con diferencia, la líder El destino del talento de élite en IA es el 57% del total, en comparación con China, el 12%. Pero la investigación encuentra que China aventaja a EE.UU. en algunas otras medidas, incluido estar por delante de EE.UU. en la producción de investigadores de IA de primer nivel, según títulos universitarios, con China con un 47% y EE.UU. rezagado con un 18%. Además, entre los investigadores de IA de primer nivel que trabajan en instituciones estadounidenses, el 38% tiene a China como país de origen, en comparación con el 37% de los EE.UU. Las nuevas entradas al mercado chino de IA también pueden alcanzar una adopción masiva rápidamente. El competidor ChatGPT de Baidu, Ernie Bot, lanzado en agosto de 2023, alcanzó los 100 millones de usuarios a finales de año. Samsung planea integrar Ernie AI de Baidu en sus nuevos teléfonos inteligentes Galaxy S, mientras que en otro desarrollo de alto perfil que habla de las relaciones entre Estados Unidos y China, Apple está en conversaciones con Baidu para suministrar al iPhone 16 la tecnología de inteligencia artificial de generación de la compañía china. Dentro de su actual lista de contendientes de IA, los modelos Ernie Bot de Baidu se consideran entre los más avanzados, según Leong. Varias otras empresas chinas están avanzando, financiadas por importantes actores de su propio mercado tecnológico. Grandes empresas de la nube como Baidu y Alibaba, los actores de redes sociales ByteDance y Tencent, y las empresas de tecnología SenseTime, iFlyTek, Megvii y Horizon Robotics, así como institutos de investigación, están ayudando en este esfuerzo. Moonshot AI, financiado por el gigante chino del comercio electrónico Alibaba y la firma de capital de riesgo Hongshan (anteriormente Sequoia China), está construyendo grandes modelos de lenguaje que pueden manejar entradas de contenido largas. Mientras tanto, el ex presidente de Google China, Kai-Fu Lee, ha desarrollado un modelo de IA de generación de código abierto, 01.AI, financiado por Alibaba y su empresa Sinovation Ventures. Si bien China ha acelerado el desarrollo de su industria local de chips y de la IA avanzada, su desarrollo en IA se ha visto limitado en parte por las restricciones estadounidenses a la exportación de chips de IA de alta gama, un mercado acorralado por Nvidia, como parte de un nuevo campo de batalla por la supremacía tecnológica entre los dos países. Estados Unidos y China. «A pesar de los esfuerzos por desarrollar soluciones autóctonas, los desarrolladores chinos de IA todavía dependen en gran medida del hardware extranjero, particularmente de empresas estadounidenses, lo cual es una vulnerabilidad en el clima geopolítico actual», dijo Bernard Leong, fundador y director ejecutivo de la asesoría tecnológica Analyse Asia en Singapur. Las tensiones actuales entre Estados Unidos y China por la innovación tecnológica y las cuestiones de seguridad nacional están provocando una división en el desarrollo de la IA generacional, siguiendo el patrón de otras tecnologías impactantes atrapadas en las carreras armamentistas tecnológicas de las superpotencias. Dadas las regulaciones y prohibiciones sobre tecnologías sensibles y de vanguardia, el resultado probable son dos ecosistemas paralelos para la generación de IA, uno en Estados Unidos y otro en China. ChatGPT está bloqueado en China, mientras que solo se puede acceder a Ernie Bot de Baidu en los EE. UU. con un número de teléfono celular de China continental. «Las empresas estadounidenses no pueden ir a China y las empresas chinas no pueden ir a Estados Unidos», dijo Xiao. La Secretaria de Comercio de Estados Unidos, Gina Raimondo, ha declarado que el objetivo de las restricciones estadounidenses a las exportaciones de chips de IA es evitar que China adquiera o produzca chips avanzados. A medida que China continental se centra en capacidades locales, las empresas chinas SMIC o Huawei podrían ser una alternativa a Nvidia. Pero el futuro de las alternativas probablemente sea incierto si los controles de exportación excluyen a estas empresas de los diseños más avanzados para la fabricación. Triolo señaló que Huawei desarrolló recientemente una serie de chips de inteligencia artificial como rival de Nvidia. China está avanzando en la aplicación de la IA a determinadas categorías, como la visión por ordenador. «La escasez de chips es muy importante para entrenar modelos fundamentales en los que se necesitan ciertos chips, pero para las aplicaciones, no los necesitas», dijo Ma. La «real aplicación asesina» para la generación de IA, según Triolo, estará en las empresas. que están dispuestos a pagar dinero para aprovechar la tecnología como parte de sus operaciones comerciales. Alibaba se está centrando en integrar la IA en su ecosistema de comercio electrónico. Huawei, si bien compitió con más éxito contra el iPhone de Apple en el mercado de consumo el año pasado, también tiene ambiciones más amplias, desarrollando IA para industrias específicas, incluida la minería, utilizando su hardware interno, dijo Leong. La investigación de Boston Consulting Group sugiere que puede ser un mientras que antes de que este mercado de IA de generación más amplia se extienda fuera de la tecnología. El sesenta por ciento de los 1.400 ejecutivos encuestados están esperando ver cómo se desarrollan las regulaciones de IA genérica, mientras que sólo el 6 por ciento de las empresas han capacitado a sus empleados en herramientas de IA genérica. IA en 2023 después del avance de ChatGPT, y luego modificaciones de algunas medidas. La tecnología de IA de generación de código abierto que muchos desarrolladores chinos utilizan puede fomentar la colaboración a nivel mundial y conducir a conocimientos compartidos a medida que avanza la IA, pero Leong dijo que el código abierto también genera problemas relacionados con garantizar «China quiere asegurarse de que no se derrame contenido. También quiere que sus empresas lideren y están dispuestas a imponer medidas draconianas», dijo Triolo. Las preocupaciones éticas y sociales obstaculizan los avances de la IA en China y en otras regiones, incluido Estados Unidos, como se ve en la batalla por el control de la misión de OpenAI. Dentro de China, hay otro factor que podría frenar la aceleración de la IA, según Leong: mantener el control de las aplicaciones de IA de generación, especialmente en áreas sensibles a los intereses estatales.
Source link
Asistentes a HIMSS en Orlando, Florida, 2024. Cortesía de HIMSS La nueva tecnología más novedosa para médicos promete recuperar una antigua práctica de atención médica: las conversaciones cara a cara con los pacientes. Mientras más de 30 000 profesionales de la salud y la tecnología se reunían entre los palmeras en la conferencia HIMSS en Orlando, Florida, esta semana, la documentación clínica ambiental fue la comidilla del piso de exhibición. Esta tecnología permite a los médicos registrar de forma consensuada sus visitas a los pacientes. Las conversaciones se transforman automáticamente en notas clínicas y resúmenes mediante inteligencia artificial. Empresas como Nuance Communications, Abridge y Suki de Microsoft han desarrollado soluciones con estas capacidades, que, según afirman, ayudarán a reducir las cargas de trabajo administrativas de los médicos y priorizarán conexiones significativas con los pacientes. «Después de ver a un paciente, tengo que escribir notas, hacer pedidos y pensar en el resumen del paciente», dijo a CNBC en HIMSS el Dr. Shiv Rao, fundador y director ejecutivo de Abridge. «Entonces, lo que hace nuestra tecnología es permitirme concentrarme en la persona que tengo frente a mí, la persona más importante, el paciente, porque cuando presiono Inicio, tengo una conversación y luego presiono Detener, puedo girar mi silla y en segundos , la nota está ahí.» Las cargas de trabajo administrativas son un problema importante para los médicos de todo el sistema de atención médica de EE. UU. Una encuesta publicada por Athenahealth en febrero encontró que más del 90% de los médicos informan que se sienten agotados «regularmente», en gran parte debido al papeleo que se espera que completen. Más del 60% de los médicos dijeron que se sienten abrumados por los requisitos administrativos y trabajan un promedio de 15 horas por semana fuera de su horario normal para mantenerse al día, según la encuesta. Muchos en la industria llaman a este trabajo en casa «tiempo de pijama». Dado que el trabajo administrativo es mayoritariamente burocrático y no influye directamente en las decisiones de los médicos en torno al diagnóstico o la atención al paciente, ha sido una de las primeras áreas donde los sistemas de salud han comenzado a explorar seriamente las aplicaciones de la IA generativa. Como resultado, las soluciones de documentación clínica ambiental están teniendo un verdadero momento de éxito. «No hay un mejor lugar para estar», dijo a CNBC Kenneth Harper, director general de DAX Copilot en Microsoft, en una entrevista. Nuance de Microsoft anunció su herramienta de documentación clínica ambiental Dragon Ambient eXperience (DAX) Express en una versión preliminar en marzo pasado. En septiembre, la solución, ahora llamada DAX Copilot, estaba disponible de forma generalizada. Harper dijo que ahora hay más de 200 organizaciones que utilizan esta tecnología. Microsoft adquirió Nuance por alrededor de 16 mil millones de dólares en 2021. La compañía tenía un stand de exhibición de dos pisos en la sala de exhibición que a menudo estaba lleno de asistentes. Harper dijo que la tecnología ahorra a los médicos varios minutos por encuentro, aunque las cifras exactas varían según la especialidad. Dijo que su equipo recibe comentarios sobre el servicio casi a diario de médicos que afirman que les ha ayudado a cuidarse mejor e incluso a salvar sus matrimonios. Harper relató una conversación con un médico que estaba considerando jubilarse después de ejercer durante más de tres décadas. Dijo que el médico se sentía agotado por años de estrés, pero se sintió inspirado a seguir trabajando después de que le presentaron DAX Copilot. «Dijo: ‘Literalmente creo que voy a practicar otros 10 años porque realmente disfruto lo que hago'», dijo Harper. «Esa es sólo una anécdota personal del tipo de impacto que esto está teniendo en nuestros equipos de atención». En HIMSS, Stanford Health Care anunció que está implementando DAX Copilot en toda su empresa. Gary Fritz, jefe de aplicaciones de Stanford Health Care, dijo que la organización inicialmente había comenzado probando la herramienta dentro de sus salas de examen. Dijo que Stanford encuestó recientemente a los médicos sobre el uso de DAX Copilot y que el 96% lo encontró fácil de usar. «No sé si alguna vez había visto un número tan grande», dijo Fritz a CNBC en una entrevista. «Es un gran problema.»Dr. Christopher Sharp, director de información médica de Stanford Health Care y uno de los médicos que probó DAX Copilot, dijo que su uso es «notablemente fluido». Dijo que la inmediatez y confiabilidad de la herramienta son precisas y sólidas, pero podrían mejorar en la captura del tono del paciente. Sharp dijo que cree que la herramienta le ahorra tiempo de documentación y ha cambiado la forma en que emplea ese tiempo. Dijo que a menudo lee y edita notas en lugar de componerlas, por ejemplo, por lo que no es que el trabajo haya desaparecido por completo. En el corto plazo, Sharp dijo que le gustaría ver más capacidades de personalización dentro de DAX Copilot. tanto a nivel individual como de especialidad. Aun así, dijo que fue fácil ver su valor desde el principio. «En el momento en que el primer documento regresa a usted y ve sus propias palabras y las del paciente reflejadas directamente en usted de una manera utilizable «Yo diría que a partir de ese momento estás enganchado», dijo Sharp a CNBC en una entrevista. Fritz dijo que aún es temprano en el ciclo de vida del producto, y Stanford Health Care todavía está trabajando exactamente cómo será la implementación. Dijo que DAX Copilot probablemente se implementará en tramos específicos de especialidad. Asistentes a HIMSS en Orlando, Florida, 2024. Cortesía de HIMSS En enero, Nuance anunció la disponibilidad general de DAX Copilot dentro del registro médico electrónico (EHR) de Epic Systems. La mayoría de los médicos crean y administran registros médicos de pacientes utilizando EHR, y Epic es el mayor proveedor por participación de mercado hospitalario en los EE. UU., según un informe de mayo de KLAS Research. Integrar una herramienta como DAX Copilot directamente en el flujo de trabajo de EHR de los médicos significa que no necesitarán cambiar de aplicación para acceder a ella, lo que ayuda a ahorrar tiempo y reducir aún más su carga administrativa, dijo Harper. Seth Hain, vicepresidente senior de I+D de Epic, dijo a CNBC que las tecnologías ambientales han redactado más de 150.000 notas en el software de la empresa desde la conferencia HIMSS del año pasado. Y la tecnología está escalando rápidamente. Hain dijo que ya se han redactado más notas en 2024 que en 2023. «Estamos viendo sistemas de salud que han trabajado a través de un proceso intencional para aclimatar a sus usuarios finales a este tipo de tecnología, y ahora comienzan a implementarla rápidamente», dijo. . Una empresa llamada Abridge también integra su tecnología de documentación clínica ambiental directamente en Epic. Abridge se negó a compartir el número exacto de organizaciones de salud que utilizan su tecnología. Anunció en HIMSS que UCI Health, con sede en California, está implementando la solución de la compañía en todo el sistema. Rao, director ejecutivo de Abridge, dijo que el ritmo al que la industria de la salud ha adoptado la documentación clínica ambiental parece «histórico». Abridge anunció una ronda de financiación Serie B de 30 millones de dólares en octubre, liderada por Spark Capital, y cuatro meses después, la compañía cerró una ronda Serie C de 150 millones de dólares, según un comunicado de febrero. Rao dijo que los vientos de cola, como el agotamiento de los médicos, se han convertido en un «tornado» para Abridge, y que utilizará estos fondos para continuar invirtiendo en la ciencia detrás de la tecnología y explorar hacia dónde puede ir a continuación. La empresa está ahorrando a algunos médicos hasta tres horas al día, afirmó Rao, y está automatizando más del 92% del trabajo administrativo en el que se centra. La tecnología de Abridge está disponible en 55 especialidades y 14 idiomas, añadió. Abridge tiene un canal de Slack llamado «historias de amor», que fue visto por CNBC, donde el equipo compartirá los comentarios positivos que reciba sobre su tecnología. Un mensaje de esta semana fue de un médico que dijo que Abridge les ayudó a eliminar la parte que menos les gustaba de su trabajo y les ahorró alrededor de una hora y media cada día. «Ese es el tipo de comentarios que inspira absolutamente a todos en la empresa». Dijo Rao.El director ejecutivo de Suki, Punit Soni, dijo que el mercado de documentación clínica ambiental está «cresporando». Espera que el rápido crecimiento continúe durante los próximos dos años, aunque, como todos los ciclos publicitarios, cree que el polvo se asentará. Soni fundó Suki hace más de seis años después de plantear la hipótesis de que sería necesario un asistente digital para ayudar a los médicos a gestionar la documentación clínica. Soni dijo que Suki ahora es utilizado por más de 30 especialidades en alrededor de 250 organizaciones de salud en todo el país. Seis «grandes sistemas de salud» se han puesto en marcha con Suki en las últimas dos semanas, añadió. «Durante cuatro o cinco años me he sentado, básicamente con la tienda abierta, esperando que apareciera alguien. Ahora todo el centro comercial está aquí y hay una fila afuera de la puerta de gente que quiere desplegarse», dijo Soni a CNBC en HIMSS. . «Es muy, muy emocionante estar aquí». El sitio web de Suki dice que su tecnología puede reducir el tiempo que un médico dedica a la documentación en un promedio del 72%. La compañía recaudó una ronda de financiación de 55 millones de dólares en 2021 liderada por March Capital. Probablemente generará otra ronda en la segunda mitad del año, dijo Soni. Soni dijo que Suki está enfocado en implementar su tecnología a escala y explorar aplicaciones adicionales, como cómo la documentación ambiental podría usarse para ayudar a las enfermeras. Dijo que el idioma español llegará pronto a Suki y que los clientes deben esperar que le sigan la mayoría de los idiomas principales. «Hay tantas cosas que tienen que suceder», dijo. «En la próxima década, toda la tecnología sanitaria será completamente diferente».
Source link
Ofcom dijo que recibió evidencia que muestra que Microsoft hace que sea menos atractivo para los clientes ejecutar sus aplicaciones de productividad de Office en una infraestructura de nube que no sea Microsoft Azure.Igor Golovniov | Imágenes de sopa | Lightrocket a través de Getty Images Microsoft fue acusada el viernes de abusar del dominio de su unidad de computación en la nube Azure para exprimir (y, en algunos casos, evaporar) los márgenes de ganancias de las plataformas en la nube rivales en Europa. El reclamo surgió en una queja de CISPE, una empresa organismo para empresas de nube de «infraestructura como servicio» en Europa. También se produce cuando el gigante tecnológico con sede en Redmond, Washington, enfrenta un intenso escrutinio sobre sus prácticas de licencias de software y computación en la nube en la Unión Europea, así como en el Reino Unido y EE. UU. Las acusaciones surgen de los ajustes que Microsoft hizo a sus términos de licencia en 2019. Según esas reglas, Microsoft exigía que las empresas compraran una licencia de Software Assurance y «derechos de movilidad» si querían implementar su software de Microsoft en servicios alojados en la nube ofrecidos por proveedores rivales. Los clientes tampoco podían confiar en licencias perpetuas que ya habían comprado para ejecutar Microsoft. aplicaciones en los llamados «proveedores listados» como Alibaba, Amazon, Google y el propio Microsoft. En su lugar, tendrían que comprar nuevas licencias. Mientras tanto, se prohibió la ejecución de algunos programas, incluidas las aplicaciones de Windows Office 365, en nubes rivales. Los términos son fuente de intensa ira por parte de empresas de nube competidoras en Europa, como OVHCloud de Francia y Aruba de Italia, así como del competidor de las grandes tecnologías Amazon. También formó la base de una investigación de la Comisión Europea que busca determinar si las prácticas en la nube de Microsoft son anticompetitivas. Microsoft se negó a hacer comentarios cuando CNBC se puso en contacto con él. En 2022, el presidente de Microsoft, Brad Smith, escribió una publicación en un blog diciendo que estaba revisando sus acuerdos de licencia y facilitando la competencia de los proveedores de la nube. En su queja del viernes, CISPE, que está fuertemente financiado por Amazon, mostró un ejemplo en su investigación en el que un miembro La empresa de nube, cuyo nombre no fue revelado, vio cómo los ingresos por la venta de productos de Microsoft, incluidos Windows Server y los servicios de SQL Server, aumentaron más del 300% desde 2018, lo que contribuyó al propio crecimiento de Microsoft. Pero el crecimiento de los márgenes de ganancia del proveedor de nube anónimo no lo hizo. No coincide con el de Microsoft y, de hecho, el proveedor de la nube competidor vio caer sus márgenes de un porcentaje positivo de mediados de los veinte en 2018 a márgenes de ganancias negativos de dos dígitos en 2023. La mayor disminución en los márgenes de ganancias para esta empresa de la nube se produjo en 2019, el mismo año Microsoft cambió sus términos de licencia para favorecer la licencia de software en Azure, dijo el CISPE. De 2019 a 2020, el miembro de CISPE en cuestión vio su margen colapsar de más del 20% a cero. CISPE también dijo que los miembros compartieron evidencia de que el precio que les cobraron por SQL Server de Microsoft era mucho más alto que el precio cotizado por Microsoft para los clientes que usaban Azure. Por ejemplo, una empresa que conceda una licencia del software de Microsoft para alojar y distribuir sus aplicaciones tendría que pagar 612,27 euros (670 dólares) por un producto SQL Server Enterprise de 2 núcleos, 92,01 euros más de lo que Microsoft cobra a los clientes que utilizan Azure de media (520,26 euros). según datos de CISPE. La denuncia y los hallazgos se suman a investigaciones previas de Frederic Jenny, profesor de economía en la Escuela de Negocios ESSEC de París que se especializa en derecho de competencia, para CISPE. Jenny descubrió que Microsoft efectivamente cobra a las empresas un «impuesto» del 28% por ejecutar sus productos de software en servicios en la nube de la competencia. La Comisión Europea dijo a CNBC: «La Comisión ha recibido varias quejas con respecto a Microsoft, incluso en relación con su producto Azure, que estamos «La Autoridad de Mercados y Competencia del Reino Unido, que asumió el cargo del regulador de medios y telecomunicaciones Ofcom para una investigación sobre la competencia en el mercado de computación en la nube del Reino Unido el año pasado, fue No estuvo disponible de inmediato para hacer comentarios cuando CNBC lo contactó.
Source link
Microsoft dijo el viernes que el grupo ruso Nobelium, al que la compañía se refiere como Midnight Blizzard, ha estado intentando acceder a sus sistemas internos y repositorios de código fuente. «En las últimas semanas, hemos visto evidencia de que Midnight Blizzard está utilizando información inicialmente exfiltrada de nuestra sistemas de correo electrónico corporativo para obtener, o intentar obtener, acceso no autorizado. Esto ha incluido el acceso a algunos de los repositorios de código fuente y sistemas internos de la compañía», dijo Microsoft en una publicación de blog. «Hasta la fecha no hemos encontrado evidencia de que los clientes alojados por Microsoft Los sistemas orientados se han visto comprometidos». Microsoft dijo que Midnight Blizzard estaba tratando de acceder a secretos, incluidos los compartidos entre Microsoft y sus clientes, pero que se estaba acercando y ayudando a los clientes afectados. «Midnight Blizzard ha aumentado el volumen de algunos aspectos del ataques, como la difusión de contraseñas, hasta 10 veces en febrero, en comparación con el ya gran volumen que vimos en enero de 2024», dijo. Microsoft dijo que había mejorado su inversión en seguridad y sus esfuerzos para defenderse del ataque y que había intensificado las medidas de seguimiento y control. La compañía dijo por primera vez en enero que había detectado un ciberataque de Nobelium, en el que el grupo ruso pirateó correos electrónicos de altos ejecutivos. En ese momento, Microsoft dijo que no había evidencia de que el grupo de hackers hubiera accedido a datos de clientes, sistemas de producción de código fuente propietario. Poco después del ataque a Microsoft, Hewlett Packard Enterprise dijo que su sistema de correo electrónico basado en la nube también había sido comprometido. Nobelium es considerado parte del servicio de inteligencia exterior de Rusia SVR por el gobierno de EE. UU. y también se lo conoce como Cozy Bear o APT29, junto con Midnight Blizzard. Rusia ha sido acusada varias veces de ataques cibernéticos contra países y empresas occidentales durante su guerra contra Ucrania. En diciembre de 2023, El Centro Nacional de Seguridad Cibernética de Gran Bretaña dijo que Rusia había atacado a políticos, periodistas y funcionarios públicos en una «campaña de actividad cibernética maliciosa» de varios años que tenía como objetivo socavar la democracia.
Source link