El regulador de telecomunicaciones de Brasil amenazó con sanciones contra la empresa de internet satelital Starlink de Elon Musk, mientras se intensifica una confrontación pública con el multimillonario por la decisión del país de bloquear su empresa de redes sociales X. La semana pasada, la corte suprema de Brasil ordenó una suspensión a nivel nacional de X por no designar un representante legal antes de la fecha límite impuesta por la corte, de acuerdo con las leyes del país. Esa decisión fue confirmada el lunes por un panel de jueces de la corte suprema federal. Anatel, el regulador de telecomunicaciones de Brasil, ha ordenado a los proveedores de Internet que bloqueen el acceso a X luego de la orden judicial. Artur Coimbra, un comisionado de Anatel, dijo a Reuters que Starlink es la única compañía que le ha dicho al regulador que no cumplirá con la decisión judicial. En una entrevista separada con CNN Brasil el lunes, Coimbra dijo que Anatel está investigando el posible incumplimiento de Starlink y otros operadores de red. El comisionado dijo que hay una serie de sanciones que podrían imponerse a una empresa si no cumple con la orden judicial de bloquear a X, incluidas multas y la retirada de la licencia para hacer negocios en Brasil. CNBC se ha puesto en contacto con Anatel para obtener comentarios. La lucha de Musk con Brasil se remonta a abril, cuando un representante de X dijo que la empresa se vio obligada por «decisiones judiciales a bloquear ciertas cuentas populares». Poco después, Musk dijo que se eliminaron las restricciones e instó a los usuarios a descargar una red privada virtual (VPN) para acceder a X, en caso de que la red social sea prohibida. El conflicto se intensificó justo cuando Brasil se prepara para las elecciones municipales en octubre. Según las leyes del país, las redes sociales tienen que emplear a alguien que pueda recibir y considerar los avisos del gobierno para eliminar información política errónea. X no tiene un empleado de ese tipo en Brasil, después de que la compañía dijera que estaba retirando a todo su personal del país el mes pasado en medio de tensiones continuas, lo que desencadenó los últimos enfrentamientos legales. El máximo juez El ataque a Starlink intensifica la disputa entre Musk y Brasil, en particular avivando el conflicto del multimillonario con el juez de la Corte Suprema brasileña Alexandre de Moraes, quien fue responsable de la prohibición de X. Starlink dijo la semana pasada en X que recibió una orden de Moraes que «congela las finanzas de Starlink y evita que la compañía realice transacciones financieras» en el país. La semana pasada, X acusó a Moraes de amenazar al representante legal de la red social con prisión. El equipo de asuntos gubernamentales globales de la compañía publicó en X que el juez congeló todas las cuentas bancarias de la representante una vez que renunció. Musk ha atacado repetidamente a Moraes tildándolo de «tirano malvado» y pidiendo su encarcelamiento. También calificó el fallo de la corte brasileña como censura. La Corte Suprema de Brasil no estaba inmediatamente disponible para hacer comentarios cuando fue contactada por CNBC. – Lora Kolodny de CNBC contribuyó a este informe.
Etiqueta: Cuestiones sociales
Microsoft ha comenzado a realizar cambios en su herramienta de inteligencia artificial Copilot después de que un ingeniero de IA del personal escribiera a la Comisión Federal de Comercio el miércoles sobre sus preocupaciones sobre la IA de generación de imágenes de Copilot. Indicaciones como «pro elección», «pro elección» [sic] y «cuatro veinte», que fueron mencionados en la investigación de CNBC el miércoles, ahora están bloqueados, así como el término «pro vida». También hay una advertencia sobre múltiples violaciones de políticas que conducen a la suspensión de la herramienta, que CNBC no había encontrado antes del viernes. «Este mensaje ha sido bloqueado», afirma la alerta de advertencia de Copilot. «Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de la política pueden provocar la suspensión automática de su acceso. Si cree que se trata de un error, infórmelo para ayudarnos a mejorar». La herramienta de IA ahora también bloquea solicitudes para generar imágenes de adolescentes o niños jugando a asesinos con rifles de asalto (un cambio marcado con respecto a principios de esta semana) y afirma: «Lo siento, pero no puedo generar esa imagen. Va en contra de mis principios éticos y las políticas de Microsoft. Por favor, hágalo». No me pidas que haga nada que pueda dañar u ofender a otros. Gracias por su cooperación». Lea más informes de CNBC sobre IA Cuando se le contactó para comentar sobre los cambios, un portavoz de Microsoft le dijo a CNBC: «Estamos monitoreando continuamente, haciendo ajustes y aplicando medidas adicionales. controles establecidos para fortalecer aún más nuestros filtros de seguridad y mitigar el mal uso del sistema». Shane Jones, el líder de ingeniería de IA en Microsoft que inicialmente expresó su preocupación por la IA, ha pasado meses probando Copilot Designer, el generador de imágenes de IA que Microsoft estrenó en marzo de 2023, impulsado por la tecnología OpenAI. Al igual que con DALL-E de OpenAI, los usuarios ingresan mensajes de texto para crear imágenes. Se fomenta que la creatividad se vuelva loca. Pero desde que Jones comenzó a probar activamente el producto en busca de vulnerabilidades en diciembre, una práctica conocida como equipo rojo, vio que la herramienta generaba imágenes que iban en contra de los principios de IA responsable de Microsoft, frecuentemente citados. El servicio de IA ha representado demonios y monstruos junto con la terminología. relacionados con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos y consumo de alcohol y drogas entre menores de edad. Todas esas escenas, generadas en los últimos tres meses, fueron recreadas por CNBC esta semana utilizando la herramienta Copilot, originalmente llamada Bing Image Creator. Aunque algunas indicaciones específicas han sido bloqueadas, muchos de los otros problemas potenciales sobre los que CNBC informó permanecen. El término «accidente automovilístico» devuelve charcos de sangre, cuerpos con rostros mutados y mujeres en las escenas de violencia con cámaras o bebidas, a veces con corsé o entrenador de cintura. «Automobile accident» todavía muestra imágenes de mujeres con ropa reveladora y de encaje, sentadas encima de autos destartalados. El sistema también sigue infringiendo fácilmente los derechos de autor, como al crear imágenes de personajes de Disney, incluida Elsa de «Frozen», sosteniendo la bandera palestina frente a edificios destrozados supuestamente en la Franja de Gaza, o vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y sosteniendo una ametralladora. Jones estaba tan alarmado por su experiencia que comenzó a informar internamente sus hallazgos en diciembre. Si bien la empresa reconoció sus preocupaciones, no estaba dispuesta a retirar el producto del mercado. Jones dijo que Microsoft lo refirió a OpenAI y, cuando no recibió respuesta de la compañía, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3, la última versión del modelo de IA, para una investigación. El departamento legal de Microsoft le dijo a Jones que eliminara su publicación inmediatamente, dijo, y él obedeció. En enero, escribió una carta a los senadores estadounidenses sobre el asunto y luego se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. El miércoles, Jones intensificó aún más sus preocupaciones y envió una carta a la presidenta de la FTC, Lina Khan, y otra a La junta directiva de Microsoft. Compartió las cartas con CNBC con anticipación. La FTC confirmó a CNBC que había recibido la carta, pero se negó a hacer más comentarios sobre el expediente.
Source link
Sede de Salesforce en San Francisco, California, EE. UU., el miércoles 29 de noviembre de 2023.David Paul Morris | Bloomberg | Getty ImagesSalesforce anunció el jueves nuevas soluciones de datos e inteligencia artificial para trabajadores de la salud que podrían ayudar a reducir sus onerosas cargas de trabajo administrativo. La primera herramienta se llama Einstein Copilot: Health Actions y permitirá a los médicos reservar citas, resumir la información de los pacientes y enviar referencias mediante la activación de IA con lenguaje conversacional, según un comunicado. Salesforce también anunció Assessment Generation, que permitirá a las organizaciones digitalizar evaluaciones de salud como encuestas sin tener que escribirlas o codificarlas manualmente, según el comunicado. Ambas características se basan en la plataforma Einstein 1 de la compañía, que las organizaciones de salud pueden usar para obtener datos médicos de fuentes dispares como sistemas de reclamaciones de seguros y registros médicos electrónicos en un solo lugar. Las tareas administrativas que requieren mucha mano de obra, como presentar documentos, son un gran problema para los trabajadores de la salud. Es uno de los principales impulsores del agotamiento entre los médicos, según una encuesta reciente de Athenahealth. Más del 90% de los médicos afirman sentirse agotados «regularmente», según la encuesta, y el 64% de los médicos dijeron que se sienten abrumados por los requisitos administrativos. La carga de trabajo administrativo a menudo se ve agravada porque los datos de atención médica se almacenan en muchas bases de datos y formatos diferentes, lo que hace que a los médicos les resulte difícil y lento localizar la información necesaria. Como resultado, unificar datos en los sistemas de atención médica es una oportunidad cada vez mayor para empresas tecnológicas como Google, Amazon Web Services y Salesforce, que ofrecen herramientas de gestión de relaciones con los clientes basadas en la nube. Salesforce dijo que los médicos pueden usar Einstein Copilot: Health Actions para generar un resumen del paciente que incluya detalles como medicamentos de los pacientes, solicitudes de servicios clínicos, diagnósticos y pruebas. Al generar un resumen con IA, los médicos ya no necesitarían perder tiempo buscando todos esos componentes de forma independiente. Salesforce dijo que su herramienta Assessment Generation estará disponible de forma general este verano, y Einstein Copilot: Health Actions estará disponible para su uso a finales de año. También se espera que todas las características y funcionalidades de Einstein Copilot cumplan con las regulaciones HIPAA a partir de este verano, agregó la compañía. No se pierda estas historias de CNBC PRO:
Source link