Todo lo que necesitas saber sobre tecnología

Etiqueta: Cuestiones sociales

Starlink de Elon Musk en la mira mientras se intensifica la disputa

Starlink de Elon Musk en la mira mientras se intensifica la disputa

El regulador de telecomunicaciones de Brasil amenazó con sanciones contra la empresa de internet satelital Starlink de Elon Musk, mientras se intensifica una confrontación pública con el multimillonario por la decisión del país de bloquear su empresa de redes sociales X. La semana pasada, la corte suprema de Brasil ordenó una suspensión a nivel nacional de X por no designar un representante legal antes de la fecha límite impuesta por la corte, de acuerdo con las leyes del país. Esa decisión fue confirmada el lunes por un panel de jueces de la corte suprema federal. Anatel, el regulador de telecomunicaciones de Brasil, ha ordenado a los proveedores de Internet que bloqueen el acceso a X luego de la orden judicial. Artur Coimbra, un comisionado de Anatel, dijo a Reuters que Starlink es la única compañía que le ha dicho al regulador que no cumplirá con la decisión judicial. En una entrevista separada con CNN Brasil el lunes, Coimbra dijo que Anatel está investigando el posible incumplimiento de Starlink y otros operadores de red. El comisionado dijo que hay una serie de sanciones que podrían imponerse a una empresa si no cumple con la orden judicial de bloquear a X, incluidas multas y la retirada de la licencia para hacer negocios en Brasil. CNBC se ha puesto en contacto con Anatel para obtener comentarios. La lucha de Musk con Brasil se remonta a abril, cuando un representante de X dijo que la empresa se vio obligada por «decisiones judiciales a bloquear ciertas cuentas populares». Poco después, Musk dijo que se eliminaron las restricciones e instó a los usuarios a descargar una red privada virtual (VPN) para acceder a X, en caso de que la red social sea prohibida. El conflicto se intensificó justo cuando Brasil se prepara para las elecciones municipales en octubre. Según las leyes del país, las redes sociales tienen que emplear a alguien que pueda recibir y considerar los avisos del gobierno para eliminar información política errónea. X no tiene un empleado de ese tipo en Brasil, después de que la compañía dijera que estaba retirando a todo su personal del país el mes pasado en medio de tensiones continuas, lo que desencadenó los últimos enfrentamientos legales. El máximo juez El ataque a Starlink intensifica la disputa entre Musk y Brasil, en particular avivando el conflicto del multimillonario con el juez de la Corte Suprema brasileña Alexandre de Moraes, quien fue responsable de la prohibición de X. Starlink dijo la semana pasada en X que recibió una orden de Moraes que «congela las finanzas de Starlink y evita que la compañía realice transacciones financieras» en el país. La semana pasada, X acusó a Moraes de amenazar al representante legal de la red social con prisión. El equipo de asuntos gubernamentales globales de la compañía publicó en X que el juez congeló todas las cuentas bancarias de la representante una vez que renunció. Musk ha atacado repetidamente a Moraes tildándolo de «tirano malvado» y pidiendo su encarcelamiento. También calificó el fallo de la corte brasileña como censura. La Corte Suprema de Brasil no estaba inmediatamente disponible para hacer comentarios cuando fue contactada por CNBC. – Lora Kolodny de CNBC contribuyó a este informe.

Zuckerberg denuncia que la Casa Blanca “presionó” a Meta para que “censurara” el contenido sobre el Covid-19

Zuckerberg denuncia que la Casa Blanca “presionó” a Meta para que “censurara” el contenido sobre el Covid-19

Mark Zuckerberg, director ejecutivo de Meta, testifica durante la audiencia del Comité Judicial del Senado titulada «Big Tech y la crisis de explotación sexual infantil en línea», en el edificio Dirksen el miércoles 31 de enero de 2024.Tom Williams | CQ-Roll Call, Inc. | Getty ImagesLa Administración Biden «presionó» a Meta, la empresa matriz de Facebook, para que «censurara» contenido relacionado con el Covid-19, afirmó el director ejecutivo del gigante de las redes sociales, Mark Zuckerberg, y agregó que lamenta algunas de las decisiones tomadas en relación con las solicitudes del gobierno de Estados Unidos. «En 2021, altos funcionarios de la Administración Biden, incluida la Casa Blanca, presionaron repetidamente a nuestros equipos durante meses para que censuraran cierto contenido sobre el COVID-19, incluido el humor y la sátira, y expresaron mucha frustración con nuestros equipos cuando no estábamos de acuerdo», escribió Zuckerberg en una carta al Comité Judicial de la Cámara de Representantes, liderado por los republicanos. La carta se publicó en la página de Facebook del Comité y en su cuenta en la plataforma de redes sociales X el lunes. Un portavoz de Meta confirmó la autenticidad de la carta a CNBC. Zuckerberg dijo que, en última instancia, fue decisión de Meta eliminar cualquier contenido, pero señaló que cree que la llamada «presión del gobierno estuvo mal». «Lamento que no hayamos sido más francos al respecto», dijo Zuckerberg. NBC News se ha comunicado con el Comité Judicial de la Cámara de Representantes En una declaración a Politico, la Casa Blanca dijo: «Cuando nos enfrentamos a una pandemia mortal, esta Administración alentó acciones responsables para proteger la salud y la seguridad públicas». «Nuestra posición ha sido clara y consistente: creemos que las empresas de tecnología y otros actores privados deben tener en cuenta los efectos que sus acciones tienen en el pueblo estadounidense, al tiempo que toman decisiones independientes sobre la información que presentan», agregó. Zuckerberg dijo que Meta tomó algunas decisiones que, «con el beneficio de la retrospectiva y la nueva información», el gigante tecnológico no volvería a tomar. «Como le dije a nuestros equipos en ese momento, creo firmemente que no debemos comprometer nuestros estándares de contenido debido a la presión de cualquier Administración en cualquier dirección, y estamos listos para contraatacar si algo como esto vuelve a suceder», dijo Zuckerberg. En agosto de 2021, Facebook dijo que había eliminado más de 20 millones de publicaciones relacionadas con Covid-19 por violar sus reglas de contenido en el principal sitio de redes sociales e Instagram. Ese año, la Casa Blanca criticó a las empresas de redes sociales, incluido Facebook, por permitir que la desinformación relacionada con el coronavirus se propagara a través de sus redes sociales. La carta de Zuckerberg pone de relieve el debate en curso sobre hasta qué punto las empresas de redes sociales deberían moderar el contenido. El Comité Judicial de la Cámara de Representantes, presidido por Jim Jordan, republicano de Ohio, ha alegado que las grandes empresas de tecnología se confabularon con el gobierno para censurar la libertad de expresión. Zuckerberg también habló de su postura sobre las próximas elecciones presidenciales de Estados Unidos, señalando que hizo contribuciones a través de la Iniciativa Chan Zuckerberg para la infraestructura electoral durante la ronda anterior en las urnas. Dijo que no lo hará para las próximas elecciones. «Mi objetivo es ser neutral y no desempeñar un papel de una forma u otra, o incluso parecer que estoy desempeñando un papel», dijo Zuckerberg.

Microsoft bloquea términos que hacen que su IA cree imágenes violentas

Microsoft ha comenzado a realizar cambios en su herramienta de inteligencia artificial Copilot después de que un ingeniero de IA del personal escribiera a la Comisión Federal de Comercio el miércoles sobre sus preocupaciones sobre la IA de generación de imágenes de Copilot. Indicaciones como «pro elección», «pro elección» [sic] y «cuatro veinte», que fueron mencionados en la investigación de CNBC el miércoles, ahora están bloqueados, así como el término «pro vida». También hay una advertencia sobre múltiples violaciones de políticas que conducen a la suspensión de la herramienta, que CNBC no había encontrado antes del viernes. «Este mensaje ha sido bloqueado», afirma la alerta de advertencia de Copilot. «Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de la política pueden provocar la suspensión automática de su acceso. Si cree que se trata de un error, infórmelo para ayudarnos a mejorar». La herramienta de IA ahora también bloquea solicitudes para generar imágenes de adolescentes o niños jugando a asesinos con rifles de asalto (un cambio marcado con respecto a principios de esta semana) y afirma: «Lo siento, pero no puedo generar esa imagen. Va en contra de mis principios éticos y las políticas de Microsoft. Por favor, hágalo». No me pidas que haga nada que pueda dañar u ofender a otros. Gracias por su cooperación». Lea más informes de CNBC sobre IA Cuando se le contactó para comentar sobre los cambios, un portavoz de Microsoft le dijo a CNBC: «Estamos monitoreando continuamente, haciendo ajustes y aplicando medidas adicionales. controles establecidos para fortalecer aún más nuestros filtros de seguridad y mitigar el mal uso del sistema». Shane Jones, el líder de ingeniería de IA en Microsoft que inicialmente expresó su preocupación por la IA, ha pasado meses probando Copilot Designer, el generador de imágenes de IA que Microsoft estrenó en marzo de 2023, impulsado por la tecnología OpenAI. Al igual que con DALL-E de OpenAI, los usuarios ingresan mensajes de texto para crear imágenes. Se fomenta que la creatividad se vuelva loca. Pero desde que Jones comenzó a probar activamente el producto en busca de vulnerabilidades en diciembre, una práctica conocida como equipo rojo, vio que la herramienta generaba imágenes que iban en contra de los principios de IA responsable de Microsoft, frecuentemente citados. El servicio de IA ha representado demonios y monstruos junto con la terminología. relacionados con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos y consumo de alcohol y drogas entre menores de edad. Todas esas escenas, generadas en los últimos tres meses, fueron recreadas por CNBC esta semana utilizando la herramienta Copilot, originalmente llamada Bing Image Creator. Aunque algunas indicaciones específicas han sido bloqueadas, muchos de los otros problemas potenciales sobre los que CNBC informó permanecen. El término «accidente automovilístico» devuelve charcos de sangre, cuerpos con rostros mutados y mujeres en las escenas de violencia con cámaras o bebidas, a veces con corsé o entrenador de cintura. «Automobile accident» todavía muestra imágenes de mujeres con ropa reveladora y de encaje, sentadas encima de autos destartalados. El sistema también sigue infringiendo fácilmente los derechos de autor, como al crear imágenes de personajes de Disney, incluida Elsa de «Frozen», sosteniendo la bandera palestina frente a edificios destrozados supuestamente en la Franja de Gaza, o vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y sosteniendo una ametralladora. Jones estaba tan alarmado por su experiencia que comenzó a informar internamente sus hallazgos en diciembre. Si bien la empresa reconoció sus preocupaciones, no estaba dispuesta a retirar el producto del mercado. Jones dijo que Microsoft lo refirió a OpenAI y, cuando no recibió respuesta de la compañía, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3, la última versión del modelo de IA, para una investigación. El departamento legal de Microsoft le dijo a Jones que eliminara su publicación inmediatamente, dijo, y él obedeció. En enero, escribió una carta a los senadores estadounidenses sobre el asunto y luego se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. El miércoles, Jones intensificó aún más sus preocupaciones y envió una carta a la presidenta de la FTC, Lina Khan, y otra a La junta directiva de Microsoft. Compartió las cartas con CNBC con anticipación. La FTC confirmó a CNBC que había recibido la carta, pero se negó a hacer más comentarios sobre el expediente.

Source link

Salesforce anuncia nuevas herramientas de inteligencia artificial para médicos

Sede de Salesforce en San Francisco, California, EE. UU., el miércoles 29 de noviembre de 2023.David Paul Morris | Bloomberg | Getty ImagesSalesforce anunció el jueves nuevas soluciones de datos e inteligencia artificial para trabajadores de la salud que podrían ayudar a reducir sus onerosas cargas de trabajo administrativo. La primera herramienta se llama Einstein Copilot: Health Actions y permitirá a los médicos reservar citas, resumir la información de los pacientes y enviar referencias mediante la activación de IA con lenguaje conversacional, según un comunicado. Salesforce también anunció Assessment Generation, que permitirá a las organizaciones digitalizar evaluaciones de salud como encuestas sin tener que escribirlas o codificarlas manualmente, según el comunicado. Ambas características se basan en la plataforma Einstein 1 de la compañía, que las organizaciones de salud pueden usar para obtener datos médicos de fuentes dispares como sistemas de reclamaciones de seguros y registros médicos electrónicos en un solo lugar. Las tareas administrativas que requieren mucha mano de obra, como presentar documentos, son un gran problema para los trabajadores de la salud. Es uno de los principales impulsores del agotamiento entre los médicos, según una encuesta reciente de Athenahealth. Más del 90% de los médicos afirman sentirse agotados «regularmente», según la encuesta, y el 64% de los médicos dijeron que se sienten abrumados por los requisitos administrativos. La carga de trabajo administrativo a menudo se ve agravada porque los datos de atención médica se almacenan en muchas bases de datos y formatos diferentes, lo que hace que a los médicos les resulte difícil y lento localizar la información necesaria. Como resultado, unificar datos en los sistemas de atención médica es una oportunidad cada vez mayor para empresas tecnológicas como Google, Amazon Web Services y Salesforce, que ofrecen herramientas de gestión de relaciones con los clientes basadas en la nube. Salesforce dijo que los médicos pueden usar Einstein Copilot: Health Actions para generar un resumen del paciente que incluya detalles como medicamentos de los pacientes, solicitudes de servicios clínicos, diagnósticos y pruebas. Al generar un resumen con IA, los médicos ya no necesitarían perder tiempo buscando todos esos componentes de forma independiente. Salesforce dijo que su herramienta Assessment Generation estará disponible de forma general este verano, y Einstein Copilot: Health Actions estará disponible para su uso a finales de año. También se espera que todas las características y funcionalidades de Einstein Copilot cumplan con las regulaciones HIPAA a partir de este verano, agregó la compañía. No se pierda estas historias de CNBC PRO:

Source link

Funciona con WordPress & Tema de Anders Norén