Todo lo que necesitas saber sobre tecnología

Etiqueta: Derechos de los trabajadores

Tenemos grandes planes para materiales justos para 2030

Nuestra nueva Hoja de Ruta de Materiales Feria 2030 amplía nuestra lista de materiales de enfoque de 14 a 23 materiales. Con esto, llevamos nuestro abastecimiento justo de materiales al siguiente nivel y desafiamos a la industria a dar un paso al frente para abordar algunos de los mayores desafíos que enfrentamos. Hace más de 10 años, Fairphone comenzó a demostrar que es posible crear un teléfono inteligente con materiales que no sólo estén “libres de conflictos”, sino que también beneficien a las personas que extraen estos materiales. Hemos recorrido un largo camino desde entonces: en 2017 y 2021, publicamos nuestras hojas de ruta iniciales de materiales justos, centrándonos primero en 10 y luego en 14 materiales con el mayor impacto social y ambiental. Para fines de 2023, superamos nuestro objetivo de un promedio del 70 % de materiales de enfoque justos en el Fairphone 5, creamos mejoras en las cadenas de suministro de los 14 materiales de enfoque y comenzamos a aplicar nuestro enfoque de materiales de enfoque justos a nuestros otros dispositivos como los Fairbuds XL. . Al mismo tiempo, las preguntas sobre nuestro uso de los recursos y su impacto en las personas y el planeta no han hecho más que aumentar en los últimos años. La demanda de materiales está aumentando, y también su impacto. El sector electrónico es una de las industrias más grandes y de más rápido crecimiento del mundo. Y el modelo de negocio de nuestra industria todavía depende de vender más productos más rápido y consumir cada vez más materiales. Esto se suma a la creciente demanda de minerales impulsada por la necesidad de hacer la transición a fuentes de energía renovables. La economía global ya utiliza una enorme cantidad de recursos extraídos, y actualmente solo el 8,6% de ellos se recicla. Esto dificulta la consecución de una economía circular. La oferta de materiales reciclados no puede satisfacer la creciente demanda de recursos, lo que significa que la minería se expandirá en las próximas décadas. Es probable que esto tenga consecuencias negativas para las personas y el planeta. Estamos hablando de contaminación del aire, agua y suelo, aumento de las emisiones de CO2, así como efectos adversos en la salud y los medios de vida tanto de los trabajadores como de las comunidades que viven cerca de las minas y plantas de procesamiento. Al mismo tiempo, los materiales reciclados también presentan sus propios desafíos: las tasas de reciclaje aún son bajas para muchos materiales, especialmente los de productos electrónicos al final de su vida útil. El uso de más materiales reciclados en toda la industria incentiva un mayor reciclaje, pero aún queda mucho por hacer para aumentar el conjunto de materiales reciclados disponibles. Además, las cadenas de valor del reciclaje también pueden ser opacas e informales: el 83% del tratamiento de desechos electrónicos se desconoce y el 35% se traslada a través de fronteras sin supervisión. Lo que impulsamos: Circularidad Justa Queremos una transición justa hacia una economía circular inclusiva. Lo llamamos: Circularidad Justa. Esto significa ser responsables de nuestra huella material y cuidar de las personas y el planeta durante todo el ciclo de vida del producto, en todos los niveles de circularidad. En primer lugar, nos centramos en reducir la demanda de materias primas y en cambiar el modelo de negocio de la electrónica para diseñarlo con longevidad, reparación, reutilización y reciclaje. En un segundo paso que es igualmente crucial, la atención se centra en el abastecimiento y uso responsable de materias primas y reciclados que beneficien a las comunidades vinculadas a su producción, procesamiento y fabricación; todo ello protegiendo y regenerando la naturaleza. Nos preguntamos: ¿Cómo podemos asegurarnos de que los países productores y procesadores de materias primas se beneficien? ¿Cómo pueden beneficiarse los trabajadores que extraen los minerales y las comunidades y pueblos indígenas que viven cerca, y no quedarse solo con los impactos sociales y ambientales negativos? Si avanzamos cada vez más hacia materiales reciclados, ¿cómo pueden beneficiarse también adecuadamente los países, los trabajadores y las comunidades involucrados en el reciclaje? Nuestra industria tiene la responsabilidad de pensar de manera integral sobre el uso sostenible de materiales. Nuestra nueva Hoja de Ruta de Materiales Justos proporciona un plan para abordar este desafío y nos guiará para contar de manera transparente la historia completa de nuestra huella material en los próximos años. De 14 a 23 materiales de enfoque Con nuestra nueva hoja de ruta, ampliamos la lista de nuestros materiales de enfoque de 14 a 23. Basamos esta selección en una metodología de evaluación exhaustiva y transparente: de más de 60 materiales utilizados en el sector de la electrónica, estos materiales de enfoque tienen los mayores impactos en las personas y el planeta y la mayor necesidad de mejoras. Para definir nuestras estrategias para mitigar los impactos negativos y crear impactos positivos en las cadenas de suministro de estos materiales clave, realizamos análisis adicionales, considerando: La dependencia continua de fuentes mineras que necesitan establecer mejores prácticas Las emisiones de gases de efecto invernadero de la producción de materiales primarios oportunidad de beneficiar a productores marginados, como mineros artesanales y de pequeña escala o recicladores de pequeña escala. Si existen fuentes de residuos de las cuales el material aún no se recicla comúnmente. Cómo se utiliza el material en nuestros productos, en qué componentes y en qué formas. Para cada uno de estos 23 materiales, ahora pretendemos profundizar en nuestras cadenas de suministro e involucrarnos con proveedores, trabajadores, mineros, recicladores y comunidades para determinar qué se debe hacer. En un nivel alto, ya identificamos algunos temas clave en los que Fairphone puede contribuir al liderazgo intelectual en el abastecimiento justo de materiales y brindar un ejemplo para la industria: Materiales extraídos Materiales reciclados Invertir y abastecerse de minería artesanal y de pequeña escala Garantizar la vida ingresos y salarios dignos en la minería Mejorar la voz de los trabajadores y la comunidad Protección y regeneración de la naturaleza Abastecimiento justo de materiales reciclados, con especial atención a las baterías Innovación y reciclaje de plásticos reciclados Inversión y abastecimiento a partir de un reciclaje justo a pequeña escala (recolectores de residuos) Todavía estamos muy lejos de modelos de negocio verdaderamente justos y circulares. Es por eso que nos encantaría que nuestros pares de la industria se unieran a nuestro viaje hacia una Circularidad Justa. ¿Cómo pueden hacer eso? Priorizando materiales en función de los impactos en las personas y el medio ambiente, y aplicando modelos de cadena de suministro que generen impacto. Incluyendo y apoyando a los pequeños productores más marginados, como los mineros artesanales y de pequeña escala (MAPE). Exigiendo mejores prácticas a la industria minera. Extendiendo la justicia a todos los trabajadores y comunidades, incluso en las cadenas de valor del reciclaje. Reduciendo el uso de materiales, siendo verdaderamente circulares e informando de forma exhaustiva sobre ello. La industria electrónica tiene un papel clave que desempeñar para garantizar que se reduzca la demanda de recursos valiosos y que nuestro uso de recursos sea justo y equitativo, beneficiando a los trabajadores, las comunidades indígenas, las economías locales y protegiendo la naturaleza. Hemos visto algunos avances en los últimos años, especialmente en lo que respecta al uso de materiales reciclados. Pero todavía queda MUCHO por hacer. Accede aquí a la hoja de ruta completa de la Feria de Materiales 2030

Source link

La IA podría estar leyendo tus mensajes de Slack y Teams usando tecnología de Aware

Fotos_insta | Stock | Getty Images Indique la referencia de George Orwell. Dependiendo de dónde trabaje, existe una gran posibilidad de que la inteligencia artificial esté analizando sus mensajes en Slack, Microsoft Teams, Zoom y otras aplicaciones populares. Grandes empleadores estadounidenses como Walmart, Delta Air Lines, T-Mobile , Chevron y Starbucks, así como marcas europeas como Nestlé y AstraZeneca, han recurrido a una startup de siete años, Aware, para monitorear las conversaciones entre sus bases, según la compañía. Jeff Schumann, cofundador y director ejecutivo de la startup con sede en Columbus, Ohio, dice que la IA ayuda a las empresas a «comprender el riesgo en sus comunicaciones», obteniendo una lectura del sentimiento de los empleados en tiempo real, en lugar de depender de una encuesta anual o dos veces al año. Según Schumann, con los datos del producto analítico de Aware, los clientes pueden ver cómo los empleados de un determinado grupo de edad o en una geografía particular están respondiendo a una nueva política corporativa o campaña de marketing. Las docenas de modelos de inteligencia artificial de Aware, creados para leer texto y procesar imágenes, también pueden identificar intimidación, acoso, discriminación, incumplimiento, pornografía, desnudez y otros comportamientos, dijo. La herramienta de análisis de Aware, la que monitorea el sentimiento y la toxicidad de los empleados, no Según Schumann, no tenemos la posibilidad de marcar los nombres de los empleados individuales. Pero su herramienta eDiscovery separada puede hacerlo, en caso de amenazas extremas u otros comportamientos de riesgo predeterminados por el cliente, agregó. CNBC no recibió una respuesta de Walmart, T-Mobile, Chevron, Starbucks o Nestlé con respecto a su uso de Consciente. Un representante de AstraZeneca dijo que la compañía utiliza el producto eDiscovery pero no utiliza análisis para monitorear el sentimiento o la toxicidad. Delta le dijo a CNBC que utiliza los análisis y eDiscovery de Aware para monitorear tendencias y sentimientos como una forma de recopilar comentarios de los empleados y otras partes interesadas, y para la retención de registros legales en su plataforma de redes sociales. No hace falta ser un entusiasta de las novelas distópicas para ver dónde todo podría salir muy mal. Jutta Williams, cofundadora de Humane Intelligence, una organización sin fines de lucro dedicada a la responsabilidad de la IA, dijo que la IA añade un aspecto nuevo y potencialmente problemático a los llamados programas de riesgo interno, que han existido durante años para evaluar cosas como el espionaje corporativo, especialmente dentro de las comunicaciones por correo electrónico. Hablando en términos generales sobre la inteligencia artificial de vigilancia de los empleados en lugar de la tecnología de Aware específicamente, Williams dijo a CNBC: «Mucho de esto se convierte en un crimen de pensamiento». Y añadió: «Esto es tratar a las personas como si fueran inventario de una manera que nunca había visto». La IA de vigilancia de los empleados es una pieza de rápido crecimiento pero de nicho de un mercado de IA más grande que se disparó el año pasado, tras el lanzamiento del chatbot ChatGPT de OpenAI en finales de 2022. La IA generativa se convirtió rápidamente en la frase de moda en las llamadas sobre ganancias corporativas, y alguna forma de tecnología está automatizando tareas en casi todas las industrias, desde servicios financieros e investigación biomédica hasta logística, viajes en línea y servicios públicos. Los ingresos de Aware han aumentado un 150% por año en promedio durante los últimos cinco años, dijo Schumann a CNBC, y su cliente típico tiene alrededor de 30.000 empleados. Los principales competidores incluyen Qualtrics, Relativity, Proofpoint, Smarsh y Netskope. Según los estándares de la industria, Aware se mantiene bastante eficiente. La compañía recaudó dinero por última vez en 2021, cuando recaudó 60 millones de dólares en una ronda liderada por Goldman Sachs Asset Management. Compárese eso con grandes empresas de modelos de lenguaje, o LLM, como OpenAI y Anthropic, que han recaudado miles de millones de dólares cada una, en gran parte de socios estratégicos. ‘Seguimiento de la toxicidad en tiempo real’ Schumann fundó la empresa en 2017 después de pasar casi ocho años trabajando en Colaboración empresarial en la compañía de seguros Nationwide. Antes de eso, fue empresario. Y Aware no es la primera empresa que fundó y que le hace pensar en Orwell. En 2005, Schumann fundó una empresa llamada BigBrotherLite.com. Según su perfil de LinkedIn, la empresa desarrolló un software que «mejoró la experiencia de visualización digital y móvil» de la serie de telerrealidad «Gran Hermano» de CBS. En la novela clásica de Orwell «1984», Gran Hermano era el líder de un estado totalitario en el que los ciudadanos estaban bajo vigilancia perpetua. «Construí un reproductor simple enfocado en una experiencia de consumo más limpia y fácil para que la gente vea el programa de televisión en su computadora, «, dijo Schumann en un correo electrónico. En Aware, está haciendo algo muy diferente. Cada año, la compañía publica un informe que agrega información sobre los miles de millones (en 2023, la cantidad fue de 6,5 mil millones) de mensajes enviados entre grandes empresas, tabulando el riesgo percibido. factores y puntuaciones de sentimiento en el lugar de trabajo. Schumann se refiere a los billones de mensajes enviados a través de plataformas de comunicación en el lugar de trabajo cada año como «el conjunto de datos no estructurados de más rápido crecimiento en el mundo». Al incluir otros tipos de contenido que se comparten, como imágenes y videos, la IA analítica de Aware analiza más de 100 millones de contenidos cada día. Al hacerlo, la tecnología crea un gráfico social de la empresa, observando qué equipos internamente hablan entre sí más que otros. «Siempre rastrea el sentimiento de los empleados en tiempo real y siempre rastrea la toxicidad en tiempo real», dijo Schumann sobre el análisis. herramienta. «Si usted fuera un banco que utiliza Aware y el sentimiento de la fuerza laboral se disparó en los últimos 20 minutos, es porque están hablando de algo positivo, colectivamente. La tecnología podría decirles lo que sea», confirmó Aware a CNBC. que utiliza datos de sus clientes empresariales para entrenar sus modelos de aprendizaje automático. El repositorio de datos de la compañía contiene alrededor de 6,5 mil millones de mensajes, lo que representa alrededor de 20 mil millones de interacciones individuales entre más de 3 millones de empleados únicos, dijo la compañía. Cuando un nuevo cliente se registra en la herramienta de análisis, los modelos de IA de Aware tardan unas dos semanas en entrenarse con los mensajes de los empleados y conocer los patrones de emoción y sentimiento dentro de la empresa para poder ver qué es normal y qué es anormal, dijo Schumann». No tendrá nombres de personas, para proteger la privacidad», dijo Schumann. Más bien, dijo, los clientes verán que «tal vez la fuerza laboral mayor de 40 años en esta parte de Estados Unidos esté viendo los cambios en [a] política muy negativamente debido al costo, pero todos los demás fuera de ese grupo de edad y ubicación lo ven de manera positiva porque los impacta de una manera diferente». Pero la herramienta eDiscovery de Aware funciona de manera diferente. Una empresa puede configurar el acceso basado en roles a los nombres de los empleados dependiendo de la categoría de «riesgo extremo» elegida por la empresa, que indica a la tecnología de Aware que extraiga el nombre de un individuo, en ciertos casos, para recursos humanos u otro representante de la empresa. «Algunos de los más comunes son violencia extrema, intimidación extrema, acoso, pero varía según la industria», dijo Schumann, y agregó que en los servicios financieros, se rastrearía la sospecha de uso de información privilegiada. Por ejemplo, un cliente puede especificar una política de «amenazas violentas», o cualquier otra categoría, utilizando la tecnología de Aware, dijo Schumann. y hacer que los modelos de IA monitoreen las infracciones en Slack, Microsoft Teams y Workplace by Meta. El cliente también podría combinar eso con indicadores basados ​​en reglas para ciertas frases, declaraciones y más. Si la IA encuentra algo que viola las políticas específicas de una empresa, podría proporcionar el nombre del empleado al representante designado del cliente. Este tipo de práctica se ha utilizado durante años en las comunicaciones por correo electrónico. Lo nuevo es el uso de la IA y su aplicación en plataformas de mensajería en el lugar de trabajo como Slack y Teams. Amba Kak, directora ejecutiva del AI Now Institute de la Universidad de Nueva York, se preocupa por el uso de la IA para ayudar a determinar qué se considera comportamiento de riesgo. «Tiene un efecto paralizador sobre lo que la gente dice en el lugar de trabajo», dijo Kak, añadiendo que la Comisión Federal de Comercio, el Departamento de Justicia y la Comisión de Igualdad de Oportunidades en el Empleo han expresado preocupaciones sobre el asunto, aunque no estaba hablando específicamente de la tecnología de Aware. «Se trata tanto de cuestiones de derechos de los trabajadores como de privacidad». Schumann dijo que aunque la herramienta eDiscovery de Aware permite a los equipos de investigaciones de seguridad o de recursos humanos utilizar IA para buscar en cantidades masivas de datos, hoy en día ya existe una «capacidad similar pero básica» en Slack, Teams y otras plataformas. «Una distinción clave aquí es que Aware y sus modelos de IA no toman decisiones», afirmó Schumann. «Nuestra IA simplemente hace que sea más fácil examinar este nuevo conjunto de datos para identificar riesgos potenciales o violaciones de políticas». Preocupaciones por la privacidad Incluso si los datos se agregan o se anonimizan, sugiere la investigación, es un concepto erróneo. Un estudio histórico sobre privacidad de datos que utilizó datos del censo estadounidense de 1990 mostró que el 87% de los estadounidenses podían identificarse únicamente mediante el código postal, la fecha de nacimiento y el sexo. Los clientes de Aware que utilizan su herramienta de análisis tienen el poder de agregar metadatos al seguimiento de mensajes, como la edad, ubicación, división, antigüedad o función laboral del empleado. «Lo que están diciendo se basa en una noción muy obsoleta y, yo diría, completamente desacreditada en este momento de que la anonimización o la agregación es como una panacea para resolver la preocupación por la privacidad», dijo Kak. Además, el tipo de modelo de IA Aware Los usos pueden ser efectivos para generar inferencias a partir de datos agregados, haciendo conjeturas precisas, por ejemplo, sobre identificadores personales basados ​​en el idioma, el contexto, los términos de jerga y más, según una investigación reciente. «Ninguna empresa está esencialmente en condiciones de hacer garantías amplias sobre la privacidad y seguridad de los LLM y este tipo de sistemas», dijo Kak. «No hay nadie que pueda decirte con seriedad que estos desafíos están resueltos». ¿Y qué pasa con los recursos de los empleados? Si se marca una interacción y un trabajador es disciplinado o despedido, es difícil para él ofrecer una defensa si no está al tanto de todos los datos involucrados, dijo Williams. «¿Cómo enfrenta a su acusador cuando sabemos que la explicabilidad de la IA ¿Todavía es inmaduro?» «Cuando el modelo señala una interacción», dijo Schumann, «proporciona un contexto completo sobre lo que sucedió y qué política desencadenó, brindando equipos de investigación la información que necesitan para decidir los próximos pasos de acuerdo con las políticas de la empresa y la ley.»MIRAR: La IA está ‘realmente en juego aquí’ con los recientes despidos tecnológicos

Source link

Funciona con WordPress & Tema de Anders Norén