Todo lo que necesitas saber sobre tecnología

Categoría: Computadoras Página 4 de 288

El jefe de TI de la oficina de correos no expresó su preocupación por las declaraciones falsas de Horizon

Una ex jefa de TI de la oficina de correos tuvo la oportunidad de evitar que engañara al público sobre errores de software, pero aceptó declaraciones públicas falsas que estaban en conflicto con su opinión profesional. Durante la última audiencia de investigación pública sobre el escándalo de Post Office Horizon, la ex directora de información (CIO) de Post Office, Lesley Sewell, reveló que también se sintió como si la gerencia la hubiera empujado al exterior desde finales de 2014, antes de irse en 2015 después de un período de cinco años. Aunque la Oficina de Correos tenía conocimiento de errores de software desde 2006, cada vez que se cuestionaba la confiabilidad del sistema Horizon, repetía una declaración pública de que Horizon no tenía errores. El comunicado decía: “Horizon es un sistema extremadamente sólido que opera en toda nuestra red de oficinas postales y registra con éxito millones de transacciones cada día. No hay evidencia que apunte a algún fallo en la tecnología. Siempre investigamos e investigamos cualquier problema planteado por los subdirectores de correos”. Esta fue la respuesta habitual de la organización hasta mayo de 2013, en vísperas de la publicación de un informe independiente del contable forense Second Sight, que revelaba errores en el software Horizon. Sewell, quien se unió a la Oficina de Correos en 2010 y fue CIO de 2012 a 2015, estuvo de acuerdo con la abogada investigadora Emma Price en que las personas dentro de la organización conocían los errores ya en 2006, y que ella sabía de un error ya en 2011. preguntado por Price: «¿Cómo puede ser, entonces, que la posición pública de la Oficina de Correos hasta mayo de 2013 fuera que no hay errores en Horizon?» Sewell respondió: «No sé la respuesta a eso porque desde mi perspectiva como profesional de TI, nunca diría que no hay errores en ningún sistema, porque hay fallas en los sistemas informáticos y es importante cómo lidiar con ellas». .” Declaración pública modificada Durante la audiencia de investigación, un correo electrónico enviado por el secretario de la Oficina de Correos, Alwen Lyons, en mayo de 2013, a altos ejecutivos, incluida la directora ejecutiva Paula Vennells, la asesora general Susan Crichton y el director de comunicaciones Mark Davies, reveló que la Oficina de Correos había cambiado repentinamente su declaración pública. El correo electrónico describía el paso de la Oficina Postal de una declaración que decía «no hay errores en Horizon» a otra que decía «hay errores conocidos en todos los sistemas informáticos de este tamaño y… se encuentran y se corrigen, y no el subpostmaster está en desventaja por ellos”. Sewell dijo: «Cuando leí este correo electrónico no pude entenderlo». Dijo que tampoco estaba de acuerdo con la estrategia de la Oficina de Correos de referirse a los errores de software como “excepciones” o “anomalías” en los informes sobre el sistema Horizon, pero la aceptó porque era una dirección. “Simplemente pensé que era una locura”, dijo Sewell. «Realmente no entendí la preocupación de usar la palabra ‘error’ o ‘fallo’ porque eso es lo que eran». Minimizar la gravedad de los errores Ella estuvo de acuerdo en que parece que la gerencia quería minimizar la gravedad de los errores mediante el uso del lenguaje. «Eran fallas y no las clasificaría como anomalías, pero cambió la forma en que teníamos que comunicarnos sobre los errores», dijo Sewell. Durante la audiencia, se supo que se sentía fuera de la organización hacia el final de su tiempo allí, y lloró cuando se le preguntó sobre un período que describió como “muy difícil” para ella. Sewell lloró en varias ocasiones durante la audiencia de investigación y dijo: «Me siento muy mal por los subdirectores de correos». En su declaración testimonial en la investigación pública, escribió que bloqueó a Vennells después de que el ex director ejecutivo la contactara varias veces en 2021 para solicitar información. «Paula me contactó en cuatro ocasiones en total», dijo Sewell. “Recuerdo que bloqueé su número después de la última llamada porque no me sentía cómodo con que ella se comunicara conmigo. No tenía acceso a los documentos de la POL y confiaba únicamente en mi memoria”. Sewell se incorporó a la Oficina de Correos en abril de 2010 procedente de Northern Rock, donde había sido directora general de TI desde 2005. A su llegada, dijo que el equipo de TI de la Oficina de Correos era muy pequeño y dependía de la TI de Royal Mail Group; no existía un registro de riesgos informáticos; y había preocupación, en el equipo legal, por el contrato de Horizon con Fujitsu, que no había sido licitado. El escándalo de Post Office Horizon fue expuesto por primera vez por Computer Weekly en 2009, revelando las historias de siete subdirectores de correo y los problemas que sufrieron debido al software de contabilidad (consulte a continuación la cronología de los artículos de Computer Weekly sobre el escándalo, desde 2009). • Lea también: Lo que necesita saber sobre el escándalo de Horizon • • Mire también: El documental de ITV – Mr Bates vs The Post Office: La verdadera historia •

Diseño y desarrollo de API con TypeSpec

Hace algún tiempo escribí sobre el trabajo que estaba haciendo Microsoft para mejorar las API de Azure. Ese proyecto entregó un conjunto de definiciones de API y SDK generados automáticamente, lo que facilitó la vinculación de sus aplicaciones a la nube y la administración de servicios de Azure mediante código. Detrás de escena había un nuevo lenguaje desarrollado por Microsoft llamado CADL, el lenguaje de diseño de API conciso. Basándose en conceptos de TypeScript y Bicep, CADL le permitió definir y describir las API de una manera que facilitó el uso del código para definir las operaciones de la API y luego compilar el resultado como una definición de OpenAPI. También le permite definir barreras de seguridad y estándares de definición comunes como bibliotecas, lo que ayuda a arquitectos y desarrolladores a colaborar en diseños de API. CADL fue un paso adelante en el diseño de API, capaz de producir una definición OpenAPI de 500 líneas en solo 50 líneas de código. Herramientas como CADL son clave para soportar plataformas masivas como Azure, que recompilan sus API varias veces al día. Necesitan API coherentes que los usuarios y los servicios puedan consumir. Las API modernas son una dependencia clave para las aplicaciones cliente, las herramientas de desarrollo y mucho más. Garantizar que las definiciones públicas de OpenAPI sean correctas es clave para brindar el soporte necesario, además de permitir que el servicio de host utilice pruebas y generación de documentación automatizadas. Ese último requisito, la documentación, es de suma importancia para los desarrolladores. Es posible que no tenga el tiempo necesario para escribir documentación, por lo que tener herramientas que puedan producir documentación utilizable al mismo tiempo que entregan un conjunto de puntos finales legibles por máquina puede ahorrar mucho tiempo a todos los involucrados. De CADL a TypeSpec En el año transcurrido aproximadamente La última vez que escribí sobre CADL, sucedieron muchas cosas. El cambio más obvio es el nuevo nombre, TypeSpec, que denota su herencia en lenguajes fuertemente tipados y su papel en la generación y mantenimiento de especificaciones API. Microsoft describe TypeSpec como más que un lenguaje; en lugar de eso, lo llama «una plataforma», ya que combina el lenguaje y las herramientas necesarias para convertir tipos de datos comunes, patrones de API y pautas de API en componentes reutilizables. TypeSpec se usa ampliamente dentro de Microsoft y tiene se extendió desde su hogar original en el equipo de Azure SDK al equipo de Microsoft Graph, entre otros. Tener dos de los equipos de API más grandes e importantes de Microsoft usando TypeSpec es una buena señal para el resto de nosotros, ya que muestra confianza en el conjunto de herramientas y garantiza que el proyecto de código abierto subyacente tenga una comunidad de desarrollo activa. Ciertamente, el proyecto de código abierto, alojado en GitHub, está muy activo. Recientemente lanzó TypeSpec 0.56 y recibió más de 2000 confirmaciones. La mayor parte del código está escrito en TypeScript y compilado en JavaScript para que se ejecute en la mayoría de los sistemas de desarrollo. TypeSpec es multiplataforma y se ejecutará en cualquier lugar donde se ejecute Node.js. La instalación se realiza a través de npm. Si bien puede usar el editor de cualquier programador para escribir código TypeSpec, el equipo recomienda usar Visual Studio Code, ya que una extensión TypeSpec para VS Code proporciona un servidor de lenguaje y soporte para variables de entorno comunes. Esto se comporta como la mayoría de las extensiones de lenguaje VS Code, brindándole herramientas de diagnóstico, resaltados de sintaxis y finalización de código IntelliSense. Los proyectos de mayor escala pueden aprovechar una extensión similar para Visual Studio. El lenguaje TypeSpec subyacente es extensible, por lo que se pueden agregar rápidamente nuevos tipos de API, así como soporte para lenguajes de serialización de datos. Las extensiones se empaquetan como archivos npm, por lo que se pueden distribuir y compartir utilizando herramientas y plataformas familiares. El sitio web TypeSpec incluye un área de juegos útil que le permite experimentar con una selección de diferentes definiciones de API. Puede ver rápidamente cómo el código de muestra se compila en una definición de API, con ejemplos que incluyen REST, HTTP, búferes de protocolo y esquema JSON. La disponibilidad de definiciones alternativas puede ayudar a migrar de un tipo de API a otro. Es bueno ver compatibilidad con buffers de protocolo en TypeSpec, ya que se utilizan para definir llamadas gRPC, que son cada vez más importantes para ofrecer API de microservicios de alto rendimiento. Este soporte también debería ayudar con el desarrollo entre nubes, ya que los buffers de protocolo se utilizan para muchos servicios de Google Cloud Platform. Comenzar con TypeSpec La instalación es sencilla y, una vez que se haya descargado la CLI de TypeSpec, tsp, puede comenzar a crear su primera API. definición. La herramienta utiliza un proceso interactivo para elegir una plantilla de API y un conjunto apropiado de bibliotecas para la definición de API a la que se dirige, por ejemplo openapi3 para la versión actual de OpenAPI. El siguiente paso es instalar las dependencias. Entonces estará listo para comenzar a editar el código TypeSpec, trabajando en el archivo main.tsp. Hay mucha buena información en el creciente sitio de documentación, aunque se centra en trabajar con descripciones HTTP u OpenAPI. Sin embargo, estos son enfoques suficientemente genéricos para definir API que debería poder utilizarlos como guías para otros formatos de API y SDK. Puede tener una buena idea de cómo trabajar con TypeSpec al crear una API REST básica y entregarla como una Descripción de OpenAPI. Trabajar con código TypeSpec le resultará muy familiar, ya que la sintaxis básica le debe mucho a lenguajes como C# y TypeScript. Para su primera definición de API, comience importando las bibliotecas para HTTP y REST, antes de definir su servicio. La mayoría de las construcciones en TypeSpec se basan en decoradores, descriptores específicos para elementos de una especificación de API. Eso requiere comenzar en un nivel alto y agregar detalles a medida que completa su API. Es un enfoque que funciona bien: comienza con las cosas que sabe, como nombres de servicios y URL de puntos finales, usando parámetros para agregar soporte para API que están diseñadas para funcionar en más de una región. Los espacios de nombres reúnen elementos relacionados como nombres de aplicaciones, rutas utilizadas para acceder a recursos específicos y el modelo de datos subyacente. Una vez que tenga estos detalles, puede comenzar a agregar operaciones HTTP a sus rutas y cualquier llamada específica que deba realizarse. Otras opciones le permiten agregar parámetros a una descripción, lo que le permite definir estructuras API más complejas. Este enfoque significa que puede utilizar las mismas técnicas para GraphQL y otros servicios basados ​​en HTTP; no está limitado a las API REST. Una vez que haya escrito la descripción de su API, es hora de entregarla en el formato elegido. Para una API REST, puede utilizar el emisor OpenAPI versión 3 y llamarlo cuando ejecuta el compilador TypeSpec. Alternativamente, su descripción se puede agregar al archivo de configuración de su proyecto actual, donde se llamará automáticamente cuando se ejecute el compilador. Los emisores son una pieza clave de TypeSpec, ya que asignan su código a la descripción de API. Microsoft proporciona un marco de emisor que puede utilizar para acelerar el desarrollo de sus propios emisores. Aun así, la creación de emisores sigue siendo una de las partes más complejas del proceso. Tenga en cuenta que Microsoft proporciona documentación separada para usar TypeSpec con Azure, ya que tiene un conjunto público de bibliotecas que codifican los estándares API de Azure. Esto está dirigido principalmente a los usuarios internos de Microsoft, ya que sugiere que el uso de TypeSpec ayudará a aprobar las revisiones del código. Lo que quizás sea más útil aquí es un conjunto de bibliotecas que codifican los estándares de Azure, que pueden usarse para ayudarlo a explorar las mejores prácticas de TypeSpec para las definiciones de OpenAPI. Herramientas como TypeSpec son una pieza cada vez más importante de la cadena de herramientas de desarrollo moderna. Las arquitecturas orientadas a servicios necesitan API bien diseñadas y documentadas, que deben definirse antes de comenzar a escribir el código en ambos lados de la API. Por lo tanto, es bueno ver que una herramienta que se desarrolló originalmente para facilitar la vida de los ingenieros de Microsoft obtenga un lanzamiento más amplio. Será interesante ver cómo evoluciona una comunidad TypeSpec más amplia y qué otras bibliotecas y emisores creará la comunidad. Copyright © 2024 IDG Communications, Inc.

Embee Software transforma la información empresarial con análisis en Azure para una empresa de fabricación de renombre

Nuestro cliente es el principal exportador, fabricante y proveedor del mayor rendimiento de productos alimenticios procesados ​​y productos agrícolas de marca. Sus rigurosos esfuerzos para brindar servicios de calidad les han valido la reputación de casa comercial de 5 estrellas por parte del estimado Gobierno de la India. Aprovechar las capacidades de Embee para aprovechar la visión de lograr la excelencia a través de la innovación, el enfoque, la agilidad, la orientación a resultados y sistemas sólidos. Como uno de los mayores exportadores de productos alimenticios procesados ​​y productos agrícolas de la India, surgió la necesidad de un sistema de informes avanzado, eficiente y preciso. fundamental para mantener su posición de liderazgo. Al enfrentar los desafíos con sus sistemas locales Oracle EBS y OTM existentes, nuestro cliente buscó una solución transformadora para revisar sus procesos de informes manuales, la falta de análisis de datos y la única fuente de verdad para sus datos. La exportación de productos alimenticios implica un proceso detallado y multifacético que comienza con la obtención de materias primas y abarca la producción, el procesamiento y el envasado, seguido del almacenamiento y, en última instancia, la distribución. Aunque la experiencia en distribución y cadena de suministro fue buena, vieron una oportunidad para mejorarla. Las expectativas de nuestros clientes estaban cambiando y la empresa quería que el proceso de pedido B2B se pareciera más a una experiencia de compra B2C moderna. Además, los disruptores del mercado y los nuevos competidores presionaban a la empresa para que innovara. Embee Software tiene un enfoque bien definido en Microsoft Azure directamente desde IaaS, PaaS y SaaS. A lo largo de los años, las ofertas de soluciones de Embee Software en la nube solo han experimentado un crecimiento constante. Contamos con una división de análisis de datos dedicada que trabaja en varios componentes de Azure Data Platform. Embee ofrece soluciones integrales de análisis de datos que incluyen almacenamiento de datos, modelado de datos, visualizaciones de datos y análisis avanzados. La pila de tecnología utilizada en las soluciones es Microsoft, principalmente Microsoft Azure. Nuestras soluciones en Azure incluyen el uso de Azure Synapse, Azure Databricks, Azure Data Lake Storage, Azure Analysis Service, etc. Power BI se ha utilizado como capa de visualización en soluciones de BI empresarial. Desafíos operativos y estratégicos que surgen de los sistemas de informes manuales para nuestro cliente Nuestro cliente comercializa 1 millón de toneladas métricas de productos básicos, incluidos café, especias, legumbres, cereales y carnes y frutas congeladas cada año en 85 países. Estaban sobrecargados con un sistema de informes manual que dependía en gran medida de hojas de cálculo, lo que generó importantes silos de interpretación de datos, limitaciones en los informes de datos históricos y una dependencia excesiva del equipo interno de TI. Esto no solo obstaculizó la eficiencia operativa sino que también oscureció la visión estratégica de la empresa debido a: Falta de un sistema de informes en línea para obtener información empresarial en tiempo real Ausencia de un sistema de informes totalmente automatizado, lo que genera ineficiencias y errores Análisis de datos inadecuado y una única fuente de verdad , lo que da lugar a interpretaciones variadas de los datos Capacidades de generación de informes restringidas debido a las limitaciones de los datos de las hojas de cálculo Gran dependencia de la disponibilidad del equipo interno de TI para la gestión de datos y la generación de informes Infraestructura heredada de Oracle EBS y OTM locales que los hizo retroceder Capacitando a nuestro cliente con tecnología de vanguardia Análisis: la solución de Embee Software para el éxito basado en conocimientos Embee Software, aprovechando su experiencia en tecnologías de vanguardia, diseñó una solución integral que utiliza Microsoft Azure Synapse Analytics y Azure Data Lake para un almacenamiento de datos sólido y capacidades de Lake. Los modelos analíticos se desarrollaron en Azure Analysis Service, lo que proporciona una base sólida para el análisis de datos y la información. Power BI se integró como la capa central de informes y análisis, ofreciendo capacidades avanzadas de visualización de datos e informes a todos los usuarios y partes interesadas. El enfoque de Embee para evaluar, implementar, integrar y gestionar la solución de análisis de datos para nuestro cliente Embee se embarcó en una asociación estratégica con nuestro cliente para revisar su marco de análisis de datos. El proyecto comenzó con una evaluación detallada de los procesos de gestión de datos existentes de los clientes para identificar brechas y delinear una hoja de ruta integral destinada a eliminar los silos departamentales y alinear las prácticas de datos con los objetivos estratégicos de la empresa. Para abordar estos desafíos, Embee propuso la creación de una solución integrada de almacén y lago de datos, aprovechando Microsoft Azure Synapse Analytics y Azure Data Lake. Esta infraestructura fue diseñada con un enfoque en la arquitectura lógica, que abarca principios de diseño probados, modelos de datos integrales y métricas procesables para facilitar la toma de decisiones informada. Un elemento clave de la solución de Embee fue la implementación de un diseño fácil de usar que acentuaba los indicadores críticos de desempeño, permitiendo a los equipos de los clientes planificar, monitorear, analizar y gestionar de manera efectiva el desempeño comercial. Este enfoque incluyó la integración de fuentes de datos dispares en una base de datos centralizada, asegurando un depósito de datos unificado y preciso para todas las partes interesadas. Componentes con los que contó el equipo de Soluciones de Embee: Azure Synapse Analytics es un sistema distribuido para almacenar y analizar grandes conjuntos de datos. Su uso de procesamiento paralelo masivo (MPP) lo hace adecuado para ejecutar análisis de alto rendimiento. Azure Synapse Analytics usa PolyBase para cargar rápidamente datos desde Data Lake Storage. Azure Synapse Pipeline organiza la transformación de datos preparados en una estructura común en Azure Synapse Analytics. Pipeline usa PolyBase al cargar datos en Azure Synapse Analytics para maximizar el rendimiento. Azure Data Lake Storage se usa para preparar los datos de origen antes de cargarlos en Azure Synapse Analytics. Azure Analysis Services proporciona un modelo semántico para sus datos. También puede aumentar el rendimiento del sistema al analizar sus datos. Power BI es un conjunto de herramientas de análisis empresarial para analizar datos y compartir información. Azure Active Directory (Azure AD) autentica a los usuarios que se conectan al servidor de Analysis Services a través de Power BI. A continuación se ofrece una vista rápida de la implementación de la solución antes y después: Aspecto Antes de la implementación Después de la implementación Sistema de informes Manual, muy dependiente de Excel Automatizado, casi en tiempo real con Power BI Administración de datos Consumo de tiempo, propenso a errores Optimizado, eficiente y automatizado Basado en la toma de decisiones basado en datos históricos limitados Información casi en tiempo real, decisiones informadas Eficiencia operativa Baja debido a procesos manuales Alta, debido a la automatización El modelo de Capex de costo y los esfuerzos adicionales necesarios para mantener la solución local dieron como resultado costos más altos El modelo de consumo de nube de Azure rentable resultó en menores costos y mantenimiento Escalabilidad Limitada por los sistemas existentes Mejorada, lista para el crecimiento futuro La implementación de la solución basada en Azure por parte de Embee Software revolucionó el enfoque de los clientes para la gestión de datos y la generación de informes: Eficiencia operativa mejorada: los informes automatizados eliminaron los procesos manuales, lo que redujo significativamente el tiempo y recursos gastados en la gestión de datos. Información empresarial precisa: el acceso a datos en tiempo real y análisis avanzados permitieron una toma de decisiones informada, mejorando los resultados estratégicos. Mayor productividad: el proceso simplificado permitió a las partes interesadas centrarse en las actividades principales, mejorando la productividad en todos los departamentos. Reducción de costos: Minimizar la dependencia del equipo interno de TI y reducir los errores manuales generó ahorros de costos considerables. Escalabilidad: la solución Azure proporcionó escalabilidad, lo que garantizó que nuestro cliente pudiera adaptarse al crecimiento y los requisitos de datos futuros. Capacitación de usuarios y camino a seguir Si bien la creación de una solución es un aspecto, su adopción es igualmente importante. Debido a la aplicación interna de soluciones que utilizan análisis de datos, Embee Software está bien versado en impulsar la adopción de soluciones. Esto, a su vez, ayuda a llevar al usuario a nuevos niveles. También hemos creado soluciones específicas para diversas industrias, como atención médica, manufactura, venta minorista, logística y alimentos y bebidas. Aproveche el poder del análisis de datos con Embee Embee ofrece soluciones de análisis de datos de vanguardia para acelerar el tiempo de realización de la solución en términos de las características y beneficios de la solución. Con estos aceleradores, Embee Software llega a sus clientes y muestra el poder del análisis de datos.

Las 10 principales tendencias de computación en la nube en 2024

Las organizaciones de todos los ámbitos están realizando una rápida transición hacia soluciones en la nube, aprovechando una gran cantidad de ventajas. Desde amplias capacidades de almacenamiento hasta sólidas copias de seguridad y recuperación de datos, mayores medidas de seguridad de datos y acceso a una gama ilimitada de servicios y soluciones de software, la nube presenta un conjunto incomparable de beneficios. Además, el panorama actual está siendo testigo de un aumento de las tendencias de vanguardia en computación en la nube, lo que enriquece aún más la experiencia del usuario y del negocio. Una multitud de proveedores de servicios en la nube se están alineando diligentemente con estas tendencias, mejorando continuamente las interfaces de usuario y las funcionalidades. Este enfoque proactivo no sólo mejora la toma de decisiones organizacionales sino que también fomenta un entorno dinámico que conduce a la innovación y el crecimiento. A continuación se mencionan las 10 principales tendencias de la computación en la nube. AI y ML Seguridad de datos Implementación de nubes múltiples e híbridas Soluciones de nube Low Code y No Code Computación perimetral IoT Kubernetes y Docker Arquitectura/computación sin servidor DevSecOps Recuperación y copia de seguridad ante desastres 1. AI y ML: Soporte de inteligencia artificial (AI) y aprendizaje automático (ML) como tecnologías líderes estrechamente entrelazadas con la computación en la nube. Estas innovaciones, si bien exigen una gran potencia computacional y almacenamiento para la recopilación de datos y la capacitación, ofrecen soluciones rentables. Las tendencias previstas en este ámbito incluyen la autoautomatización, los servicios personalizados en la nube y una mayor seguridad y privacidad de los datos. Los principales actores como Amazon, Google e IBM están invirtiendo fuertemente en IA y ML, como lo demuestran productos como la cámara AWS DeepLens de Amazon y Google Lens, ambos aprovechando las capacidades de aprendizaje automático. 2. Seguridad de los datos La seguridad de los datos sigue siendo primordial para las empresas y organizaciones, con un enfoque de tolerancia cero hacia los compromisos. Para mitigar riesgos como violaciones de datos, filtraciones y alteraciones no autorizadas, es imprescindible tomar medidas proactivas. El cifrado, la autenticación y los protocolos de seguridad sólidos constituyen la base para salvaguardar la integridad de los datos. Además, la implementación de copias de seguridad, pruebas de seguridad exhaustivas y el cumplimiento de estrictas políticas de privacidad refuerzan la resiliencia frente a posibles amenazas. 3. Implementación de nubes múltiples e híbridas La adopción de soluciones híbridas y de múltiples nubes está en aumento, particularmente en industrias como la banca y los seguros. Los modelos de nube híbrida, que combinan servicios de nube pública y privada, ofrecen mayor flexibilidad y optimización de recursos. Al distribuir cargas de trabajo entre múltiples proveedores de nube, las empresas mitigan los riesgos, optimizan los costos y aprovechan los servicios especializados adaptados a sus necesidades. Este enfoque también incentiva la innovación entre los proveedores de la nube, estimulando el desarrollo de nuevos servicios. 4. Soluciones en la nube con código bajo y sin código La era de una amplia experiencia en codificación como requisito previo para el desarrollo de aplicaciones se está desvaneciendo, gracias a las soluciones en la nube con y sin código. Estas plataformas fáciles de usar permiten a las empresas crear diversas aplicaciones y aprovechar las capacidades de IA sin conocimientos técnicos intensivos. Al agilizar el proceso de desarrollo, estas soluciones reducen el tiempo de comercialización, minimizan los errores y democratizan el acceso a la innovación tecnológica. Herramientas notables como Figma y Zoho permiten a los usuarios diseñar e implementar aplicaciones sin esfuerzo, sin la necesidad de una infraestructura de codificación extensa. 5. Computación en el borde La computación en el borde revoluciona el procesamiento de datos al acercar las capacidades computacionales a las fuentes de datos, lo que resulta en una latencia reducida y una mayor eficiencia. A medida que se acelera la proliferación de las redes 5G, la informática de punta gana impulso, ofreciendo capacidades de procesamiento de datos en tiempo real y medidas reforzadas de seguridad y privacidad. Con el floreciente panorama de Internet de las cosas (IoT), la informática de punta emerge como un eje para permitir el análisis de datos en tiempo real y una conectividad perfecta. 6. IoT El Internet de las Cosas (IoT) es una tendencia que se está popularizando día a día. IoT implica el uso de muchos sensores que generan enormes cantidades de datos que se almacenan en servidores en la nube. IoT utiliza muchos sensores y actuadores y realiza análisis de los datos recopilados para obtener resultados que ayudarán a tomar decisiones comerciales. Implica conectividad entre computadoras, redes y servidores. Puede recopilar datos de forma remota y comunicarse con dispositivos. IoT recopila datos de varios sensores y dispositivos y actúa como intermediario entre los sistemas remotos y la gestión de dispositivos inteligentes. La conectividad inteligente juega un papel importante a la hora de hacer de IoT una tendencia en la computación en la nube. 7. Kubernetes y Docker Kubernetes y Docker representan tecnologías fundamentales en el ámbito de la computación en la nube y ofrecen una orquestación e implementación de aplicaciones escalables y eficientes. Estas plataformas de código abierto permiten a las organizaciones gestionar cargas de trabajo sin problemas en diversos entornos de nube, optimizando la utilización de recursos y mejorando la escalabilidad. A medida que aumenta la adopción de la computación en la nube, Kubernetes y Docker desempeñan un papel fundamental a la hora de optimizar las implementaciones en la nube y fomentar la innovación. 8. Arquitectura/computación sin servidor La computación sin servidor revoluciona los servicios backend al eliminar la necesidad de administración de servidores, mejorando así la escalabilidad y reduciendo los costos de infraestructura. Al adoptar un modelo de pago por uso, las empresas solo incurren en cargos cuando se ejecuta su código, aliviando la carga de los costos fijos del servidor. Este cambio de paradigma permite un escalamiento fluido en función de la demanda, al tiempo que garantiza mejores experiencias de usuario y eficiencia operativa. 9. DevSecOps DevSecOps surge como una metodología crítica para garantizar medidas de seguridad sólidas dentro de los entornos de computación en la nube. Al integrar prácticas de seguridad en el flujo de trabajo de desarrollo, DevSecOps mitiga los riesgos asociados con intrusiones en la red, ataques de denegación de servicio y acceso no autorizado a datos. Los proveedores de servicios en la nube ofrecen una variedad de herramientas y servicios para facilitar la implementación perfecta de las prácticas de DevSecOps, garantizando un ecosistema informático seguro para los usuarios. 10. Recuperación y copia de seguridad ante desastres La recuperación ante desastres desempeña un papel crucial en la restauración de datos y sistemas críticos en caso de cualquier tipo de desastre. Muchas organizaciones se han enfrentado a enormes pérdidas de datos no guardados debido a caídas del servidor. La computación en la nube facilita el almacenamiento de copias de seguridad de datos comerciales vitales, lo que permite una recuperación rápida de posibles interrupciones como pérdida de datos, cortes de energía, desastres naturales, ataques cibernéticos o fallas de hardware. Para cualquier organización, un sólido plan de respaldo y recuperación ante desastres con la ayuda de la computación en la nube puede salvarla de una gran pérdida. Muchas empresas mantienen registros y archivos electrónicos y cargan esos documentos en un servidor externo en la nube automáticamente. Resumen En 2024, la nube persistirá como un catalizador vibrante, que impulsará la innovación y abrirá puertas a posibilidades en diversos sectores. La convergencia de la IA, la sostenibilidad, la seguridad y las soluciones simplificadas muestra un panorama vibrante del papel de la nube en la configuración del futuro. Abrace el futuro de la tecnología con Charter Global. Para consultas y consultas, visite www.charterglobal.com o llámenos al +1-888-326-9933 o envíenos un correo electrónico a info@charterglobal.com.

¿Cómo puede el departamento de recursos humanos crear un círculo de apoyo en el trabajo?

¿Qué importancia tiene un entorno de oficina de apoyo? Mucho, y el departamento de Recursos Humanos (RR.HH.) desempeña un papel importante a la hora de configurar ese entorno para las empresas y sus empleados. Sin embargo, para que ese esfuerzo sea efectivo, es esencial contar con un círculo de apoyo. ¿Y adivina qué? Hoy vamos a analizar cómo un departamento de recursos humanos puede crear un círculo de apoyo en el trabajo para los empleados. ¿Te suena ajeno este tema? No debería porque el mundo avanza y si quieres tener éxito en tu negocio, debes tener empleados felices y motivados. Para mantener motivados a sus empleados, debe apoyarlos tanto como sea posible. Sin embargo, para apoyar mejor a sus empleados, debe tener un círculo de apoyo en la oficina, lo que a menudo es difícil de crear. No te preocupes; Estamos aquí para ayudarlo a construir su círculo de apoyo en el trabajo con el asesoramiento de recursos humanos necesario. Aquí está lo que tú necesitas hacer; 1. Comprenda las necesidades de sus empleados Si desea construir su círculo de apoyo en el trabajo, ¿qué debe hacer primero? Primero, comprenda las necesidades de sus empleados. No hay nada más importante que esto. Comprender las necesidades de los empleados es la piedra angular de un apoyo eficaz dentro del departamento de recursos humanos. Todo comienza escuchando atentamente. Los profesionales de RR.HH. deben interactuar activamente con los empleados para comprender sus inquietudes, desafíos y aspiraciones. Las encuestas, las sesiones de retroalimentación y los buzones de sugerencias pueden servir como herramientas invaluables para recopilar información sobre las necesidades de la fuerza laboral. Tomemos un ejemplo; Si realiza una encuesta que destaque que los empleados tienen dificultades para mantener un equilibrio saludable entre el trabajo y la vida personal, RR.HH. puede ayudarlos con acuerdos laborales flexibles. También pueden presentar programas de bienestar a través de un círculo de apoyo. 2. Promover la comunicación abierta Según nuestra investigación y experiencia, hemos visto que la mayoría de las empresas no promueven la comunicación abierta. Los empleados temen hablar con su jefe o con el departamento de recursos humanos sobre sus obstáculos diarios. Pero piense, si sus empleados no pueden estar abiertos a sus problemas debido a un ambiente de oficina estricto y tóxico, ¿cómo les iría bien en el trabajo? Por lo tanto, si desea construir un mejor círculo de apoyo en el trabajo, debe promover la comunicación abierta y fomentar una cultura de apoyo en el lugar de trabajo. ¿Pero cómo haces eso? Bueno, su departamento de recursos humanos puede encabezar este esfuerzo fomentando un ambiente donde los empleados se sientan seguros para expresarse. Liderando con el ejemplo, los propios RR.HH. pueden demostrar una comunicación transparente y empatía en todas las interacciones. También pueden introducir un foro abierto para que los empleados expresen abiertamente sus opiniones e inquietudes. Y puedes integrarlo en tu software de recursos humanos. Además, también puede crear un canal anónimo de comentarios para que sus empleados puedan compartir sus opiniones sin miedo. También puede organizar grupos focales para profundizar en temas o cuestiones que afectan a la fuerza laboral. Al fomentar canales de comunicación abiertos, su departamento de recursos humanos puede capacitar a los empleados para que contribuyan a un entorno de trabajo más inclusivo y solidario. 3. Proporcione los recursos y la capacitación necesarios Necesita recursos y capacitación para construir un mejor círculo de apoyo en la oficina. Así que, llegados a este punto, pregúntate qué recursos tienes y qué necesitas. No olvide que dotar al personal de recursos humanos de recursos y formación adecuados es esencial para abordar eficazmente los problemas de los empleados. Sus profesionales de recursos humanos necesitan herramientas valiosas para apoyar a los empleados de manera más efectiva a través de capacitación en áreas como conciencia sobre la salud mental, resolución de conflictos y habilidades de comunicación. Por ejemplo, los talleres de resolución de conflictos pueden permitir a los profesionales de recursos humanos navegar conversaciones difíciles y resolver disputas de manera constructiva. Además, las sesiones sobre escucha activa y creación de empatía mejoran la capacidad de RR.HH. para comprender y empatizar con las experiencias de los empleados. Por lo tanto, es importante contar con todas las herramientas necesarias, incluida una solución de recursos humanos, para construir un mejor círculo de apoyo en el trabajo para sus empleados. 4. Establezca programas de apoyo Uno de los aspectos más importantes de un círculo de apoyo en el trabajo es tener diferentes programas de apoyo para sus empleados. ¿Ya tienes uno? Si no lo hace, esto es lo que debería tener, porque esta es una de las tendencias de RR.HH. para mantener contentos a sus empleados. ¿Qué incluye el programa de soporte? Los programas de apoyo pueden abarcar varias iniciativas, incluidos programas de tutoría, sistemas de compañeros, programas de bienestar, programas de asistencia a los empleados (EAP), etc. Con un programa de tutoría, sus empleados senior pueden colaborar con los recién llegados y brindarles orientación y apoyo mientras navegan por sus roles y trayectoria de carrera. De manera similar, los sistemas de amigos crean redes de apoyo informales donde los empleados pueden acudir a sus pares en busca de consejo y ayuda. Los programas de bienestar, por otro lado, promueven el bienestar físico y mental. Ofrece actividades como talleres de gestión del estrés o exámenes de salud. Los programas de asistencia a los empleados (EAP) brindan asesoramiento y recursos confidenciales para los empleados que enfrentan desafíos personales o relacionados con el trabajo. Si implementa estos programas de apoyo, su empresa puede fomentar un sentido de pertenencia y crear caminos para que los empleados busquen orientación y apoyo cuando sea necesario. Además, también puede fomentar la formación de grupos de apoyo entre pares dentro de los equipos o entre departamentos. Este grupo en particular puede servir como un espacio seguro para que los empleados compartan experiencias, busquen asesoramiento y se ofrezcan apoyo mutuo. RR.HH. puede facilitar la creación de estas redes y proporcionar recursos para garantizar su eficacia. 6. Controles y seguimientos periódicos El seguimiento es muy importante en todo lo que haga. Por ejemplo, si está ejecutando un proyecto y no monitorea el progreso, el proyecto no será tan exitoso como debería. Por lo tanto, para mantener un mejor círculo de apoyo en el trabajo, debe realizar controles y seguimientos periódicos. Analicemos por qué. Los controles y seguimientos periódicos son esenciales para fomentar un entorno laboral de apoyo. Al mantener una comunicación continua con los empleados, RR.HH. demuestra su compromiso con su bienestar y sus necesidades integrales. Los controles formales o informales brindan oportunidades para evaluar el bienestar de los empleados y abordar cualquier inquietud con prontitud. De manera similar, este tipo de interacción crea un espacio para que los empleados expresen sus pensamientos, compartan comentarios y busquen apoyo cuando sea necesario. Además, los seguimientos después de eventos importantes o durante tiempos difíciles refuerzan el apoyo de RR.HH. a los empleados. Ya sea después de una reestructuración, el lanzamiento de un proyecto o durante momentos de dificultades personales, las conversaciones de seguimiento muestran a los empleados que sus inquietudes son valoradas y que RR.HH. está ahí para ayudarlos. 7. Celebre los éxitos y los hitos con sus empleados ¿Con qué frecuencia celebra los éxitos y los hitos con sus empleados? Si no, debes hacerlo. Enriquecerá tu círculo de apoyo en el trabajo. El comportamiento inclusivo al celebrar el éxito y los hitos crea una buena impresión en la empresa y la alta dirección, motivando a sus empleados a trabajar para crear más éxitos e hitos. En este tipo de eventos, RR.HH. puede desempeñar un papel clave a la hora de reconocer y valorar los logros tanto individuales como colectivos dentro de la organización. Más importante aún, esto funciona indirectamente como un buen aparato para el círculo de apoyo en el trabajo. Analicemos esto con ejemplos: RR.HH. podría organizar un programa de reconocimiento mensual para resaltar las contribuciones sobresalientes de los empleados. También pueden presentar certificados, organizar almuerzos en equipo o compartir historias de éxito en los canales de comunicación internos. Además, enviar a los empleados notas escritas a mano o mensajes de agradecimiento personalizados también puede afectar significativamente la motivación y el compromiso de los empleados. Estos pequeños gestos de agradecimiento marcan una gran diferencia y crean un entorno de oficina que eleva su organización más allá de su lugar de trabajo. ¿Cómo se puede gestionar eficazmente un círculo de apoyo en el trabajo? Gestionar los círculos de apoyo es difícil. Pero si tiene las herramientas y la estrategia adecuadas, podrá gestionar fácilmente su círculo de apoyo en el trabajo. ¿Como es eso? El software integral de recursos humanos con funciones de administración de comunidades, foros y capacitación electrónica puede ser de gran ayuda. Puede optimizar toda su iniciativa de creación de círculos de apoyo de forma organizada. También puede monitorear bien el progreso de esas actividades. La capacitación y la comunicación son otros dos aspectos que puede gestionar bien a través del software de recursos humanos si la función está disponible. Por lo tanto, le recomendamos que se adapte a un sistema de recursos humanos y defienda su círculo de apoyo de manera efectiva para que su entorno de trabajo sea amigable para los empleados. ¿Busca el mejor software de recursos humanos? Explora el ESCALADO de Southtech

¿Cómo funciona una red principal? Explicado

AnuncioEn el mundo de la tecnología blockchain, las redes principales sirven como columna vertebral de las redes descentralizadas, facilitando transacciones, ejecutando contratos inteligentes y manteniendo la integridad de los libros de contabilidad distribuidos. Comprender cómo funcionan las redes principales es crucial para cualquiera que se adentre en el mundo de las criptomonedas y las aplicaciones descentralizadas (DApps). En este artículo, profundizaremos en las complejidades de las redes principales, explorando su arquitectura, mecanismos de consenso y funcionalidad. Lea también: ¿Qué es Testnet? Explicación de qué es una red principal Una red principal, abreviatura de «red principal», representa la red blockchain principal de una criptomoneda o plataforma descentralizada. Es la versión viva de la blockchain donde ocurren transacciones reales y donde se intercambian los tokens nativos de la red. Las redes principales contrastan con las redes de prueba, que son entornos experimentales que se utilizan para probar nuevas funciones y realizar pruebas sin arriesgar activos reales. Arquitectura de una red principal Las redes principales generalmente se basan en arquitecturas descentralizadas, donde múltiples nodos en todo el mundo participan en el mantenimiento de la red. Estos nodos son computadoras o servidores individuales que ejecutan el software blockchain y se comunican entre sí para lograr un consenso sobre el estado de la red. La arquitectura de una red principal puede variar según el protocolo blockchain específico que se utilice. Mecanismos de consenso Los mecanismos de consenso desempeñan un papel fundamental en las redes principales, asegurando que todos los nodos de la red estén de acuerdo sobre la validez de las transacciones y el estado de la cadena de bloques. Existen varios algoritmos de consenso, cada uno con su enfoque único para lograr un acuerdo entre los participantes de la red. Algunos mecanismos de consenso populares incluyen: Prueba de trabajo (PoW): en una red principal basada en PoW, los nodos, conocidos como mineros, compiten para resolver complejos acertijos matemáticos para validar transacciones y crear nuevos bloques. El primer minero que resuelve el rompecabezas transmite el nuevo bloque a la red y otros nodos verifican su validez. La red principal de Bitcoin es uno de los ejemplos más destacados de una cadena de bloques basada en PoW. Prueba de participación (PoS): las redes principales basadas en PoS dependen de validadores que son elegidos para crear nuevos bloques y validar transacciones en función de la cantidad de monedas que poseen y son. dispuesto a “apostar” como garantía. Ethereum ha estado haciendo la transición de PoW a PoS con su actualización Ethereum 2.0, cuyo objetivo es mejorar la escalabilidad y la eficiencia energética. Prueba de participación delegada (DPoS): DPoS es una variación de PoS donde los poseedores de tokens votan por un número limitado de delegados que son responsables. para validar transacciones y crear bloques en nombre de la red. EOS y TRON son ejemplos de redes principales que utilizan DPoS. Tolerancia a fallas bizantinas (BFT): las redes principales basadas en BFT se enfocan en lograr consenso en redes donde los nodos pueden comportarse de manera maliciosa o fallar. Este algoritmo garantiza que incluso si algunos nodos son defectuosos o maliciosos, la red aún puede llegar a un acuerdo sobre el estado de la cadena de bloques. Hyperledger Fabric utiliza un mecanismo de consenso basado en BFT. Funcionalidad de una Mainnet Las Mainnets sirven como centros operativos para una amplia gama de aplicaciones y servicios basados ​​en blockchain. Permiten: Procesamiento de transacciones: las redes principales facilitan la transferencia de tokens nativos y la ejecución de contratos inteligentes, lo que permite transacciones entre pares y actividades financieras descentralizadas (DeFi), como préstamos, empréstitos y transacciones. Ejecución de contratos inteligentes: los contratos inteligentes son acuerdos autoejecutables con condiciones predefinidas escritas en código. Las mainnets proporcionan los recursos computacionales necesarios para ejecutar estos contratos, lo que permite la automatización de diversos procesos sin necesidad de intermediarios. Aplicaciones descentralizadas (DApps): las mainnets albergan un ecosistema diverso de DApps que abarca industrias como finanzas, juegos, atención médica y gestión de la cadena de suministro. . Estas aplicaciones aprovechan la naturaleza descentralizada de las redes principales para ofrecer soluciones transparentes y resistentes a la censura a los usuarios. Creación y gestión de tokens: las redes principales permiten a los desarrolladores crear tokens personalizados utilizando estándares como ERC-20 (Ethereum) o BEP-20 (Binance Smart Chain). . Estos tokens pueden representar activos digitales, puntos de fidelidad o incluso participaciones en organizaciones descentralizadas. Seguridad y escalabilidad Mantener la seguridad y la escalabilidad es esencial para la viabilidad a largo plazo de las redes principales. Las medidas de seguridad, como el hash criptográfico, las firmas digitales y los mecanismos de consenso, garantizan la integridad de las transacciones y protegen contra el fraude y la manipulación. Las soluciones de escalabilidad, que incluyen fragmentación, protocolos de capa 2 y escalamiento fuera de la cadena, tienen como objetivo mejorar el rendimiento y la eficiencia de las redes principales, permitiéndoles manejar un mayor volumen de transacciones sin comprometer la descentralización. Estos son algunos de los desafíos que enfrentan los desarrolladores cuando desarrollan redes principales. Conclusión Las redes principales son la columna vertebral de las redes descentralizadas y proporcionan la infraestructura necesaria para transacciones y aplicaciones seguras, transparentes y resistentes a la censura. Al comprender la arquitectura, los mecanismos de consenso y la funcionalidad de las redes principales, las personas pueden navegar mejor en el panorama en rápida evolución de la tecnología blockchain y aprovechar su potencial transformador en diversas industrias. A medida que la tecnología blockchain continúe madurando, las redes principales desempeñarán un papel cada vez más fundamental en el impulso del próxima generación de aplicaciones y servicios descentralizados, allanando el camino para un futuro más inclusivo, transparente y descentralizado.

La mayoría de las empresas afectadas por ransomware informan a las autoridades, pero el nivel de soporte varía

Thana Prasongsin/Getty ImagesLa mayoría de las organizaciones afectadas por un ataque de ransomware eligen informar a las autoridades pertinentes, pero el nivel de apoyo que reciben varía según dónde se encuentren. A nivel mundial, el 97% de las empresas afectadas por ataques de ransomware el año pasado pidieron ayuda a las fuerzas del orden y otras agencias gubernamentales, según nuevos hallazgos extraídos del informe State of Ransomware 2024 de Sophos. El estudio extrajo información de 2.974 organizaciones que fueron afectadas por ransomware, de un grupo total de 5.000 profesionales de TI y ciberseguridad encuestados para el informe. Los encuestados procedían de 14 mercados, incluidos Singapur, India, Australia, Italia, Reino Unido y Estados Unidos. Además: el 91 % de las víctimas de ransomware pagaron al menos un rescate el año pasado, según una encuesta. Todas las organizaciones afectadas por ataques de ransomware en Suiza informaron a las autoridades pertinentes, mientras que el número más bajo, el 90 % en Australia, hizo lo mismo. En todo el mundo, entre los que sí informaron, el 61% dijo haber recibido asesoramiento sobre cómo afrontar el ataque y el 60% recibió ayuda para investigarlo. Los de la India reportaron el mayor nivel de apoyo: el 71% recibió asesoramiento sobre cómo afrontar el ataque y el 70% recibió ayuda para investigarlo. Sus pares en Singapur reportaron el segundo nivel más alto de apoyo, con un 69%, para obtener asesoramiento sobre cómo afrontar el ataque, mientras que un 68% en Sudáfrica alcanzó el segundo nivel más alto de apoyo en términos de investigación de incidentes. Los de Alemania, con un 51%, obtuvieron la tasa más baja de apoyo en tales esfuerzos de investigación, al igual que el 51% de las víctimas de ransomware en Austria que recibieron asesoramiento sobre cómo afrontar el ataque. Además, entre el 40% a nivel mundial cuyos datos fueron cifrados en el ataque, el 58% recibió ayuda para recuperar datos cifrados en el ataque. Aquí, India volvió a liderar el grupo, con un 71% que recibió ayuda de las autoridades para recuperar sus datos cifrados, seguida por un 64% en Austria y un 62% en Singapur. Los que recibieron el menor apoyo de ayuda para recuperar sus datos cifrados fueron el 45% en Suiza, el 49% en Francia y el 53% en Italia. En Estados Unidos, el 65% de las empresas informaron haber recibido ayuda para investigar ataques. Sophos Entre el 3% que optó por no denunciar su ataque, el 27% citó preocupaciones de que hacerlo perjudicaría su negocio, en forma de multas, cargos o trabajo extra. Otro 27% optó por no denunciar a las autoridades porque no creía que les beneficiaría, mientras que un 22% no creía que estos funcionarios estuvieran interesados ​​en conocer el ataque. «Las empresas tradicionalmente han evitado involucrarse con las autoridades por temor a que su ataque se haga público. Si se sabe que han sido víctimas, podría afectar su reputación comercial y empeorar la situación», dijo Chester Wisniewski, director y director de Sophos. CTO de campo. «La vergüenza de las víctimas ha sido durante mucho tiempo una consecuencia de un ataque, pero hemos logrado avances en ese frente, tanto dentro de la comunidad de seguridad como a nivel gubernamental». Además: ¿Qué es el ransomware? Todo lo que necesita saber y cómo reducir su riesgo La incorporación de nuevas regulaciones sobre la notificación de incidentes cibernéticos, por ejemplo, podría haber ayudado a normalizar el compromiso con las autoridades, añadió Wisniewski. «Si los sectores público y privado pueden continuar galvanizándose como un esfuerzo grupal para ayudar a las empresas, podemos continuar mejorando nuestra capacidad de recuperarnos rápidamente y reunir inteligencia para proteger a otros o incluso potencialmente responsabilizar a quienes llevan a cabo estos ataques», dijo. Alrededor del 91% de las víctimas de ransomware reconocieron haber pagado al menos un rescate, según una encuesta de ExtraHop publicada el mes pasado. El pago promedio fue de casi 2,5 millones de dólares, con un 41,6% desembolsando entre 500.000 y 1 millón de dólares y un 23,4% pagando entre 100.000 y 500.000 dólares.

GCHQ protegerá a políticos y candidatos electorales de ciberataques

A los candidatos políticos, funcionarios electorales y otras personas con alto riesgo de ser atacados en línea se les ofrece protección contra ataques de phishing y malware en el período previo a las próximas elecciones generales. La medida se produce tras los intentos de los servicios de inteligencia rusos y de grupos de hackers vinculados a China de atacar a instituciones, personas de alto perfil y parlamentarios en el Reino Unido. El Centro Nacional de Seguridad Cibernética del Reino Unido, parte de la agencia de inteligencia de señales GCHQ, proporcionará el servicio, conocido como Protección Personal de Internet, a personas de alto perfil consideradas en riesgo de sufrir ataques por parte de estados hostiles. Los funcionarios de seguridad dicen que las cuentas de teléfonos móviles de los candidatos y funcionarios electorales, y sus cuentas de trabajo, son “casi con certeza” objetivos atractivos para los estados nacionales hostiles. El gobierno confirmó en 2023 que un grupo de hackers vinculado al servicio de seguridad FSB de Rusia ha atacado a parlamentarios de todos los partidos con ataques de phishing desde al menos 2015. Y en marzo de 2024, se supo que un grupo de hackers estatal chino había atacado las cuentas de correo electrónico de más de 40 parlamentarios del Reino Unido que se habían pronunciado contra China o eran miembros de la Alianza Interparlamentaria sobre China (IPAC). El NCSC ahora planea ofrecer a los parlamentarios y otras personas de alto riesgo un servicio de protección cibernética opcional que alertará a las personas si se detecta actividad maliciosa en sus cuentas o dispositivos de correo electrónico. El servicio, basado en el servicio DNS protector (PDNS) del NCSC, que estuvo disponible en 2017, bloquea el acceso a dominios web maliciosos, incluidos sitios de phishing, software espía y malware. Las preocupaciones sobre los riesgos de interrupción de las elecciones por parte de estados nacionales hostiles fueron identificadas como una de las principales amenazas que enfrentan los países por el Foro Económico Mundial en enero de 2024. Jonathon Ellison, Director de Resiliencia Nacional y Tecnología Futura del NCSC, dijo: “Las personas que desempeñan papeles importantes en nuestra democracia son un objetivo atractivo para los actores cibernéticos que buscan perturbar o socavar de otra manera nuestra sociedad abierta y libre”. El NCSC también ha publicado directrices para los grupos de la sociedad civil que pueden ser blanco de piratas informáticos maliciosos, incluidos periodistas, activistas, académicos, abogados y disidentes. La publicación se produce tras una reunión de agencias de 10 países celebrada hoy en Birmingham en la conferencia CyberUK del NCSC. Computer Weekly identificó al grupo de piratería conocido como Callisto, ColdRiver, Tag-53, TA446 y BlueCharlie, que apuntaba a personas de alto perfil, incluidos políticos en el Reino Unido, como una operación del FSB ruso en 2023. Las víctimas incluyen al exjefe del MI6 Richard Dearlove, cuyos correos electrónicos fueron pirateados y filtrados desde un servicio de correo electrónico cifrado en 2022 y el periodista independiente de izquierda Paul Mason, que ha criticado con frecuencia la guerra de Putin contra Ucrania. En febrero de 2023, el diputado del Partido Nacional Escocés, Stewart McDonald, reveló que sus correos electrónicos habían sido pirateados por el grupo de piratería ruso. Otros parlamentarios también han sido objeto de ataques. El servicio DNS de protección, que utilizan organizaciones del sector público, maneja actualmente más de 2,5 billones de solicitudes de sitios e impide el acceso a 1,5 millones de dominios maliciosos, dijo el NCSC.

Google lanza WebAssembly para Flutter y Dart

Google ha actualizado tanto su marco de desarrollo de aplicaciones multiplataforma Flutter como el lenguaje Dart que lo acompaña. Al realizar estas actualizaciones, la compañía enfatizó la adición del formato de instrucción de código de bytes WebAssembly como objetivo de compilación para aplicaciones web creadas con Flutter y Dart. El anuncio sigue a informes recientes de que Google despidió personal de los equipos de Dart y Flutter. Flutter 3.22 y Dart 3.4 se anunciaron el 14 de mayo y ofrecen mejoras de rendimiento y mejoras específicas de la plataforma. Con Flutter 3.22, WebAssembly (Wasm) llega al canal estable, ofreciendo mejoras de rendimiento «significativas», dijo Google. La asistencia de rendimiento de Wasm ayuda con animaciones y transiciones ricas. Con Wasm, los cuellos de botella en el rendimiento se reducen, lo que resulta en animaciones y transiciones más fluidas, según Google. El soporte completo para Wasm está disponible para Flutter Web Apps a través de Flutter 3.22. Los desarrollos incrementales han incluido la adición de un nuevo back-end del compilador Dart para generar código WasmGC y la renovación de las ofertas de interoperabilidad web y JavaScript para admitir mejor Wasm. Los planes exigen habilitar soporte completo para Wasm en aplicaciones puras de Dart. Las herramientas de un extremo a otro para la compilación de Wasm aún están en desarrollo, pero ya hay una vista previa disponible. También se analiza la compatibilidad con Wasm en Dart fuera de entornos JavaScript como wasmer. También en Flutter 3.22, se actualizó el motor de renderizado Impeller, con la finalización del back-end Vulkan en Android para gráficos más fluidos y mejor rendimiento, y optimizaciones continuas para el desenfoque. efectos y renderizado de rutas complejas. Además, se ofrece una nueva API experimental para realizar pruebas con Impeller. Los planes exigen mejorar la calidad y el rendimiento del Impeller en el futuro. De conformidad con la hoja de ruta de Flutter, Google planea mejorar el rendimiento y la calidad de Impeller, incluida la finalización de una migración de iOS a Impeller y el aumento de la compatibilidad con Android. Flutter y Dart se combinan con la intención de permitir a los desarrolladores crear aplicaciones multiplataforma a partir de una base de código única y compartida. Estas aplicaciones se pueden ejecutar en plataformas móviles, web y de escritorio. Flutter ahora también es compatible con la próxima función de retroceso predictivo de Android, donde los usuarios pueden mirar la ruta anterior o la aplicación anterior durante un gesto de retroceso. Esta función todavía está detrás de una marca de función en los dispositivos Android. Mientras tanto, para el lenguaje Kotlin, ahora se admite Gradle Kotlin DSL, lo que proporciona una alternativa al tradicional Gradle Groovy DSL. Esto permite una mejor edición de código, con autocompletado, navegación de código fuente, refactorización contextual y acceso rápido a la documentación, según Google. Con Dart 3.4, los proponentes anunciaron un nuevo enfoque para la serialización JSON: la macro JsonCodable, actualmente en fase experimental. escenario. Una macro genera más código mediante la introspección de otro código en el momento de la compilación. También con la versión 3.4, los constructores de Dart informaron que resolvieron más del 50 % de los errores de finalización del código del analizador y mejoraron la alineación del análisis de tipos en expresiones condicionales, expresiones if-null y expresiones de cambio con la especificación del lenguaje. También eliminaron herramientas incompletas de la biblioteca dart:cli y abordaron las deficiencias para mejorar la nueva biblioteca dart:js_interop. Se prometieron actualizaciones de Flutter para la conferencia Google I/O de esta semana a pesar de los recientes informes de que Google despidió al personal de Dart y Flutter. Copyright © 2024 IDG Communications, Inc.

¿Cómo funciona LiDAR? Conceptos básicos de LiDAR explicados

AnuncioLiDAR, abreviatura de Detección y alcance de luz, es un método relacionado con el radar para la medición óptica de distancias y velocidades, así como para la medición remota de parámetros atmosféricos. Es una forma de escaneo láser tridimensional. En lugar de ondas de radio como ocurre con el radar, se utilizan rayos láser. Lidar se utiliza para crear mapas de alta resolución con aplicaciones en topografía, geodesia, geomática, arqueología, geografía, geología, geomorfología, sismología, meteorología, silvicultura y escaneo láser aéreo. La tecnología también se utiliza en el control y navegación de vehículos autónomos. LiDAR es una tecnología similar a la del sensor ToF que hemos utilizado en nuestros tutoriales: ESP32 Arduino Laser ToF Sensor. Pero no son los mismos. Existen diferencias entre LiDAR y ToF. Estos están relacionados con las cosas que se enseñan como teorías en la escuela secundaria: efecto Raman, dispersión de Rayleigh, etc. ¿Cómo funciona LiDAR? En esencia, LiDAR funciona según el principio de emitir pulsos láser y medir su reflejo para recopilar datos espaciales sobre el entorno circundante. Estos pulsos láser se emiten en rápida sucesión y el tiempo que tarda la luz reflejada en regresar al sensor se utiliza para calcular distancias con una precisión excepcional. Al escanear el entorno desde múltiples puntos de vista, los sistemas LiDAR generan mapas 3D detallados que capturan la forma, el tamaño y la ubicación de los objetos con una precisión notable. Los sistemas LiDAR para mediciones atmosféricas emiten pulsos láser y detectan la luz dispersada desde la atmósfera. La distancia al lugar de dispersión se calcula a partir del tiempo de tránsito de las señales luminosas. Las partículas de nubes y polvo en el aire (aerosoles) dispersan la luz láser y permiten la detección de alta resolución y la medición de distancias de nubes y capas de aerosoles. Se pueden utilizar sistemas más complejos para determinar los parámetros del estado atmosférico y la concentración de gases traza atmosféricos. Por ejemplo, los instrumentos lidar también se utilizan para monitorear las emisiones de las chimeneas de las fábricas para verificar el cumplimiento de límites específicos. Dependiendo de la longitud de onda de la luz láser utilizada, los sistemas lidar son más o menos sensibles a la retrodispersión molecular o de partículas. La intensidad de la retrodispersión en una longitud de onda depende también del tamaño y la concentración de las partículas respectivas. Por lo tanto, los sistemas Lidar que utilizan múltiples longitudes de onda se pueden utilizar para determinar la distribución de tamaño exacta de las partículas atmosféricas. Utilizando técnicas sofisticadas, el lidar se puede utilizar para medir una variedad de valores del estado atmosférico: presión, temperatura, humedad, concentración de vapor de agua y concentración. de gases traza atmosféricos (ozono, óxidos de nitrógeno, dióxido de azufre, metano, etc.). Además, se pueden determinar las propiedades ópticas de aerosoles y partículas de nubes (coeficiente de extinción, coeficiente de retrodispersión, despolarización). Con un lidar de despolarización se puede determinar el estado de la materia (líquida o sólida, es decir, en el caso de partículas de nubes: si todavía es agua o ya es hielo) (polarización). Sistemas LiDAR Raman Los sistemas LiDAR Raman detectan señales en otras longitudes de onda además de la retrodispersión de la radiación recién emitida en una determinada longitud de onda (retrodispersión elástica). Estas señales son producidas por las moléculas que retrodispersan la luz absorbiendo parte de la energía de la partícula luminosa (el fotón) o agregándole energía adicional (dispersión inelástica). Las moléculas cambian su vibración o rotación durante la dispersión inelástica (dispersión Raman). El cambio de energía sólo es posible en ciertos pasos “escalonados” (mecánica cuántica) y estos pasos son característicos del tipo de molécula. Las moléculas de agua, por ejemplo, tienen una pequeña probabilidad de dispersar la luz verde en rojo (la luz láser Nd:YAG de frecuencia duplicada con una longitud de onda de 532 nm se dispersa en 660 nm). Este proceso se utiliza para determinar la proporción de mezcla de vapor de agua en la atmósfera (raman lidar de vapor de agua). La intensidad de la dispersión Raman inelástica se comporta con respecto a la longitud de onda de la misma manera que la dispersión Rayleigh elástica, es decir, inversamente proporcional a la cuarta potencia de la longitud de onda. Por lo tanto, tiene sentido utilizar láseres en el rango espectral ultravioleta, p. ej. láseres Nd:YAG de frecuencia triplicada (355 nm) o también láseres excímeros Xe:Cl de 308 nm. Sin embargo, en longitudes de onda aún más cortas predomina la absorción por el ozono atmosférico, de modo que a distancias más largas (varios kilómetros) no se puede conseguir ninguna ventaja adicional mediante la mayor retrodispersión. LiDAR de absorción diferencial Las concentraciones de gases traza también se pueden medir (y con mayor precisión para la mayoría de las sustancias) utilizando el método LIDAR de absorción diferencial (DIAL). En esta técnica se emiten dos pulsos láser de diferentes longitudes de onda. Se elige una de las longitudes de onda para que sea absorbida por la sustancia cuya concentración se desea determinar (longitud de onda en línea); la otra longitud de onda de tal manera que no se absorba o se absorba lo menos posible (longitud de onda fuera de línea). A partir de la comparación paso a paso de las señales de retrodispersión (respectivamente para «encendido» y «apagado»), se puede calcular el perfil de concentración de la sustancia a lo largo de la línea de propagación de los pulsos láser. Los coeficientes de absorción suelen ser bien conocidos gracias a experimentos de laboratorio; DIAL determina la concentración de gas traza atmosférico mediante los valores correspondientes para longitudes de onda encendidas y apagadas, sin necesidad de una calibración adicional del instrumento (la técnica es “autocalibrante”). Para ello, sin embargo, es necesario ajustar o controlar con mucha precisión las longitudes de onda de los impulsos láser. Dado que los coeficientes de absorción suelen depender de la presión y la temperatura, estos deben conocerse con precisión a lo largo del tramo de medición. Esta circunstancia juega un papel importante, especialmente en el sondeo vertical de la atmósfera. También hay que tener en cuenta que la luz retrodispersada (dispersión de Rayleigh) sufre un ensanchamiento Doppler dependiente de la temperatura. Sin embargo, este efecto no se produce con la retrodispersión de partículas (aerosoles). Por lo tanto, también se debe obtener información sobre la relación entre la dispersión de Rayleigh y la retrodispersión de las partículas. Componentes de los sistemas LiDAR Los sistemas LiDAR normalmente constan de varios componentes clave. El emisor láser genera pulsos de luz, generalmente en forma de radiación infrarroja o infrarroja cercana. El escáner dirige los rayos láser a través del entorno, lo que permite una cobertura y recopilación de datos completas. El sensor detecta los pulsos láser reflejados y mide el tiempo de vuelo para calcular distancias. Los componentes del Sistema de posicionamiento global (GPS) y de la Unidad de medición inercial (IMU) proporcionan datos geoespaciales y de orientación, respectivamente, para localizar y orientar con precisión el sensor LiDAR. Aplicación de sistemas LiDAR LiDAR se utiliza ampliamente para mapeo topográfico, planificación urbana y topografía territorial, proporcionando modelos de elevación detallados y datos del terreno en 3D. Los sistemas Lidar se utilizan desde aviones para crear modelos digitales del terreno. LiDAR desempeña un papel crucial al permitir la percepción y la navegación de vehículos autónomos al proporcionar mapas 3D en tiempo real del entorno circundante para detectar obstáculos y planificar rutas seguras. Lidar está reemplazando cada vez más al radar como instrumento de medición para el control de velocidad móvil. La tecnología Lidar también se puede utilizar para mediciones de velocidad estacionarias como alternativa a técnicas como los bucles de inducción, que son comunes allí. Se emplea para inventario forestal, monitoreo de ecosistemas y mapeo de llanuras aluviales, lo que permite una evaluación precisa de la vegetación, el terreno y las condiciones ambientales. cambios con el tiempo. Gracias a la alta densidad de puntos posible, en los bosques incluso es posible medir a través de las copas de los árboles hasta el suelo. De esta manera también se pueden localizar yacimientos prehistóricos en estas zonas. Facilita el mapeo de sitios arqueológicos, la preservación del patrimonio cultural y el análisis del paisaje al descubrir características y estructuras ocultas con alta precisión. LiDAR permite la inspección y el mantenimiento eficientes de infraestructura crítica como puentes, ferrocarriles y líneas eléctricas, al detectar defectos, evaluar la integridad estructural, e identificar peligros potenciales. También ayuda en los esfuerzos de respuesta y recuperación ante desastres al proporcionar datos rápidos y detallados del terreno para evaluar los daños, planificar rutas de evacuación y coordinar operaciones de rescate en áreas afectadas por desastres. Avances en la tecnología LiDAR En los últimos años, se han realizado avances significativos en la tecnología LiDAR, lo que ha llevado a mejoras en el rendimiento, la confiabilidad y la rentabilidad. Los avances en miniaturización han llevado al desarrollo de sensores LiDAR más pequeños, livianos y compactos, lo que los hace adecuados para su integración en drones, dispositivos portátiles y dispositivos portátiles. Sistemas LiDAR de estado sólido, que reemplazan los componentes mecánicos de escaneo con semiconductores de estado sólido. componentes, ofrecen mayor durabilidad, confiabilidad y resistencia a factores ambientales, al tiempo que reducen el consumo de energía y los costos de producción. La integración de LiDAR con otras modalidades de detección, como cámaras, radares y sensores ultrasónicos, permite la fusión de múltiples sensores, mejorando las capacidades de percepción y la solidez de los vehículos autónomos y las aplicaciones robóticas. Los avances en la tecnología láser y el diseño de sensores han llevado al desarrollo de sensores de alta resolución. Sistemas LiDAR capaces de capturar detalles finos y características intrincadas con una claridad y precisión sin precedentes. Las mejoras en los algoritmos de procesamiento de señales y las técnicas de aceleración de hardware permiten el procesamiento y análisis de datos en tiempo real, lo que permite la toma de decisiones y la respuesta instantáneas en entornos dinámicos. Desafíos y perspectivas futuras Si bien la tecnología LiDAR ha logrado avances significativos, aún quedan varios desafíos por abordar. El alto costo de los sistemas LiDAR y la infraestructura de procesamiento de datos asociada puede resultar prohibitivo para una adopción generalizada, especialmente en entornos con recursos limitados. La gestión e interpretación de grandes volúmenes de datos LiDAR presenta desafíos en términos de almacenamiento, procesamiento y extracción de información útil, lo que requiere datos avanzados. técnicas de análisis y visualización. El uso de la tecnología LiDAR genera preocupaciones con respecto a la privacidad, la seguridad de los datos y el cumplimiento normativo, lo que requiere directrices claras y marcos éticos para su implementación y uso. De cara al futuro, el futuro de la tecnología LiDAR parece prometedor, con investigación y desarrollo en curso. Los esfuerzos se centraron en abordar estos desafíos y desbloquear nuevas oportunidades de innovación y aplicación en diversas industrias. A medida que LiDAR continúa evolucionando y madurando, está preparado para desempeñar un papel cada vez más fundamental en la configuración de la forma en que percibimos, interactuamos y entendemos el mundo que nos rodea.

Página 4 de 288

Funciona con WordPress & Tema de Anders Norén