La evolución de la portabilidad del software converge naturalmente con la proliferación de infraestructura fácilmente escalable que ponen a disposición los proveedores de computación en la nube. El ejemplo más claro es la variedad de servicios administrados de Kubernetes, que a menudo comparten una huella con clústeres en máquinas virtuales de infraestructura como servicio (IaaS) o incluso con hardware local en grandes organizaciones. La mayoría de las hojas de ruta arquitectónicas exigen alguna forma de desarrollo greenfield nativo de la nube, junto con la habilitación de software heredado en la nube, como estrategia de migración digital. Cómo ponerse al día Prácticamente todas las empresas que ya han invertido en software personalizado terminan en alguna forma de juego perpetuo para ponerse al día con lo último en tecnología. Es la naturaleza del negocio de TI y es más importante cerrar esa brecha de manera efectiva que rápida. Después de todo, deberíamos esperar obtener beneficios de este avance tecnológico continuo. En ausencia de recompensas tangibles y de una mejor entrega de resultados específicos, perseguir a la vanguardia tiende a llevarnos en direcciones arbitrarias. Un inconveniente que muchas organizaciones han encontrado al implementar software en clústeres de contenedores orquestados por Kubernetes es el aumento inesperado de los costos, especialmente los costos de la nube. En muchas circunstancias, se anticipó que dicha migración podría aumentar los costos y la complejidad en el corto plazo, pero se consideró parte de una compensación estratégica beneficiosa y/o se esperaba que, de lo contrario, estas cosas podrían controlarse rápidamente. Coloque una chincheta en la hoja de ruta arquitectónica para marcar este lugar, a mitad de camino de una larga carretera desértica y casi sin gasolina. Después de seis meses de trabajo, migró una API importante a un banco de microservicios en un servicio administrado de Kubernetes. No hay características nuevas, su ejecución cuesta más, pero está navegando muy arriba en la nube. ¿Quién puede decírselo al CIO? Ya están aquí soluciones rápidas y soluciones a largo plazo Si se encuentra en esta situación, no está solo y hay buenas noticias. Es probable que existan muchas oportunidades para reducir costos sin afectar el rendimiento. Van desde frutos maduros que en muchos casos pueden hacer que los costos vuelvan al nivel básico en cuestión de semanas hasta nuevas oportunidades para aumentar el rendimiento y la disponibilidad, posibles a través de un conocimiento profundo de los patrones de uso. Existe una variedad de excelentes soluciones de gestión de recursos de Kubernetes en el mercado que brindan una solución llave en mano. Pueden utilizarse como remedio inmediato si el problema es grave y como motor para la mejora continua. Lo más fácil suele ser una cuestión de ajustar la forma en que se configuran y aprovisionan las cargas de trabajo. En el ejemplo extremo (pero aún frecuente), los desarrolladores pospusieron este “ajuste” como una segunda fase. Es posible que la configuración de recursos haya sido una idea de último momento y se haya descuidado por completo, pero en la mayoría de los casos, realmente es prudente «implementar primero y optimizar después». Una respuesta común a estos aumentos inesperados de costos en la nube ha sido que las organizaciones promulguen políticas o medidas burocráticas para revisar cómo se han aprovisionado estos recursos y controlar la situación. Si bien estas políticas pueden ser una valiosa adición al proceso de entrega continua, no le llevarán muy lejos en la solución del problema. El equilibrio ideal para cumplir los objetivos de rendimiento sin aprovisionar excesivamente recursos no es obvio y cambia con frecuencia. La automatización potencia la utilidad de las tendencias y patrones identificados en los datos. Todos aprenden sobre la marcha y, más allá de las prescripciones de alto nivel, es difícil y poco práctico lograr un ajuste fino confiable sin automatización. Las soluciones de gestión de recursos de Kubernetes ofrecen análisis y gestión automáticos de los recursos desde el punto de partida y superan las capacidades de las plataformas subyacentes de manera fundamental. Un ejemplo es mediante la aplicación de AI/ML. Si bien las capacidades de las metodologías de IA/ML crecen día a día, durante dos décadas han sido una forma confiable de analizar grandes conjuntos de datos y detectar patrones o tendencias que serían difíciles de intuir o identificar mediante métodos alternativos. Al analizar los patrones de uso, el consumo de recursos, métricas importantes como CPU, memoria e incluso eventos de aplicaciones personalizados, equilibran automáticamente los recursos de Kubernetes en un circuito cerrado. Estas herramientas garantizan que usted pague sólo por lo que necesita. Funcionamiento más inteligente y más eficiente Pagar sólo por lo que necesita es una ventaja clave de la computación en la nube. Si bien hace 20 años habría sido posible gestionar los recursos en un estrecho circuito de análisis, habría habido pocos beneficios porque la capacidad necesariamente se aprovisionaba para satisfacer las necesidades más altas previstas. Con la computación en la nube, puede utilizar tanto como necesite cuando lo necesite. Sin embargo, con algunos tipos de desarrollo nativo de la nube, aún necesita saber cuánto necesita y resulta que ese no es un factor fácilmente disponible en la ecuación. La información en tiempo real sobre los requisitos de recursos en tiempo de ejecución, con el tiempo, se desplazará hacia el proceso de desarrollo y las consideraciones arquitectónicas. Desde el punto de vista arquitectónico, está claro por qué dividir los diseños monolíticos en servicios portátiles, efímeros y autónomos permite ciertas ventajas. Pero no siempre está claro cuál es la mejor manera de lograrlo o qué compensaciones generales desconocidas acechan en la oscuridad. Así como un depurador proporciona detalles internos para informar un proceso en ejecución y las herramientas APM brindan una gran visibilidad de los sistemas intra operativos, las soluciones de administración de recursos de Kubernetes brindan una visión detallada de cómo estos sistemas escalan bajo el uso del mundo real. Con el tiempo, ese conocimiento volverá al diseño inicial del software y ayudará a desbloquear los beneficios inherentes de la computación en la nube. Próximos pasos Para obtener más información, eche un vistazo a los informes Radar y Criterios clave de gestión de recursos de Kubernetes de GigaOm. Estos informes brindan una visión integral del mercado, describen los criterios que querrá considerar en una decisión de compra y evalúan el desempeño de varios proveedores en función de esos criterios de decisión. Si aún no es suscriptor de GigaOm, puede acceder a la investigación mediante una prueba gratuita.

Source link