En los primeros días de la nube, tenía un pequeño negocio que tomaba aplicaciones empresariales y las rediseñaba para que pudieran entregarse como activos de software como servicio en la nube. Muchas empresas creían que su aplicación personalizada, que aportaba valor al abordar una necesidad específica, podía revenderse como un servicio SaaS y convertirse en otra fuente de ingresos. Vi una empresa de neumáticos, una empresa de atención sanitaria, un banco e incluso una empresa de fianzas. La empresa de gestión intenta convertirse en un actor de la nube antes de que existiera la infraestructura como servicio. A veces funcionó. El principal obstáculo fue que las empresas querían poseer un activo SaaS pero estaban menos interesadas en ejecutarlo. Necesitarían invertir una gran cantidad de dinero para que funcionara y la mayoría no estaba dispuesta a hacerlo. El hecho de que pudiera convertir su aplicación empresarial en un activo de SaaS multiinquilino no significaba que deberían haberlo hecho. “Puede” y “debería” son dos cosas muy diferentes a considerar. En la mayoría de esos casos, el sistema SaaS acabó consumiéndose únicamente dentro de la empresa. En otras palabras, construyeron una infraestructura en la que ellos mismos eran el único cliente. Nuevos servicios de IA generativa de AWSAWS ha introducido una nueva característica destinada a convertirse en el centro principal para los modelos de IA generativa personalizados de las empresas. La nueva oferta, Custom Model Import, se lanzó en la plataforma Amazon Bedrock (conjunto de AWS centrado en la empresa) y proporciona a las empresas infraestructura para alojar y ajustar su propiedad intelectual interna de IA como conjuntos de API totalmente administrados. con la creciente demanda empresarial de soluciones de IA personalizadas. También ofrece herramientas para ampliar el conocimiento del modelo, ajustar el rendimiento y mitigar el sesgo. Todo esto es necesario para impulsar la IA y generar valor sin aumentar el riesgo de utilizarla. En el caso de AWS, la importación de modelos personalizados permite integraciones de modelos en Amazon Bedrock, donde se unen a otros modelos, como Llama 3 de Meta o Claude 3 de Anthropic. Esto brinda a los usuarios de IA la ventaja de administrar sus modelos de forma centralizada junto con los flujos de trabajo establecidos ya implementados. en Bedrock. Además, AWS ha anunciado mejoras en el conjunto de modelos de IA Titan. El Titan Image Generator, que traduce descripciones de texto en imágenes, está pasando a estar disponible de forma general. AWS se mantiene cauteloso con respecto a los datos de entrenamiento específicos para este modelo, pero indica que se trata tanto de datos propietarios como de contenido pago con licencia. Por supuesto, AWS puede aprovechar estos modelos para sus propios fines u ofrecerlos como servicios en la nube a sus socios y otras empresas dispuestas a pagar. Por cierto, AWS no afirmó esto. Solo estoy viendo cuántas empresas verán la inversión realizada para pasar al hosting LLM, tanto para otros, para IA como servicio y para su propio uso. Aprendimos la lección con el intento de SaaS de hace 20 años, y la mayoría de las empresas construirán y aprovecharán estos modelos para sus propios fines. Los proveedores, como AWS, dicen que es más fácil construir e implementar IA en su plataforma en la nube que en su propia propio. Sin embargo, si el precio sube demasiado, sospecho que veremos cierta repatriación de estos modelos. Por supuesto, muchos encontrarán que una vez que aprovechen los servicios nativos en AWS, podrían quedarse estancados con esa plataforma o pagar los costos de conversión de ejecutar su IA internamente o en otro proveedor de nube pública. ¿Qué significa esto para ¿Usted?Vamos a ver un montón de este tipo de lanzamientos durante el próximo año, aproximadamente, a medida que los proveedores de nube pública busquen captar más negocios en sus servicios de inteligencia artificial. Los lanzarán de manera acelerada, dado que la “apropiación de tierras por parte de la IA” está en marcha ahora. Una vez que los clientes se enganchen a los servicios de IA, será difícil salir de ellos. No asignaré ninguna mala intención a los proveedores de nube pública por estas estrategias, pero señalaré que esta también fue la estrategia básica para vender la nube. almacenamiento en 2011. Una vez que esté utilizando las API nativas, no es probable que se traslade a otras nubes. Sólo cuando las cosas se vuelven demasiado caras las empresas consideran la repatriación o el traslado a un MSP o proveedor de colo. Por lo tanto, esta es una opción para quienes buscan alojar y aprovechar sus propios modelos de IA de una manera escalable y conveniente. Una vez más, este es el camino de menor resistencia, es decir, más rápido y más barato de implementar, al principio. La cuestión más importante es la viabilidad empresarial. Hemos aprendido de nuestras experiencias de almacenamiento en la nube y de informática que el hecho de que comprar algo sea más fácil que las opciones de hacerlo usted mismo puede no convertirlo en la opción correcta a largo plazo. Necesitamos hacer los cálculos y comprender el riesgo. del lock-in y los objetivos a largo plazo de cómo las empresas quieren aprender esta tecnología. Me temo que tomaremos decisiones rápidas y terminaremos arrepintiéndonos en unos años. Hemos visto esa película antes, seguro. Copyright © 2024 IDG Communications, Inc.