Las funciones resultantes utilizan la descripción del mensaje de Prompty para crear la interacción con el LLM, que se puede encapsular en una operación asincrónica. El resultado es una aplicación de IA con muy poco código más allá de ensamblar las entradas del usuario y mostrar las salidas del LLM. Gran parte del trabajo pesado lo realizan herramientas como Semantic Kernel y, al separar la definición del mensaje de la aplicación, es posible actualizar las interacciones del LLM fuera de la aplicación, utilizando el archivo de activos .prompty. Incluir los activos de Prompty en la aplicación es tan sencillo como elegir el orquestador y generar automáticamente los fragmentos de código para incluir el mensaje en la aplicación. Actualmente, solo se admite una cantidad limitada de orquestadores, pero este es un proyecto de código abierto, por lo que puede enviar generadores de código adicionales para admitir cadenas de herramientas de desarrollo de aplicaciones alternativas. Ese último punto es particularmente importante: Prompty actualmente se centra en la creación de indicaciones para LLM alojados en la nube, pero estamos en una transición desde modelos grandes a herramientas más pequeñas y enfocadas, como Phi Silica de Microsoft, que están diseñadas para ejecutarse en unidades de procesamiento neuronal en hardware personal y de borde, e incluso en teléfonos.