En lo profundo de los sistemas de Apple hay una variedad de instrucciones que ha dado a su mecanismo GenAI Apple Intelligence. Las capturas de pantalla de esas instrucciones ofrecen un vistazo a los esfuerzos de Apple por influir en su implementación de GenAI y también ilustran los grandes desafíos que supone controlar un algoritmo que simplemente intenta adivinar respuestas. Cuanto más explícita y contenida sea una instrucción, más fácil será para GenAI entenderla y obedecerla. Por lo tanto, algunas de las instrucciones de Apple, como «Prefieres usar cláusulas en lugar de oraciones completas» y «Por favor, mantén tu resumen de la entrada dentro de un límite de 10 palabras», deberían funcionar bien, dijeron los especialistas en IA. Pero otros comandos más interpretables de las capturas de pantalla de Apple, como «No alucines. No inventes información factual», pueden no ser tan efectivos. «No he tenido buena suerte diciéndole que no alucine. No me queda claro que sepa cuándo está alucinando y cuándo no. Esta cosa no es consciente», dijo Michael Finley, director de tecnología de AnswerRocket. “Lo que sí funciona es pedirle que reflexione sobre su trabajo, o utilizar un segundo mensaje en una cadena para comprobar los resultados del primero. Pedirle que vuelva a comprobar los resultados es algo habitual. Esto tiene un impacto verificablemente bueno en los resultados”. Finley también se quedó perplejo ante un comentario que le decía al sistema que “solo emitiera JSON válido y nada más”. “Me sorprende que le hayan dicho que solo utilice JSON válido. El modelo lo va a utilizar o no”, dijo Finley, añadiendo que no tiene una forma práctica o significativa de evaluar la validez. “Todo es muy poco sofisticado. Me sorprendió que esto sea lo que está en el centro”. Concluyó que “fue algo improvisado. Eso no es necesariamente algo malo”. Con eso quiso decir que los desarrolladores de Apple estaban bajo presión para sacar el software rápidamente. Las instrucciones bajo escrutinio eran para las nuevas capacidades GenAI que se estaban incorporando a Siri de Apple. El conjunto de datos que Apple utilizará es mucho más grande que los esfuerzos anteriores, por lo que solo estará disponible en los últimos dispositivos con la mayor potencia de CPU y la mayor cantidad de RAM. “Hasta ahora, los modelos de Apple para Siri eran pequeños. El uso de GPT (posiblemente algunos de los modelos más grandes) implica nuevas capacidades”, dijo Finley. “A medida que aumenta el número de parámetros, los modelos aprenden a hacer cosas que son más indirectas. Los modelos pequeños no pueden hacer juegos de rol, los modelos más grandes sí. Los modelos pequeños no saben lo que es el engaño, los modelos más grandes sí”. Clyde Williamson, arquitecto de seguridad de productos en Protegrity, se divirtió con la existencia en un foro público de los comentarios, que presumiblemente no estaban destinados a ser vistos por los clientes de Apple, lo que ilustra muy bien los desafíos generales de privacidad y seguridad de datos dentro de GenAI. “Sin embargo, esto resalta la idea de cómo la seguridad en la IA se vuelve un poco confusa. Todo lo que le decimos a una IA, puede decírselo a otra persona”, dijo Williamson. “No veo ninguna evidencia de que Apple haya intentado proteger esta plantilla de mensajes, pero es razonable esperar que no tuvieran la intención de que los usuarios finales vieran los mensajes. Desafortunadamente, los LLM no son buenos para guardar secretos”. Otro especialista en IA, Alan Nichol, director de tecnología de Rasa, aplaudió muchos de los comentarios. “Fue muy pragmático y simple”, dijo Nichol, pero agregó que “un modelo no puede saber cuándo está equivocado”. “Estos modelos producen textos plausibles que a veces se superponen con la verdad. Y a veces, por pura casualidad y coincidencia, es correcto”, dijo Nichol. “Si piensas en cómo se entrenan estos modelos, están tratando de complacer al usuario final, están tratando de pensar en lo que el usuario quiere”. Sin embargo, a Nichol le gustaron muchos de los comentarios y señaló: “Las instrucciones para que todo sea breve, siempre uso comentarios así”, porque de lo contrario, los LLM tienden a ser “increíblemente verbosos y esponjosos”.