

Le plus grand point de douleur des projets d'IA sur la chaîne n'est pas que les modèles ne sont pas assez puissants, mais que les modèles ne communiquent pas entre eux. Chaque modèle est comme une unité distincte, personne ne s'occupe de personne. L'utilisateur a une tâche, mais les modèles se disputent le travail ou font des tâches en double, gaspillant ainsi de la puissance de calcul et dégradant l'expérience.
KITE résout directement ce problème en le décomposant. L'arme clé est la coordination de plusieurs modèles. Cela ne repose pas sur un grand modèle pour résoudre tout, mais permet à différents modèles de faire ce qu'ils font de mieux. Enfin, un niveau de coordination unifié assemble les résultats en un produit complet.
Ce niveau de coordination s'appelle le moteur d'orchestration de modèles. Vous pouvez le considérer comme un chef de projet tenant une liste de tâches. Des dizaines ou des centaines de modèles en dessous sont les exécutants. Le moteur d'orchestration analysera d'abord les tâches, les divisera en plusieurs modules, puis attribuera chaque segment de tâche au modèle le plus adapté.
Pendant l'exécution, le moteur de composition met à jour continuellement l'état de la tâche grâce au mappage d'état (State Mapper), qui transforme les entrées et sorties des modèles en formats de données standard. Ainsi, les informations circulent correctement entre les modèles, évitant les erreurs comme un modèle qui donne une réponse humaine alors que le suivant ne comprend que du code machine.
Un autre élément clé du processus de collaboration est l'arbitre de modèles (Model Arbiter), chargé de résoudre les divergences entre les modèles. Lorsque deux modèles donnent des réponses différentes, l'arbitre prend une décision rapide en fonction du type de tâche, du degré de confiance, des performances passées et des poids du contexte, pour déterminer quelle réponse convient le mieux à la suite du processus.
Si le résultat n'est pas suffisamment certain, l'arbitre émet une nouvelle demande de raisonnement secondaire (Secondary Inference Request), faisant recalculer le modèle, tout en prenant en compte éventuellement des outils externes ou des données sur la chaîne, pour une évaluation complémentaire. Ainsi, le résultat reste équilibré et fiable.
Pour éviter que les modèles ne s'entravent mutuellement, le cœur de KITE utilise une structure particulière appelée graphe de collaboration (Collaboration Graph). Il décrit les dépendances entre les modèles, le flux de données initial, les sorties attendues de chaque modèle, ainsi que l'ordre d'exécution. Ce graphe est mis à jour en temps réel, permettant ainsi au système d'ajuster dynamiquement les combinaisons de modèles sans fixer des chemins rigides.
Ce mécanisme permet aux modèles multiples de fonctionner de manière fluide. Si vous souhaitez accomplir une tâche complexe, par exemple une analyse de produit, vous pouvez exécuter en parallèle des phases de raisonnement, d'abstraction structurée, de validation des données et de génération de texte. Plusieurs modèles travaillent simultanément, et le moteur de composition organise automatiquement l'ordre selon le graphe de collaboration. L'utilisateur n'a pas à s'occuper de la complexité cachée derrière les modèles mixtes.
Un point clé est que le système de collaboration de KITE est adaptatif (Adaptive). Cela signifie qu'à l'ajout d'un nouveau modèle à l'écosystème, il n'est pas nécessaire de modifier le système : il suffit de l'inscrire dans le registre de modèles (Model Registry), et le système peut automatiquement reconnaître les tâches auxquelles il est adapté et le moment optimal pour son intervention.
À mesure que l'écosystème s'élargit, plus il y a de modèles, plus le système devient intelligent, car le graphe de collaboration enregistre toutes les tâches effectuées par les modèles ainsi que leurs performances, générant ainsi des données d'expérience. Ce mécanisme s'appelle la mémoire d'exécution du modèle (Model Execution Memory), c'est-à-dire le journal de travail des versions des modèles, qui devient de plus en plus précis avec le temps.
Une autre avancée concrète du multi-modèle est la conservation des ressources. Vous n'avez pas besoin de faire tout le travail avec un grand modèle. Les petits modèles traitent les tâches structurées, les grands modèles s'occupent des tâches à forte sémantique, les modèles d'outils gèrent les calculs et les vérifications. L'utilisation des ressources informatiques du système est ainsi optimisée.
En matière de sécurité, KITE attribue à chaque appel de modèle une empreinte d'appel (Call Fingerprint), qui enregistre la source, l'entrée, les autorisations et les traces sur la chaîne. Ainsi, les modèles ne peuvent pas appeler des données de manière aléatoire ni être manipulés malicieusement. Le système bloque les appels non conformes, garantissant que la collaboration se déroule uniquement dans un cadre sécurisé.
La différence d'expérience finale est très nette : l'utilisateur soumet une tâche, le modèle s'organise automatiquement, collabore automatiquement, vérifie automatiquement et fusionne automatiquement les résultats, pour produire une réponse claire, complète et cohérente, sans faille logique ni saut inattendu entre les modèles.
La base de KITE consiste en une seule chose : transformer le modèle d'une unité isolée en une organisation, passer du raisonnement linéaire à un traitement multithreadé, faire évoluer les tâches sur la chaîne de blocs de la gestion d'outils vers une collaboration intelligente, afin que l'écosystème fonctionne plus rapidement, plus stablement et plus intelligemment.
La collaboration entre plusieurs modèles est la colonne vertébrale de l'avenir de l'écosystème IA, car aucun modèle seul ne peut résoudre tous les problèmes. Ce qui détermine à quel point le système peut progresser, c'est la capacité des modèles à s'entraider et à se compléter.