top of page

Quatre Leçons Surprenantes de l'Architecture de ConfiGPT

  • Photo du rédacteur: Rob Stoltz
    Rob Stoltz
  • 29 oct.
  • 5 min de lecture

Construire des systèmes d'IA de qualité professionnelle est notoirement difficile. Les développeurs se heurtent constamment à des défis comme le manque de fiabilité des agents, où des plans complexes en plusieurs étapes échouent fréquemment, et des résultats incohérents qui minent la confiance de l'utilisateur. Ces problèmes, associés à l'explosion des coûts opérationnels, peuvent paralyser un projet avant même qu'il ne produise de la valeur.


Au cours de l'architecture de la plateforme sophistiquée et multi-locataire ConfiGPT, nous avons rencontré ces mêmes obstacles. Les surmonter nous a cependant révélé plusieurs principes de conception contre-intuitifs mais puissants qui sont devenus centraux dans notre architecture.

Cet article partage quatre des enseignements architecturaux les plus surprenants et les plus percutants de ce parcours.

1. La Fonctionnalité la Plus Importante Que Nous Avons Ajoutée a Été de Supprimer des Fonctionnalités


Notre conception initiale de l'interface de chat principale offrait aux utilisateurs finaux un degré élevé de contrôle. La page comportait de nombreux curseurs et cases à cocher, leur permettant d'affiner des paramètres comme la « créativité » de l'IA (température), d'activer la Génération Augmentée de Récupération (RAG), et de sélectionner des outils d'automatisation spécifiques pour chaque requête. Nous pensions que donner cette flexibilité aux utilisateurs était une fonctionnalité essentielle. Nous avions tort.


Le changement architectural critique s'est produit lorsque nous avons retiré toutes ces commandes complexes de la page de chat quotidienne. À la place, nous avons fait de la page Administration de l'Espace de Travail le nouveau centre, où les administrateurs (comme les chefs de département) configurent tous les paramètres par défaut — tels que la température, les réglages RAG et l'utilisation des outils — pour chacun des espaces de travail de leur équipe.


Cette décision de supprimer les contrôles individuels est une leçon essentielle pour une IA d'entreprise fiable. La centralisation de la configuration atteint trois objectifs clés pour un dirigeant d'entreprise :


  • Assure la Cohérence des Résultats : Tous les utilisateurs d'un espace de travail bénéficient d'une expérience IA fiable et prévisible, ce qui est essentiel pour les opérations commerciales.

  • Simplifie l'Expérience Utilisateur : L'interface de chat devient claire et se concentre sur l'objectif de l'utilisateur (faire le travail), et non sur un ensemble complexe de paramètres techniques.

  • Permet la Gouvernance et le Contrôle des Coûts : Les administrateurs obtiennent un contrôle granulaire sur le comportement de l'IA et, surtout, sur les coûts associés par équipe.


En fin de compte, nous avons délibérément sacrifié la flexibilité granulaire au niveau de l'utilisateur en faveur de la gouvernance du système, de la prévisibilité et d'une expérience utilisateur simplifiée – un compromis essentiel pour tout déploiement réussi en entreprise.


2. Pour Construire un Agent Plus Intelligent, Nous Avons Construit des Outils Plus Intelligents


L'un des points de défaillance des Agents IA (l'IA qui agit) est de compter sur le "planificateur" de l'IA pour raisonner à travers de longues séquences d'actions simples. Un plan fragile comme rechercher site A -> lire page B -> rechercher site C est sujet aux erreurs et lent. Pour contrer cela, nous avons adopté un principe : « Des Outils Plus Intelligents, Pas Seulement un Cerveau Plus Intelligent. »


Au lieu d'essayer de rendre l'IA planificatrice plus intelligente, nous nous sommes concentrés sur le fait de rendre les outils qu'elle utilise plus capables. Notre outil de lecture web multi-pages en est l'exemple parfait. Plutôt que de demander à l'agent de créer un plan fragile en plusieurs étapes pour rechercher un sujet, cet outil unique et de haut niveau encapsule l'ensemble du sous-processus. Lorsqu'il est appelé, il effectue toutes les étapes nécessaires en interne (par exemple, rechercher, identifier, lire trois pages et consolider le texte).


Cette approche transforme le travail de l'agent. Une tâche de recherche complexe qui était auparavant un pari fragile en 7 étapes devient un plan simple et très fiable en 2 étapes : appeler l'outil intelligent pour collecter des informations, puis appeler un outil de synthèse pour générer la réponse finale. Cela améliore considérablement la fiabilité de l'agent en lui permettant d'opérer sur des commandes puissantes et robustes.


3. Le Meilleur Agent a Deux Cerveaux : Un pour la Planification, Un pour l'Exécution


Notre architecture d'agent IA utilise une stratégie à double modèle étonnamment efficace pour équilibrer coût et performance. Au lieu d'utiliser un seul modèle d'IA puissant et coûteux pour chaque tâche, l'agent utilise deux types de modèles distincts, chacun ayant un rôle spécialisé : un « Architecte » pour la planification et un « Spécialiste » pour l'exécution.


L'« Architecte », ou Modèle Planificateur de l'Agent, n'a qu'un seul travail : le raisonnement. Il prend l'objectif de haut niveau de l'utilisateur et élabore le plan étape par étape nécessaire pour l'atteindre. Étant donné qu'un plan de haute qualité est la base de la réussite, ce rôle exige le modèle le plus puissant disponible.


Le « Spécialiste », ou Modèle par Défaut, gère l'exécution et la synthèse. Il effectue le « sale boulot », comme prendre un grand bloc de texte d'un outil et en faire un simple résumé. Cette tâche est plus simple, ce qui nous permet d'utiliser un modèle plus rapide et plus rentable pour le travail.


Cette approche à « deux cerveaux » est une optimisation puissante. Elle garantit que le modèle coûteux et à haut raisonnement n'est utilisé que pour la tâche la plus critique — la création du plan — tandis qu'un modèle moins cher et plus rapide gère les étapes d'exécution moins exigeantes. Cela atteint un équilibre optimal entre performance et coût, rendant l'agent à la fois très performant et économiquement viable pour votre entreprise.


4. Le Secret de Résultats de Haute Qualité n'est pas Seulement une Meilleure Recherche — C'est le Reclassement (Reranking)


Un processus RAG (l'IA utilisant vos documents) standard implique souvent une seule recherche pour trouver des morceaux de documents pertinents. Bien qu'efficace, cela peut encore introduire des informations non pertinentes, souvent appelées « bruit ».


Notre pipeline RAG améliore considérablement cela en utilisant d'abord la Recherche Hybride (combinant la recherche par mot-clé et la recherche conceptuelle) pour une meilleure récupération initiale. Mais le vrai secret est la deuxième étape cruciale que nous avons ajoutée : le reclassement (reranking).


Voici comment cela fonctionne : le système récupère d'abord un grand ensemble de documents candidats. Il utilise ensuite un service interne spécialisé pour réorganiser ces documents en fonction de leur pertinence directe par rapport à votre question exacte, poussant les informations les plus percutantes vers le haut et filtrant le bruit.


Ce deuxième passage change la donne pour le RAG en entreprise. Il améliore considérablement la qualité du contexte envoyé à l'IA, ce qui se traduit par des réponses plus précises et moins « hallucinées ». Pour nous, cette étape supplémentaire est un engagement profond envers la qualité et la sécurité des données de vos processus internes.

Prochaine Étape : Graphes de Connaissances Ontologiques – L'Évolution « Neurosymbolique » de Notre Système RAG : Ceci implique la construction d'un nouveau service pour extraire et stocker des relations structurées afin de fournir des réponses factuelles et vérifiables à nos clients qui ont besoin d'une certitude absolue et de résultats auditables.

Conclusion


Le parcours de construction d'une plateforme d'IA sophistiquée nous a appris que les solutions les plus efficaces ne sont pas toujours les plus évidentes. En privilégiant la gouvernance par un contrôle centralisé, en construisant des outils plus intelligents pour réduire la complexité des agents, en optimisant les coûts avec une stratégie d'agent à double modèle et en garantissant la qualité avec une étape de reclassement avancée dans notre pipeline RAG, nous avons créé un système plus robuste et fiable.


Ces principes architecturaux sont devenus la base de ConfiGPT.

Alors que nous construisons la prochaine génération de plateformes d'IA, notre parcours suggère une question critique : le chemin vers une plus grande intelligence se trouve-t-il dans un modèle plus puissant, ou dans un système plus intelligent conçu pour l'orchestrer ?


Copyright (c) 2025 OCIM Cybersécurité Informatique. All rights reserved.
bottom of page