← Retour au portfolio
ENFR
Conception d'un Système AI Multi-Agent

Concevoir un système multi-agent
qui apprend de ses propres résultats

J'ai conçu et construit un système de production de contenu à 7 agents avec une logique de routage, des cadres de scoring, des boucles de rétroaction et une itération guidée par les données. Il fonctionne quotidiennement en production.

Partie 1

Le Problème

Utilisateurs cibles : créateurs de vidéos courtes sur les plateformes sociales chinoises (Douyin, Xiaohongshu).

Le problème : la création de contenu implique 6 à 8 décisions séquentielles — quel sujet traiter, s'il vaut la peine d'être produit, quelle structure adopter, comment ouvrir, quel titre choisir, si le texte sonne naturel, et quelles leçons tirer des résultats. Chaque décision exige du jugement. La plupart des créateurs s'appuient sur l'intuition, qui ne passe pas à l'échelle et ne s'améliore pas de façon systématique.

La question produit centrale : peut-on concevoir un système d'agents AI où chaque point de décision repose sur des critères explicites, où les agents se transmettent des données structurées, et où le système améliore la qualité de ses propres décisions au fil du temps grâce à une boucle de rétroaction ?


Partie 2

Architecture du Système

Vue d'ensemble

7 agents spécialisés, connectés via une couche de routage. Chaque agent dispose de :

Le Pipeline

Capture Filtre Script Accroche Titre Publication Analyse Filtre

En parallèle : Contrôle qualité (22 marqueurs d'écriture AI, invocable à toute étape)

Agent 1
Routeur

Dispatching pur. Identifie l'intention de l'utilisateur en une phrase et redirige vers l'agent approprié.

Décision de conception : la couche de routage empêche le système de tout traiter simultanément. En cas de besoins multiples, elle impose une résolution séquentielle — une contrainte délibérée qui reflète la logique de priorisation des équipes produit.

Agent 2 — Le filtre
Filtre de sujet

Décision binaire : passe ou ne passe pas. Conviction centrale : 80 % des contenus médiocres échouent à cause du choix de sujet, pas de l'exécution.

Pourquoi c'est important : dans tout produit AI, l'erreur la plus coûteuse est de construire la mauvaise chose. Cet agent empêche le système d'investir de l'effort dans un contenu voué à l'échec.

FiltreWhat it checksPassKill
1. Écart cognitifCette version a-t-elle une raison d'exister ?Premier arrivé, cadre plus clair, ou expérience de première mainIdentique au contenu existant
2. Vérification des matériauxQuels matériaux bruts ? (données, histoires, citations, échecs)2+ types0 matériau = arrêt
3. Test à trois couchesInfo → Remplacement de cadre → IdentitéLes 3 couches satisfaitesInformation pure sans cadre
4. Validation méthodologiqueCorrespond à une formule prouvée ? Type interdit ?Formule vérifiée avec données historiquesType interdit = arrêt avec citation des données

Décision clé : les filtres s'exécutent séquentiellement, avec validation de l'utilisateur entre chaque étape — pas de traitement par lot. L'agent est un filtre, pas un avocat. Il n'aidera jamais l'utilisateur à justifier un sujet insuffisant.

Dépendance critique : le filtre 4 lit le fichier méthodologique, mis à jour par l'agent d'analyse. C'est la boucle de rétroaction — le filtre devient plus précis avec le temps.

Agent 3
Générateur de script

Génère un script complet d'environ 2,5 minutes une fois le sujet validé par le filtre.

5 phases

  1. Reconfirmation — Vérifie à nouveau l'écart cognitif, le nombre de matériaux et la couche cadre. Arrêt si l'un échoue.
  2. Recherche en bibliothèque — Interroge la bibliothèque de concepts, de citations et de scripts éprouvés avant de générer du nouveau contenu.
  3. Génération — Applique l'un des deux modèles :
    • Modèle A (Écart d'information → Remplacement de cadre → Clôture identitaire) : optimisé pour la portée
    • Modèle B (Problème → Workflow AI → Résultat visible) : optimisé pour les sauvegardes
  4. Archivage — Fichier structuré avec métadonnées (type de contenu, écart cognitif, matériaux utilisés).
  5. Apprentissage du style — Analyse les modifications de l'utilisateur sur 4 dimensions (style d'accroche, ton, structure, appel à l'action) et met à jour un profil de style persistant. Chaque révision est une donnée d'entraînement.

La plupart des outils d'écriture AI génèrent puis oublient. Cet agent traite chaque modification comme un signal d'apprentissage. Après une dizaine de cycles, le style de sortie converge vers la voix propre de l'utilisateur. C'est la différence entre un outil et un produit.

Audit post-génération (7 vérifications)

  1. Force de l'accroche à 3 facteurs (multiplicatif — tout zéro = réécriture)
  2. Détection de marqueurs d'écriture AI
  3. Efficacité d'expression
  4. Lisibilité pour un non-initié
  5. Jargon non expliqué
  6. Chaîne causale entre paragraphes
  7. Lacune informationnelle (connaissances préalables manquantes)
Agent 4
Optimiseur d'accroche

Diagnostique d'abord la qualité du contenu, puis génère 10 à 15 options d'accroche. 90 % des accroches inefficaces ne sont pas un problème de rédaction, mais de contenu.

Cadre d'évaluation — 3 facteurs, multiplicatif

Si l'un des facteurs est à zéro, l'accroche n'a aucune force :

FacteurCe qu'il mesureExemple
Rupture de prédictionL'accroche brise-t-elle l'attente par défaut du spectateur ?Dans les premières secondes, le spectateur ne peut pas deviner la suite
Signal de récompense ou perteLe spectateur peut-il dire ce qu'il obtiendra (ou manquera) en 5 secondes ?« Regarde ça et tu obtiendras X » / « Passe et tu rateras X »
NominationL'accroche donne-t-elle un nom à un sentiment que le spectateur n'arrivait pas à formuler ?Un nouveau nom pour un ressenti flou — dès qu'il est nommé, la confiance s'établit

Pourquoi multiplicatif et non additif : si la rupture de prédiction est nulle (l'accroche est prévisible), la force du signal de récompense n'a aucune importance — le spectateur a déjà scrollé. Les trois facteurs doivent être simultanément non nuls.

Processus de génération

  1. Audit à 3 facteurs de l'accroche existante
  2. Génération de 10 à 15 options via 3 méthodes : extraction de matériaux, enrichissement, création de suspense
  3. Chaque option est étiquetée avec les facteurs qu'elle satisfait
Agent 5
Générateur de titre

Correspondance de titres pilotée par 75 formules virales validées. Chaque titre généré est traçable jusqu'à son numéro de formule et son cas d'origine.

75 formules en 12 catégories

CatégorieMécanisme
Conflit cognitif (1–6)Briser une croyance existante
Écart de curiosité (7–12)Asymétrie d'information
Peur / Perte (13–20)« Ne pas cliquer = manquer quelque chose »
Injection d'identité (21–25)« Ça parle de moi »
Ancrage numérique (26–32)Réduire la charge cognitive
Promesse de résultat (33–40)Résultat concret + délai
+ 6 autres catégories (Controverse, Scène/Condition, Appel à l'action, Autorité, Preuve sociale, Interaction)

Porte de validation : vérifie que le fichier contient les trois composants (script + accroche + titre). Si complet → passage en file de tournage. Si incomplet → blocage avec indication des éléments manquants.

Agent 6
Contrôle qualité

Détection des marqueurs d'écriture AI. 22 patterns, 3 niveaux de sévérité. L'objectif n'est pas d'« éliminer le style AI » mais d'« aider l'utilisateur à trouver sa propre voix ».

Détection : 22 marqueurs (contre-arguments exhaustifs, parallélismes uniformes, zéro hésitation, syntaxe de traduction). Chaque marqueur inclut des seuils de faux positifs selon le genre.

Mode réécriture : ne réécrit pas directement. Pose une question ciblée par marqueur : « Parmi ces phrases parallèles, laquelle exprime le mieux ce que vous vouliez dire ? » Les questions explorent l'intention — pour que l'utilisateur développe sa propre voix plutôt que de remplacer des patterns AI par d'autres patterns AI.

Agent 7 — Le moteur d'apprentissage
Analyse des données

C'est ici que le système apprend. Enregistrer les données, exécuter une méta-analyse, extraire des règles, et mettre à jour le fichier méthodologique.

3 méta-questions obligatoires

  1. Le jugement d'écart cognitif était-il correct ? Confronte les données réelles à la différenciation revendiquée
  2. Le type de contenu était-il le bon ? Par ex., si un contenu « écart d'info » obtient beaucoup de sauvegardes → il était probablement de nature « remplacement de cadre »
  3. Le choix des matériaux a-t-il produit l'effet d'accroche attendu ?

Extraction de règles

Uniquement pour les résultats nettement supérieurs ou inférieurs à la moyenne : phénomène → type de contenu → cause hypothétique → conclusion → direction de vérification suivante. Une règle sans direction de vérification n'est pas intégrée à la méthodologie.

Mise à jour méthodologique

  • Lecture du fichier méthodologique
  • Ajout de preuves de validation ou de contre-exemples
  • Résultat inexplicable → nouvelle formule ou marqué « à valider »
  • Échec persistant → évaluation pour ajout aux types interdits

Cela ferme la boucle : le fichier méthodologique est précisément ce que le filtre de sujet lit. Chaque publication affine les critères qui filtreront la suivante. Le système gagne en précision avec le temps.


Partie 3

Résultats

Ce système fonctionne quotidiennement en production.

110K+
Vues Douyin
3,607
Likes Douyin
7
Types de contenu testés
3
Types supprimés par le système

Le fichier de méthodologie est mis à jour après chaque publication. Le système continue de fonctionner et de s'améliorer.


Partie 4

Ce que cela démontre

Compétence Produit AIOù cela apparaît
Architecture d'agents7 agents avec routage, règles de transmission et contrats entrée/sortie
Ingénierie de promptsChaque agent possède sa propre logique de prompt (formules de scoring, filtres, modèles)
Conception de cadres d'évaluationScoring d'accroche à 3 facteurs multiplicatifs, filtre de sujet à 4 couches, correspondance de titre à 75 formules
Tests A/B et expérimentationTests A/B structurels sur le format de contenu, avec variables contrôlées et conclusions basées sur les métriques
Boucle de rétroaction / itérationAnalyse → mise à jour méthodologique → le filtre lit le fichier actualisé
Décisions guidées par les données3 types de contenu éliminés sur la base des métriques, pas de l'intuition
Pensée recherche utilisateurTest de contenu à 3 couches (information → remplacement de cadre → identité)
Apprentissage du style / personnalisationL'agent script analyse les modifications de l'utilisateur et met à jour un profil de style persistant