J'ai conçu et construit un système de production de contenu à 7 agents avec une logique de routage, des cadres de scoring, des boucles de rétroaction et une itération guidée par les données. Il fonctionne quotidiennement en production.
Utilisateurs cibles : créateurs de vidéos courtes sur les plateformes sociales chinoises (Douyin, Xiaohongshu).
Le problème : la création de contenu implique 6 à 8 décisions séquentielles — quel sujet traiter, s'il vaut la peine d'être produit, quelle structure adopter, comment ouvrir, quel titre choisir, si le texte sonne naturel, et quelles leçons tirer des résultats. Chaque décision exige du jugement. La plupart des créateurs s'appuient sur l'intuition, qui ne passe pas à l'échelle et ne s'améliore pas de façon systématique.
La question produit centrale : peut-on concevoir un système d'agents AI où chaque point de décision repose sur des critères explicites, où les agents se transmettent des données structurées, et où le système améliore la qualité de ses propres décisions au fil du temps grâce à une boucle de rétroaction ?
7 agents spécialisés, connectés via une couche de routage. Chaque agent dispose de :
En parallèle : Contrôle qualité (22 marqueurs d'écriture AI, invocable à toute étape)
Dispatching pur. Identifie l'intention de l'utilisateur en une phrase et redirige vers l'agent approprié.
Décision de conception : la couche de routage empêche le système de tout traiter simultanément. En cas de besoins multiples, elle impose une résolution séquentielle — une contrainte délibérée qui reflète la logique de priorisation des équipes produit.
Décision binaire : passe ou ne passe pas. Conviction centrale : 80 % des contenus médiocres échouent à cause du choix de sujet, pas de l'exécution.
Pourquoi c'est important : dans tout produit AI, l'erreur la plus coûteuse est de construire la mauvaise chose. Cet agent empêche le système d'investir de l'effort dans un contenu voué à l'échec.
| Filtre | What it checks | Pass | Kill |
|---|---|---|---|
| 1. Écart cognitif | Cette version a-t-elle une raison d'exister ? | Premier arrivé, cadre plus clair, ou expérience de première main | Identique au contenu existant |
| 2. Vérification des matériaux | Quels matériaux bruts ? (données, histoires, citations, échecs) | 2+ types | 0 matériau = arrêt |
| 3. Test à trois couches | Info → Remplacement de cadre → Identité | Les 3 couches satisfaites | Information pure sans cadre |
| 4. Validation méthodologique | Correspond à une formule prouvée ? Type interdit ? | Formule vérifiée avec données historiques | Type interdit = arrêt avec citation des données |
Décision clé : les filtres s'exécutent séquentiellement, avec validation de l'utilisateur entre chaque étape — pas de traitement par lot. L'agent est un filtre, pas un avocat. Il n'aidera jamais l'utilisateur à justifier un sujet insuffisant.
Dépendance critique : le filtre 4 lit le fichier méthodologique, mis à jour par l'agent d'analyse. C'est la boucle de rétroaction — le filtre devient plus précis avec le temps.
Génère un script complet d'environ 2,5 minutes une fois le sujet validé par le filtre.
La plupart des outils d'écriture AI génèrent puis oublient. Cet agent traite chaque modification comme un signal d'apprentissage. Après une dizaine de cycles, le style de sortie converge vers la voix propre de l'utilisateur. C'est la différence entre un outil et un produit.
Diagnostique d'abord la qualité du contenu, puis génère 10 à 15 options d'accroche. 90 % des accroches inefficaces ne sont pas un problème de rédaction, mais de contenu.
Si l'un des facteurs est à zéro, l'accroche n'a aucune force :
| Facteur | Ce qu'il mesure | Exemple |
|---|---|---|
| Rupture de prédiction | L'accroche brise-t-elle l'attente par défaut du spectateur ? | Dans les premières secondes, le spectateur ne peut pas deviner la suite |
| Signal de récompense ou perte | Le spectateur peut-il dire ce qu'il obtiendra (ou manquera) en 5 secondes ? | « Regarde ça et tu obtiendras X » / « Passe et tu rateras X » |
| Nomination | L'accroche donne-t-elle un nom à un sentiment que le spectateur n'arrivait pas à formuler ? | Un nouveau nom pour un ressenti flou — dès qu'il est nommé, la confiance s'établit |
Pourquoi multiplicatif et non additif : si la rupture de prédiction est nulle (l'accroche est prévisible), la force du signal de récompense n'a aucune importance — le spectateur a déjà scrollé. Les trois facteurs doivent être simultanément non nuls.
Correspondance de titres pilotée par 75 formules virales validées. Chaque titre généré est traçable jusqu'à son numéro de formule et son cas d'origine.
| Catégorie | Mécanisme |
|---|---|
| Conflit cognitif (1–6) | Briser une croyance existante |
| Écart de curiosité (7–12) | Asymétrie d'information |
| Peur / Perte (13–20) | « Ne pas cliquer = manquer quelque chose » |
| Injection d'identité (21–25) | « Ça parle de moi » |
| Ancrage numérique (26–32) | Réduire la charge cognitive |
| Promesse de résultat (33–40) | Résultat concret + délai |
| + 6 autres catégories (Controverse, Scène/Condition, Appel à l'action, Autorité, Preuve sociale, Interaction) | |
Porte de validation : vérifie que le fichier contient les trois composants (script + accroche + titre). Si complet → passage en file de tournage. Si incomplet → blocage avec indication des éléments manquants.
Détection des marqueurs d'écriture AI. 22 patterns, 3 niveaux de sévérité. L'objectif n'est pas d'« éliminer le style AI » mais d'« aider l'utilisateur à trouver sa propre voix ».
Détection : 22 marqueurs (contre-arguments exhaustifs, parallélismes uniformes, zéro hésitation, syntaxe de traduction). Chaque marqueur inclut des seuils de faux positifs selon le genre.
Mode réécriture : ne réécrit pas directement. Pose une question ciblée par marqueur : « Parmi ces phrases parallèles, laquelle exprime le mieux ce que vous vouliez dire ? » Les questions explorent l'intention — pour que l'utilisateur développe sa propre voix plutôt que de remplacer des patterns AI par d'autres patterns AI.
C'est ici que le système apprend. Enregistrer les données, exécuter une méta-analyse, extraire des règles, et mettre à jour le fichier méthodologique.
Uniquement pour les résultats nettement supérieurs ou inférieurs à la moyenne : phénomène → type de contenu → cause hypothétique → conclusion → direction de vérification suivante. Une règle sans direction de vérification n'est pas intégrée à la méthodologie.
Cela ferme la boucle : le fichier méthodologique est précisément ce que le filtre de sujet lit. Chaque publication affine les critères qui filtreront la suivante. Le système gagne en précision avec le temps.
Ce système fonctionne quotidiennement en production.
Le fichier de méthodologie est mis à jour après chaque publication. Le système continue de fonctionner et de s'améliorer.
| Compétence Produit AI | Où cela apparaît |
|---|---|
| Architecture d'agents | 7 agents avec routage, règles de transmission et contrats entrée/sortie |
| Ingénierie de prompts | Chaque agent possède sa propre logique de prompt (formules de scoring, filtres, modèles) |
| Conception de cadres d'évaluation | Scoring d'accroche à 3 facteurs multiplicatifs, filtre de sujet à 4 couches, correspondance de titre à 75 formules |
| Tests A/B et expérimentation | Tests A/B structurels sur le format de contenu, avec variables contrôlées et conclusions basées sur les métriques |
| Boucle de rétroaction / itération | Analyse → mise à jour méthodologique → le filtre lit le fichier actualisé |
| Décisions guidées par les données | 3 types de contenu éliminés sur la base des métriques, pas de l'intuition |
| Pensée recherche utilisateur | Test de contenu à 3 couches (information → remplacement de cadre → identité) |
| Apprentissage du style / personnalisation | L'agent script analyse les modifications de l'utilisateur et met à jour un profil de style persistant |