
Système de Templates Rendervid - Templates JSON, Variables, Animations et Transitions
Guide complet du système de templates Rendervid. Apprenez à créer des templates vidéo JSON, utiliser des variables dynamiques avec la syntaxe {{variable}}, conf...

Apprenez à intégrer Rendervid avec des agents IA en utilisant MCP (Model Context Protocol). Générez des vidéos à partir de commandes en langage naturel avec Claude Code, Cursor, Windsurf, et plus encore. 11 outils MCP pour le rendu, la validation et la découverte de modèles.
Créer des vidéos de manière programmatique a traditionnellement nécessité une connaissance approfondie des codecs vidéo, des frameworks d’animation et des pipelines de rendu. Rendervid élimine cette complexité en acceptant des modèles JSON et en produisant des vidéos finies. Lorsque vous combinez cela avec des agents IA qui comprennent le langage naturel, vous obtenez quelque chose de puissant : la capacité de décrire une vidéo en anglais simple et de recevoir un MP4 rendu en retour.
Rendervid comble le fossé entre les modèles de langage IA et la production vidéo. Au lieu d’écrire du code, de concevoir des images clés ou d’apprendre un éditeur vidéo, vous dites à un agent IA ce que vous voulez. L’agent génère un modèle JSON valide, le valide et effectue le rendu de la sortie finale via le moteur de Rendervid. L’ensemble du processus se déroule en une seule conversation.
Cette intégration est construite sur le Model Context Protocol (MCP), un standard ouvert qui permet aux outils IA d’interagir avec des services externes via une interface structurée. Le serveur MCP de Rendervid expose 11 outils couvrant le rendu, la validation, la découverte de modèles et la documentation, donnant aux agents IA tout ce dont ils ont besoin pour produire du contenu vidéo professionnel de manière autonome.
Le Model Context Protocol est un standard ouvert développé pour donner aux assistants IA un accès structuré à des outils et sources de données externes. Plutôt que de compter sur les modèles IA pour deviner les formats d’API ou générer du code qui appelle des points de terminaison REST, MCP fournit une interface typée et découvrable que les agents IA peuvent interroger à l’exécution.
Pour la génération vidéo, MCP résout un problème critique : les agents IA doivent savoir ce qui est possible avant de pouvoir générer une sortie valide. Sans MCP, un modèle IA devrait être entraîné sur le format de modèle spécifique de Rendervid, connaître chaque préréglage d’animation disponible et comprendre les contraintes de chaque type de calque. Avec MCP, l’agent appelle simplement get_capabilities et reçoit une description complète du système, incluant les schémas JSON pour chaque composant.
list_examples pour trouver un modèle de départ, le modifier, appeler validate_template pour le vérifier, puis appeler render_video pour produire la sortie. Tout cela en un seul tour de conversation.Le serveur MCP de Rendervid expose 11 outils organisés en trois catégories : Rendu, Validation et découverte, et Documentation. Chaque outil est conçu pour donner aux agents IA une autonomie maximale lors de la génération de contenu vidéo.
Ces outils gèrent la production réelle de sorties vidéo et image à partir de modèles JSON.
render_videoGénère un fichier vidéo complet à partir d’un modèle JSON. C’est l’outil de rendu principal pour produire des sorties MP4, WebM ou MOV.
Paramètres :
template (objet, requis) – Le modèle JSON complet définissant les scènes, calques, animations et paramètres de sortie.inputs (objet, optionnel) – Paires clé-valeur pour la substitution de variables de modèle.output_format (chaîne, optionnel) – Format de sortie : mp4, webm ou mov. Par défaut mp4.Exemple d’utilisation par un agent IA :
{
"tool": "render_video",
"arguments": {
"template": {
"outputSettings": {
"width": 1080,
"height": 1920,
"fps": 30,
"duration": 10
},
"scenes": [
{
"duration": 10,
"layers": [
{
"type": "text",
"text": "Soldes d'été - 50% de réduction",
"fontSize": 72,
"fontFamily": "Montserrat",
"color": "#FFFFFF",
"position": { "x": 540, "y": 960 },
"animations": [
{
"type": "fadeInUp",
"duration": 0.8,
"delay": 0.2
}
]
}
]
}
]
},
"output_format": "mp4"
}
}
Retourne : Une URL ou un chemin de fichier vers le fichier vidéo rendu.
render_imageGénère une seule image ou image fixe à partir d’un modèle JSON. Utile pour créer des miniatures, des graphiques pour réseaux sociaux, des affiches et des supports marketing statiques.
Paramètres :
template (objet, requis) – Le modèle JSON définissant la composition de l’image.inputs (objet, optionnel) – Valeurs de substitution de variables de modèle.output_format (chaîne, optionnel) – Format de sortie : png, jpeg ou webp. Par défaut png.frame (nombre, optionnel) – Quelle image rendre (pour extraire un moment spécifique d’un modèle animé).Quand utiliser render_image vs render_video :
render_image pour une sortie statique : miniatures, bannières, publications sur réseaux sociaux, diapositives de présentation.render_video pour tout ce qui comporte du mouvement : animations, transitions, audio, clips vidéo.start_render_asyncDémarre un travail de rendu asynchrone pour les vidéos de longue durée (généralement plus de 30 secondes). Au lieu d’attendre que le rendu se termine de manière synchrone, cet outil retourne un ID de travail que vous pouvez interroger avec check_render_status.
Paramètres :
template (objet, requis) – Le modèle JSON complet.inputs (objet, optionnel) – Valeurs de variables de modèle.output_format (chaîne, optionnel) – Format de sortie souhaité.Retourne : Une chaîne job_id qui peut être utilisée avec check_render_status et list_render_jobs.
Quand utiliser le rendu asynchrone :
check_render_statusVérifie le statut actuel d’un travail de rendu asynchrone démarré avec start_render_async.
Paramètres :
job_id (chaîne, requis) – L’ID de travail retourné par start_render_async.Retourne : Un objet contenant :
status – Un parmi queued, rendering, completed ou failed.progress – Un pourcentage (0-100) indiquant la progression du rendu.output_url – L’URL de la vidéo terminée (présente uniquement lorsque status est completed).error – Message d’erreur si le travail a échoué.Exemple de flux d’interrogation :
Agent IA :
1. start_render_async → job_id: "abc-123"
2. check_render_status("abc-123") → status: "rendering", progress: 35
3. check_render_status("abc-123") → status: "rendering", progress: 78
4. check_render_status("abc-123") → status: "completed", output_url: "https://..."
list_render_jobsListe tous les travaux de rendu asynchrones, à la fois actifs et terminés. Utile pour surveiller les opérations de rendu par lots ou examiner les sorties récentes.
Paramètres :
status_filter (chaîne, optionnel) – Filtrer par statut : queued, rendering, completed, failed ou all. Par défaut all.limit (nombre, optionnel) – Nombre maximum de travaux à retourner.Retourne : Un tableau d’objets de travaux, chacun avec job_id, status, progress, created_at et output_url (si terminé).
Ces outils aident les agents IA à comprendre ce que Rendervid peut faire et à vérifier que les modèles sont corrects avant le rendu.
validate_templateValide un modèle JSON avant le rendu. Cet outil vérifie la structure du modèle, les types de champs, les contraintes de valeur, et vérifie même que les URL de médias (images, vidéos, fichiers audio) sont accessibles. Exécuter la validation avant le rendu évite de perdre du temps sur des modèles qui échoueraient pendant le processus de rendu.
Paramètres :
template (objet, requis) – Le modèle JSON à valider.check_urls (booléen, optionnel) – S’il faut vérifier que les URL de médias sont accessibles. Par défaut true.Retourne : Un objet contenant :
valid – Booléen indiquant si le modèle est valide.errors – Tableau d’objets d’erreur avec path, message et severity pour chaque problème trouvé.warnings – Tableau d’objets d’avertissement pour les problèmes non critiques (par ex., variables inutilisées, dimensions très grandes).Ce que la validation détecte :
duration)Exemple de réponse de validation :
{
"valid": false,
"errors": [
{
"path": "scenes[0].layers[2].src",
"message": "L'URL a retourné HTTP 404 : https://example.com/missing-image.png",
"severity": "error"
},
{
"path": "scenes[1].duration",
"message": "La durée de la scène doit être un nombre positif",
"severity": "error"
}
],
"warnings": [
{
"path": "outputSettings.width",
"message": "La largeur 7680 est très grande et peut entraîner un rendu lent",
"severity": "warning"
}
]
}
get_capabilitiesRetourne une description complète de tout ce que Rendervid peut faire. C’est généralement le premier outil qu’un agent IA appelle lors du démarrage d’une tâche de génération vidéo. La réponse inclut les types de calques disponibles, les préréglages d’animation, les fonctions d’accélération, les filtres, les formats de sortie et leurs schémas JSON.
Paramètres : Aucun.
Retourne : Un objet structuré contenant :
layerTypes – Tous les types de calques disponibles (text, image, video, shape, audio, group, lottie, custom) avec leurs schémas JSON et propriétés configurables.animations – Tous les préréglages d’animation groupés par catégorie (entrance, exit, emphasis, keyframe) avec descriptions et paramètres configurables.easingFunctions – Toutes les 30+ fonctions d’accélération avec descriptions et exemples d’utilisation.filters – Filtres visuels disponibles (blur, brightness, contrast, saturate, grayscale, sepia, etc.) avec plages de paramètres.outputFormats – Formats de sortie pris en charge pour le rendu vidéo et image avec leurs contraintes.inputTypes – Types de variables de modèle et règles de validation.sceneTransitions – Tous les 17 types de transitions de scène avec leurs paramètres.Pourquoi cet outil est critique pour les agents IA :
La réponse des capacités est une API auto-descriptive. Un agent IA n’a pas besoin d’être pré-entraîné sur le format de modèle de Rendervid. Il peut appeler get_capabilities à l’exécution, recevoir le schéma complet et générer des modèles valides dès sa première tentative. Lorsque Rendervid ajoute de nouveaux préréglages d’animation ou types de calques, tous les agents IA connectés y ont automatiquement accès via cet outil sans aucun changement de code.
get_exampleCharge un modèle d’exemple spécifique par nom. Les agents IA utilisent cela pour récupérer un modèle fonctionnel comme point de départ, puis le modifier pour correspondre aux exigences de l’utilisateur.
Paramètres :
name (chaîne, requis) – Le nom du modèle d’exemple (par ex., instagram-story, product-showcase, animated-bar-chart).Retourne : Le modèle JSON complet pour l’exemple demandé, prêt à être rendu ou modifié.
Exemple :
L'agent IA appelle : get_example("instagram-story")
Retourne : Modèle complet de story Instagram 1080x1920 avec calques de texte,
image de fond et animations d'entrée
list_examplesParcourt le catalogue complet de plus de 50 modèles d’exemple organisés par catégorie. Les agents IA utilisent cela pour trouver des modèles de départ pertinents pour la demande de l’utilisateur.
Paramètres :
category (chaîne, optionnel) – Filtrer par catégorie (par ex., social-media, marketing, data-visualization, typography, e-commerce).Retourne : Un tableau d’objets de métadonnées d’exemple, chacun avec :
name – Identifiant de modèle à utiliser avec get_example.category – Catégorie du modèle.description – Ce que le modèle crée.dimensions – Largeur et hauteur de sortie.duration – Durée du modèle en secondes.Ces outils fournissent une documentation de référence détaillée que les agents IA peuvent consulter lors de la construction de modèles.
get_component_docsRetourne une documentation détaillée pour un composant ou type de calque spécifique. Inclut les descriptions de propriétés, les champs requis vs optionnels, les valeurs par défaut et les exemples d’utilisation.
Paramètres :
component (chaîne, requis) – Le nom du composant/type de calque (par ex., text, image, video, shape, audio, group, lottie, custom, AnimatedLineChart, TypewriterEffect).Retourne : Documentation complète incluant :
get_animation_docsRetourne la référence complète des effets d’animation, incluant tous les préréglages d’animation d’entrée, de sortie, d’emphase et d’images clés.
Paramètres :
animation (chaîne, optionnel) – Nom d’animation spécifique pour obtenir une documentation détaillée (par ex., fadeInUp, bounceIn, slideOutLeft). Si omis, retourne le catalogue complet d’animations.Retourne : Documentation d’animation incluant :
get_component_defaultsRetourne les valeurs par défaut et le schéma JSON complet pour un type de composant spécifique. Les agents IA utilisent cela pour comprendre à quoi ressemble un composant valide minimal et quelles propriétés ils peuvent remplacer.
Paramètres :
component (chaîne, requis) – Le nom du composant/type de calque.Retourne : Un objet JSON avec :
defaults – Valeurs par défaut complètes pour chaque propriétéschema – Schéma JSON définissant la structure, les types et les contraintes du composantrequired – Liste des propriétés requisesExemple de réponse pour un calque de texte :
{
"defaults": {
"type": "text",
"text": "",
"fontSize": 24,
"fontFamily": "Arial",
"color": "#000000",
"fontWeight": "normal",
"textAlign": "center",
"position": { "x": 0, "y": 0 },
"opacity": 1,
"rotation": 0,
"animations": []
},
"required": ["type", "text"],
"schema": {
"type": "object",
"properties": {
"text": { "type": "string", "description": "Le contenu textuel à afficher" },
"fontSize": { "type": "number", "minimum": 1, "maximum": 500 },
"fontFamily": { "type": "string", "description": "Nom de police Google ou police système" },
"color": { "type": "string", "pattern": "^#[0-9a-fA-F]{6}$" }
}
}
}
get_easing_docsRetourne la référence complète pour toutes les fonctions d’accélération disponibles. Les fonctions d’accélération contrôlent la courbe d’accélération des animations, déterminant si elles commencent lentement, se terminent lentement, rebondissent ou suivent une courbe élastique.
Paramètres :
easing (chaîne, optionnel) – Nom de fonction d’accélération spécifique pour une documentation détaillée. Si omis, retourne la liste complète.Retourne : Documentation pour chaque fonction d’accélération incluant :
easeInOutCubic, easeOutBounce, spring)Connecter Rendervid à votre outil IA nécessite d’ajouter le serveur MCP à la configuration de votre outil. Le processus de configuration varie légèrement entre les outils, mais le concept de base est le même : pointer votre outil IA vers le point d’entrée du serveur MCP de Rendervid.
Avant de configurer un outil IA, assurez-vous d’avoir :
git clone https://github.com/AceDZN/rendervid.git
cd rendervid
npm install
cd mcp
npm install
npm run build
# macOS
brew install ffmpeg
# Ubuntu/Debian
sudo apt install ffmpeg
# Windows (avec Chocolatey)
choco install ffmpeg
Ajoutez le serveur MCP Rendervid à votre fichier de configuration Claude Desktop.
Emplacement du fichier de configuration :
~/Library/Application Support/Claude/claude_desktop_config.json%APPDATA%\Claude\claude_desktop_config.json~/.config/Claude/claude_desktop_config.jsonConfiguration :
{
"mcpServers": {
"rendervid": {
"command": "node",
"args": ["/path/to/rendervid/mcp/build/index.js"],
"env": {}
}
}
}
Remplacez /path/to/rendervid par le chemin réel vers votre installation Rendervid.
Pour Claude Code (CLI), ajoutez la même configuration à votre fichier .claude/mcp.json du projet ou à vos paramètres globaux Claude Code. Claude Code détectera automatiquement le serveur MCP et exposera les 11 outils pendant vos sessions de codage.
Après avoir enregistré la configuration, redémarrez Claude Desktop ou Claude Code. Vous pouvez vérifier la connexion en demandant à Claude : “Quels outils Rendervid sont disponibles ?” Claude devrait lister les 11 outils MCP.
Ajoutez le serveur MCP Rendervid à la configuration MCP de Cursor.
Fichier de configuration : .cursor/mcp.json à la racine de votre projet (ou paramètres globaux Cursor).
{
"mcpServers": {
"rendervid": {
"command": "node",
"args": ["/path/to/rendervid/mcp/build/index.js"]
}
}
}
Après avoir enregistré, redémarrez Cursor. Les outils Rendervid seront disponibles dans l’assistant IA de Cursor, vous permettant de générer des vidéos directement depuis votre éditeur.
Windsurf prend en charge les serveurs MCP via sa configuration IA. Ajoutez le serveur Rendervid à vos paramètres MCP Windsurf :
{
"mcpServers": {
"rendervid": {
"command": "node",
"args": ["/path/to/rendervid/mcp/build/index.js"]
}
}
}
Consultez la documentation de Windsurf pour l’emplacement exact du fichier de configuration, car il peut varier selon la version et le système d’exploitation.
Tout outil qui implémente la spécification client MCP peut se connecter au serveur MCP de Rendervid. Le serveur communique via stdio (entrée/sortie standard), qui est le transport MCP par défaut.
Pour intégrer avec un client MCP personnalisé :
node /path/to/rendervid/mcp/build/index.js
tools/list pour découvrir les outils disponibles.tools/call avec le nom de l’outil et les arguments pour exécuter n’importe quel outil.Le serveur MCP est sans état. Chaque appel d’outil est indépendant, et le serveur peut gérer des requêtes simultanées de plusieurs clients.
Les exemples suivants montrent comment les agents IA utilisent les outils MCP de Rendervid pour passer d’une commande en langage naturel à une vidéo terminée.
Commande utilisateur : “Créer une story Instagram de 10 secondes faisant la promotion de soldes d’été avec du texte animé et un fond dégradé”
Flux de travail de l’agent IA :
Étape 1 – Découvrir les capacités :
L’agent appelle get_capabilities pour en savoir plus sur les types de calques disponibles, les préréglages d’animation et les contraintes de sortie. Il découvre que les calques text et shape sont disponibles, que les animations fadeInUp et scaleIn existent, et que les stories Instagram utilisent une résolution de 1080x1920.
Étape 2 – Trouver un modèle de départ :
L’agent appelle list_examples avec category: "social-media" et trouve un modèle instagram-story. Il appelle ensuite get_example("instagram-story") pour charger le JSON complet du modèle.
Étape 3 – Construire le modèle :
En utilisant l’exemple comme référence, l’agent construit un modèle personnalisé :
{
"outputSettings": {
"width": 1080,
"height": 1920,
"fps": 30,
"duration": 10
},
"scenes": [
{
"duration": 10,
"layers": [
{
"type": "shape",
"shapeType": "rectangle",
"width": 1080,
"height": 1920,
"gradient": {
"type": "linear",
"angle": 135,
"stops": [
{ "color": "#FF6B35", "position": 0 },
{ "color": "#F72585", "position": 0.5 },
{ "color": "#7209B7", "position": 1 }
]
}
},
{
"type": "text",
"text": "SOLDES D'ÉTÉ",
"fontSize": 96,
"fontFamily": "Montserrat",
"fontWeight": "bold",
"color": "#FFFFFF",
"position": { "x": 540, "y": 700 },
"animations": [
{ "type": "fadeInUp", "duration": 0.8, "delay": 0.3 }
]
},
{
"type": "text",
"text": "50% DE RÉDUCTION SUR TOUT",
"fontSize": 64,
"fontFamily": "Montserrat",
"color": "#FFE066",
"position": { "x": 540, "y": 850 },
"animations": [
{ "type": "fadeInUp", "duration": 0.8, "delay": 0.6 }
]
},
{
"type": "text",
"text": "Acheter maintenant →",
"fontSize": 48,
"fontFamily": "Montserrat",
"color": "#FFFFFF",
"position": { "x": 540, "y": 1200 },
"animations": [
{ "type": "scaleIn", "duration": 0.6, "delay": 1.2 }
]
}
]
}
]
}
Étape 4 – Valider :
L’agent appelle validate_template avec le JSON du modèle. La réponse revient comme valid: true sans erreurs.
Étape 5 – Rendre :
L’agent appelle render_video avec le modèle validé et reçoit une URL vers le fichier MP4 terminé.
Commande utilisateur : “Générer une vidéo de présentation de produit pour nos nouveaux écouteurs. Utiliser cette image de produit : https://example.com/headphones.png . Le nom du produit est ‘SoundPro X1’ et le prix est 299 $.”
Flux de travail de l’agent IA :
get_capabilities – Apprend sur les calques d’image, le style de texte et les options d’animation.list_examples – Trouve un modèle product-showcase dans la catégorie e-commerce.get_example("product-showcase") – Charge le modèle complet de présentation de produit, qui utilise des variables de modèle
pour le nom du produit, l’image et le prix.inputs avec les données de produit de l’utilisateur :{
"inputs": {
"productName": "SoundPro X1",
"productImage": "https://example.com/headphones.png",
"price": "299 $",
"tagline": "Son premium, redéfini"
}
}
validate_template – Vérifie le modèle et confirme que https://example.com/headphones.png est accessible.render_video – Produit la vidéo finale de présentation de produit.Ce flux de travail démontre comment les agents IA exploitent les variables de modèle pour créer du contenu personnalisé à partir de modèles réutilisables. Le même modèle de présentation de produit peut générer des centaines de vidéos uniques en changeant simplement les entrées.
Commande utilisateur : “Créer un graphique à barres animé montrant les revenus trimestriels : T1 : 1,2 M$, T2 : 1,8 M$, T3 : 2,1 M$, T4 : 2,7 M$”
Flux de travail de l’agent IA :
get_capabilities – Découvre le type de calque custom et le composant
intégré AnimatedLineChart.get_component_docs("AnimatedLineChart") – Lit la documentation du composant graphique, apprenant sur le format de données, la configuration des couleurs, les étiquettes d’axe et les options d’animation.get_component_defaults("AnimatedLineChart") – Obtient les valeurs par défaut et le schéma JSON pour comprendre la configuration minimale requise.{
"type": "custom",
"component": "AnimatedLineChart",
"props": {
"data": [
{ "label": "T1", "value": 1200000 },
{ "label": "T2", "value": 1800000 },
{ "label": "T3", "value": 2100000 },
{ "label": "T4", "value": 2700000 }
],
"colors": ["#4361EE", "#3A0CA3", "#7209B7", "#F72585"],
"title": "Revenus trimestriels 2025",
"yAxisLabel": "Revenus (USD)",
"animationDuration": 2
}
}
validate_template – Confirme que la structure du modèle est correcte.render_video – Génère la vidéo de graphique animé.L’outil get_capabilities est la pierre angulaire de l’intégration IA de Rendervid. Il implémente un modèle d’API auto-descriptive, où le système indique aux agents IA exactement ce qu’il peut faire, quels paramètres sont requis et quelles valeurs sont valides. Cela élimine le besoin pour les modèles IA de mémoriser ou d’être entraînés sur l’API spécifique de Rendervid.
Lorsqu’un agent IA appelle get_capabilities, il reçoit une réponse structurée couvrant chaque aspect du système de rendu :
Types de calques avec schémas JSON :
{
"layerTypes": {
"text": {
"description": "Rend du texte avec un contrôle complet du style",
"schema": {
"properties": {
"text": { "type": "string", "required": true },
"fontSize": { "type": "number", "default": 24, "min": 1, "max": 500 },
"fontFamily": { "type": "string", "default": "Arial" },
"color": { "type": "string", "format": "hex-color" },
"position": { "type": "object", "properties": { "x": {}, "y": {} } },
"animations": { "type": "array", "items": { "$ref": "#/animations" } }
}
}
},
"image": { "..." : "..." },
"video": { "..." : "..." },
"shape": { "..." : "..." },
"audio": { "..." : "..." },
"group": { "..." : "..." },
"lottie": { "..." : "..." },
"custom": { "..." : "..." }
}
}
Préréglages d’animation :
La réponse des capacités liste chaque préréglage d’animation avec sa catégorie, ses paramètres configurables et sa description. Un agent IA recevant ces données sait que fadeInUp est une animation d’entrée avec des paramètres duration, delay et easing, et qu’elle déplace l’élément vers le haut tout en le faisant apparaître en fondu.
Fonctions d’accélération :
Toutes les 30+ fonctions d’accélération sont listées avec des descriptions, afin que l’agent IA puisse sélectionner la bonne courbe pour chaque animation. Par exemple, easeOutBounce est décrit comme simulant un effet de rebond à la fin de l’animation, que l’agent peut recommander pour du contenu ludique ou accrocheur.
Filtres et effets :
Les filtres visuels comme blur, brightness, contrast, saturate, grayscale et sepia sont documentés avec leurs plages de paramètres, permettant à l’agent IA d’appliquer des effets de post-traitement à n’importe quel calque.
Les API traditionnelles nécessitent une documentation que les modèles IA peuvent ou non avoir vue pendant l’entraînement. Une API auto-descriptive fournit la documentation à l’exécution, garantissant que l’agent IA dispose toujours d’informations actuelles et précises. Lorsque Rendervid ajoute un nouveau préréglage d’animation ou type de calque, chaque agent IA connecté le voit immédiatement via get_capabilities. Pas de mises à jour de documentation, pas de réentraînement, pas de désaccords de version.
Suivez ces directives pour obtenir les meilleurs résultats lors de l’utilisation d’agents IA pour générer des vidéos Rendervid.
Appelez validate_template avant chaque rendu. Le rendu est coûteux en calcul, et la validation est presque instantanée. L’outil de validation détecte les problèmes qui causeraient l’échec d’un rendu ou produiraient une sortie inattendue :
Un flux de travail IA typique devrait toujours inclure la validation comme étape avant d’appeler render_video ou render_image.
Au lieu de construire des modèles à partir de zéro, les agents IA devraient utiliser list_examples et get_example pour trouver un modèle de départ pertinent. Les modèles d’exemple sont testés et connus pour produire une bonne sortie. Partir d’un exemple et le modifier est plus rapide et moins sujet aux erreurs que de générer une structure de modèle entièrement nouvelle.
Approche recommandée :
list_examples avec une catégorie pertinenteget_example pour le modèle le plus procheLors de la demande de vidéos à un agent IA, soyez précis sur :
La génération vidéo est itérative. Après le premier rendu, examinez la sortie et demandez à l’agent IA d’ajuster des éléments spécifiques :
L’agent IA peut modifier le modèle existant et effectuer un nouveau rendu sans recommencer, rendant l’itération rapide et efficace.
Si vous avez besoin de plusieurs variations de la même vidéo (produits différents, langues différentes, données différentes), demandez à l’agent IA de créer un modèle avec des variables
. Cela vous permet de rendre de nombreuses vidéos à partir d’un seul modèle en passant différents inputs :
{
"inputs": {
"productName": "Chaussures de course Pro",
"productImage": "https://example.com/shoes.png",
"price": "149 $",
"tagline": "Courir plus vite, aller plus loin"
}
}
Pour les vidéos de plus de 30 secondes ou les modèles avec des animations complexes, utilisez start_render_async au lieu de render_video. Cela évite les expirations de délai et permet à l’agent IA d’effectuer d’autres tâches pendant que la vidéo est rendue en arrière-plan.
Rendervid inclut plus de 100 modèles d’exemple couvrant 32 catégories, donnant aux agents IA une riche bibliothèque de points de départ pour toute tâche de génération vidéo.
Le flux de travail de découverte de modèles utilise deux outils en séquence :
list_examples – Parcourir le catalogue avec filtrage optionnel par catégorie pour trouver des modèles pertinents.get_example – Charger le modèle JSON complet pour un exemple spécifique.Les agents IA peuvent filtrer les exemples par catégorie pour trouver rapidement des points de départ pertinents :
| Catégorie | Description | Exemples de modèles |
|---|---|---|
social-media | Contenu optimisé pour les plateformes | Story Instagram, vidéo TikTok, miniature YouTube |
e-commerce | Contenu produit et ventes | Présentation de produit, vente flash, comparaison de prix |
marketing | Supports promotionnels | Intro de marque, témoignage, mise en avant de fonctionnalité |
data-visualization | Graphiques et infographies | Graphique à barres, graphique linéaire, diagramme circulaire, tableau de bord |
typography | Designs axés sur le texte | Texte cinétique, cartes de citation, séquences de titres |
education | Supports d’apprentissage | Vidéo explicative, tutoriel étape par étape, diagramme |
presentation | Contenu de style diapositive | Diapositives de pitch, intro de conférence, présentation principale |
abstract | Effets visuels et art | Systèmes de particules, visualisations d’ondes, dégradés |
Lorsqu’un utilisateur demande “un graphique animé montrant des données de ventes”, l’agent IA :
list_examples(category: "data-visualization") et reçoit une liste de modèles liés aux graphiques.animated-bar-chart comme la meilleure correspondance basée sur la description.get_example("animated-bar-chart") pour charger le modèle complet.Cette approche axée sur la découverte signifie que les agents IA produisent systématiquement des modèles bien structurés car ils s’appuient sur des exemples testés plutôt que de générer du JSON de modèle à partir de zéro.
Pour voir tous les modèles disponibles, un agent IA peut appeler list_examples sans filtre de catégorie. La réponse inclut des métadonnées pour tous les 100+ modèles, permettant à l’agent de rechercher dans toutes les catégories la meilleure correspondance. Chaque entrée inclut le nom du modèle, la catégorie, la description, les dimensions et la durée, donnant à l’agent suffisamment d’informations pour faire une sélection éclairée.
Le serveur MCP de Rendervid fonctionne avec tout outil qui implémente la spécification client du Model Context Protocol. Les outils suivants ont été testés et confirmés pour fonctionner avec Rendervid :
| Outil IA | Type | Support MCP | Fichier de configuration |
|---|---|---|---|
| Claude Desktop | Application de bureau | Natif | claude_desktop_config.json |
| Claude Code | CLI | Natif | .claude/mcp.json |
| Cursor | IDE | Natif | .cursor/mcp.json |
| Windsurf | IDE | Natif | Paramètres MCP |
| Google Antigravite | IDE Cloud | Natif | Paramètres MCP |
Parce que MCP est un standard ouvert, tout futur outil qui ajoute le support client MCP sera automatiquement compatible avec le serveur MCP de Rendervid. Aucun changement au serveur ou à ses outils n’est requis.
Nous aidons les entreprises comme la vôtre à développer des chatbots intelligents, des serveurs MCP, des outils d'IA ou d'autres types d'automatisation par IA pour remplacer l'humain dans les tâches répétitives de votre organisation.

Guide complet du système de templates Rendervid. Apprenez à créer des templates vidéo JSON, utiliser des variables dynamiques avec la syntaxe {{variable}}, conf...

Découvrez tout ce qu’il faut savoir sur l’application Sora-2xa0: ses capacités, ses cas d’utilisation et sa comparaison avec les principaux générateurs vidéo IA...

Intégrez FlowHunt avec le serveur Creatify MCP pour automatiser la génération de vidéos avatar IA, simplifier les flux de travail vidéo et améliorer la création...
Consentement aux Cookies
Nous utilisons des cookies pour améliorer votre expérience de navigation et analyser notre trafic. See our privacy policy.