
System Szablonów Rendervid - Szablony JSON, Zmienne, Animacje i Przejścia
Kompletny przewodnik po systemie szablonów Rendervid. Dowiedz się, jak tworzyć szablony wideo JSON, używać dynamicznych zmiennych ze składnią {{zmienna}}, konfi...

Dowiedz się, jak zintegrować Rendervid z agentami AI przy użyciu MCP (Model Context Protocol). Generuj wideo z promptów w języku naturalnym za pomocą Claude Code, Cursor, Windsurf i innych. 11 narzędzi MCP do renderowania, walidacji i odkrywania szablonów.
Programowe tworzenie wideo tradycyjnie wymagało głębokiej wiedzy o kodekach wideo, frameworkach animacji i pipeline’ach renderowania. Rendervid eliminuje tę złożoność, akceptując szablony JSON i wyprowadzając gotowe wideo. Kiedy połączysz to z agentami AI, które rozumieją język naturalny, otrzymujesz coś potężnego: możliwość opisania wideo w prostym języku angielskim i otrzymania wyrenderowanego pliku MP4 w zamian.
Rendervid wypełnia lukę między modelami językowymi AI a produkcją wideo. Zamiast pisać kod, projektować klatki kluczowe lub uczyć się edytora wideo, mówisz agentowi AI, czego chcesz. Agent generuje prawidłowy szablon JSON , waliduje go i renderuje ostateczny wynik za pomocą silnika Rendervid. Cały proces odbywa się w jednej rozmowie.
Ta integracja jest zbudowana na Model Context Protocol (MCP), otwartym standardzie, który pozwala narzędziom AI na interakcję z zewnętrznymi usługami poprzez ustrukturyzowany interfejs. Serwer MCP Rendervid udostępnia 11 narzędzi obejmujących renderowanie, walidację, odkrywanie szablonów i dokumentację, dając agentom AI wszystko, czego potrzebują do autonomicznej produkcji profesjonalnych treści wideo.
Model Context Protocol to otwarty standard opracowany w celu zapewnienia asystentom AI ustrukturyzowanego dostępu do zewnętrznych narzędzi i źródeł danych. Zamiast polegać na tym, że modele AI będą zgadywać formaty API lub generować kod wywołujący punkty końcowe REST, MCP zapewnia typowany, odkrywalny interfejs, który agenci AI mogą odpytywać w czasie wykonania.
W przypadku generowania wideo MCP rozwiązuje krytyczny problem: agenci AI muszą wiedzieć, co jest możliwe, zanim będą mogli wygenerować prawidłowe wyjście. Bez MCP model AI musiałby być wytrenowany na konkretnym formacie szablonu Rendervid, znać każdy dostępny preset animacji i rozumieć ograniczenia każdego typu warstwy. Z MCP agent po prostu wywołuje get_capabilities i otrzymuje kompletny opis systemu, w tym schematy JSON dla każdego komponentu.
list_examples w celu znalezienia szablonu początkowego, modyfikując go, wywołując validate_template w celu sprawdzenia go, a następnie wywołując render_video w celu wyprodukowania wyniku. Wszystko w jednej turze rozmowy.Serwer MCP Rendervid udostępnia 11 narzędzi zorganizowanych w trzy kategorie: Renderowanie, Walidacja i Odkrywanie oraz Dokumentacja. Każde narzędzie jest zaprojektowane, aby zapewnić agentom AI maksymalną autonomię podczas generowania treści wideo.
Te narzędzia obsługują rzeczywistą produkcję wideo i obrazów z szablonów JSON.
render_videoGeneruje kompletny plik wideo z szablonu JSON. To podstawowe narzędzie renderowania do produkcji wyjścia MP4, WebM lub MOV.
Parametry:
template (obiekt, wymagany) – Kompletny szablon JSON definiujący sceny, warstwy, animacje i ustawienia wyjściowe.inputs (obiekt, opcjonalny) – Pary klucz-wartość do podstawiania zmiennych szablonu.output_format (ciąg znaków, opcjonalny) – Format wyjściowy: mp4, webm lub mov. Domyślnie mp4.Przykład użycia przez agenta AI:
{
"tool": "render_video",
"arguments": {
"template": {
"outputSettings": {
"width": 1080,
"height": 1920,
"fps": 30,
"duration": 10
},
"scenes": [
{
"duration": 10,
"layers": [
{
"type": "text",
"text": "Summer Sale - 50% Off",
"fontSize": 72,
"fontFamily": "Montserrat",
"color": "#FFFFFF",
"position": { "x": 540, "y": 960 },
"animations": [
{
"type": "fadeInUp",
"duration": 0.8,
"delay": 0.2
}
]
}
]
}
]
},
"output_format": "mp4"
}
}
Zwraca: URL lub ścieżkę do wyrenderowanego pliku wideo.
render_imageGeneruje pojedynczą klatkę lub obraz statyczny z szablonu JSON. Przydatne do tworzenia miniatur, grafik dla mediów społecznościowych, klatek plakatowych i statycznych materiałów marketingowych.
Parametry:
template (obiekt, wymagany) – Szablon JSON definiujący kompozycję obrazu.inputs (obiekt, opcjonalny) – Wartości podstawiania zmiennych szablonu.output_format (ciąg znaków, opcjonalny) – Format wyjściowy: png, jpeg lub webp. Domyślnie png.frame (liczba, opcjonalny) – Która klatka ma być renderowana (do wyodrębnienia konkretnego momentu z animowanego szablonu).Kiedy używać render_image vs render_video:
render_image dla statycznego wyjścia: miniatur, banerów, postów w mediach społecznościowych, slajdów prezentacji.render_video dla wszystkiego z ruchem: animacji, przejść, dźwięku, klipów wideo.start_render_asyncRozpoczyna asynchroniczne zadanie renderowania dla wideo o długim czasie trwania (zazwyczaj powyżej 30 sekund). Zamiast czekać na zakończenie renderowania synchronicznie, to narzędzie zwraca identyfikator zadania, który możesz odpytywać za pomocą check_render_status.
Parametry:
template (obiekt, wymagany) – Kompletny szablon JSON.inputs (obiekt, opcjonalny) – Wartości zmiennych szablonu.output_format (ciąg znaków, opcjonalny) – Pożądany format wyjściowy.Zwraca: Ciąg znaków job_id, który może być użyty z check_render_status i list_render_jobs.
Kiedy używać renderowania asynchronicznego:
check_render_statusSprawdza aktualny status asynchronicznego zadania renderowania rozpoczętego za pomocą start_render_async.
Parametry:
job_id (ciąg znaków, wymagany) – Identyfikator zadania zwrócony przez start_render_async.Zwraca: Obiekt zawierający:
status – Jeden z: queued, rendering, completed lub failed.progress – Procent (0-100) wskazujący postęp renderowania.output_url – URL gotowego wideo (obecny tylko gdy status to completed).error – Komunikat o błędzie, jeśli zadanie nie powiodło się.Przykład przepływu pracy odpytywania:
Agent AI:
1. start_render_async → job_id: "abc-123"
2. check_render_status("abc-123") → status: "rendering", progress: 35
3. check_render_status("abc-123") → status: "rendering", progress: 78
4. check_render_status("abc-123") → status: "completed", output_url: "https://..."
list_render_jobsWyświetla wszystkie asynchroniczne zadania renderowania, zarówno aktywne, jak i zakończone. Przydatne do monitorowania operacji renderowania wsadowego lub przeglądania ostatnich wyników.
Parametry:
status_filter (ciąg znaków, opcjonalny) – Filtruj według statusu: queued, rendering, completed, failed lub all. Domyślnie all.limit (liczba, opcjonalny) – Maksymalna liczba zadań do zwrócenia.Zwraca: Tablicę obiektów zadań, każdy z job_id, status, progress, created_at i output_url (jeśli zakończone).
Te narzędzia pomagają agentom AI zrozumieć, co Rendervid może zrobić i zweryfikować, że szablony są poprawne przed renderowaniem.
validate_templateWaliduje szablon JSON przed renderowaniem. To narzędzie sprawdza strukturę szablonu, typy pól, ograniczenia wartości, a nawet weryfikuje, czy adresy URL multimediów (obrazy, wideo, pliki audio) są dostępne. Uruchomienie walidacji przed renderowaniem zapobiega marnowaniu czasu na szablony, które zawiodłyby podczas procesu renderowania.
Parametry:
template (obiekt, wymagany) – Szablon JSON do walidacji.check_urls (boolean, opcjonalny) – Czy weryfikować dostępność adresów URL multimediów. Domyślnie true.Zwraca: Obiekt zawierający:
valid – Boolean wskazujący, czy szablon jest prawidłowy.errors – Tablica obiektów błędów z path, message i severity dla każdego znalezionego problemu.warnings – Tablica obiektów ostrzeżeń dla problemów niekrytycznych (np. nieużywane zmienne, bardzo duże wymiary).Co wykrywa walidacja:
duration)Przykład odpowiedzi walidacji:
{
"valid": false,
"errors": [
{
"path": "scenes[0].layers[2].src",
"message": "URL returned HTTP 404: https://example.com/missing-image.png",
"severity": "error"
},
{
"path": "scenes[1].duration",
"message": "Scene duration must be a positive number",
"severity": "error"
}
],
"warnings": [
{
"path": "outputSettings.width",
"message": "Width 7680 is very large and may result in slow rendering",
"severity": "warning"
}
]
}
get_capabilitiesZwraca kompleksowy opis wszystkiego, co Rendervid może zrobić. To zazwyczaj pierwsze narzędzie, które agent AI wywołuje, rozpoczynając zadanie generowania wideo. Odpowiedź zawiera dostępne typy warstw, presety animacji, funkcje easingu, filtry, formaty wyjściowe i ich schematy JSON.
Parametry: Brak.
Zwraca: Ustrukturyzowany obiekt zawierający:
layerTypes – Wszystkie dostępne typy warstw (text, image, video, shape, audio, group, lottie, custom) z ich schematami JSON i konfigurowalnymi właściwościami.animations – Wszystkie presety animacji pogrupowane według kategorii (entrance, exit, emphasis, keyframe) z opisami i konfigurowalnymi parametrami.easingFunctions – Wszystkie ponad 30 funkcji easingu z opisami i przykładami użycia.filters – Dostępne filtry wizualne (blur, brightness, contrast, saturate, grayscale, sepia, itp.) z zakresami parametrów.outputFormats – Obsługiwane formaty wyjściowe dla renderowania wideo i obrazów z ich ograniczeniami.inputTypes – Typy zmiennych szablonu i reguły walidacji.sceneTransitions – Wszystkie 17 typów przejść scen z ich parametrami.Dlaczego to narzędzie jest krytyczne dla agentów AI:
Odpowiedź capabilities to samoopisujące się API. Agent AI nie musi być wytrenowany na formacie szablonu Rendervid. Może wywołać get_capabilities w czasie wykonania, otrzymać kompletny schemat i wygenerować prawidłowe szablony przy pierwszej próbie. Gdy Rendervid dodaje nowe funkcje, animacje lub typy warstw, agenci AI automatycznie uzyskują do nich dostęp poprzez to narzędzie bez żadnych zmian w kodzie.
get_exampleŁaduje konkretny przykładowy szablon według nazwy. Agenci AI używają tego do pobrania działającego szablonu jako punktu wyjścia, a następnie modyfikują go, aby dopasować do wymagań użytkownika.
Parametry:
name (ciąg znaków, wymagany) – Nazwa przykładowego szablonu (np. instagram-story, product-showcase, animated-bar-chart).Zwraca: Kompletny szablon JSON dla żądanego przykładu, gotowy do renderowania lub modyfikacji.
Przykład:
Agent AI wywołuje: get_example("instagram-story")
Zwraca: Kompletny szablon Instagram story 1080x1920 z warstwami tekstowymi,
obrazem tła i animacjami wejścia
list_examplesPrzegląda pełny katalog ponad 50 przykładowych szablonów zorganizowanych według kategorii. Agenci AI używają tego do znajdowania odpowiednich szablonów początkowych dla żądania użytkownika.
Parametry:
category (ciąg znaków, opcjonalny) – Filtruj według kategorii (np. social-media, marketing, data-visualization, typography, e-commerce).Zwraca: Tablicę obiektów metadanych przykładów, każdy z:
name – Identyfikator szablonu do użycia z get_example.category – Kategoria szablonu.description – Co szablon tworzy.dimensions – Szerokość i wysokość wyjścia.duration – Czas trwania szablonu w sekundach.Te narzędzia zapewniają szczegółową dokumentację referencyjną, którą agenci AI mogą konsultować podczas konstruowania szablonów.
get_component_docsZwraca szczegółową dokumentację dla konkretnego komponentu lub typu warstwy . Zawiera opisy właściwości, wymagane vs opcjonalne pola, wartości domyślne i przykłady użycia.
Parametry:
component (ciąg znaków, wymagany) – Nazwa komponentu/typu warstwy (np. text, image, video, shape, audio, group, lottie, custom, AnimatedLineChart, TypewriterEffect).Zwraca: Kompleksową dokumentację zawierającą:
get_animation_docsZwraca kompletną dokumentację efektów animacji, w tym wszystkie presety animacji wejścia, wyjścia, nacisku i klatek kluczowych.
Parametry:
animation (ciąg znaków, opcjonalny) – Konkretna nazwa animacji, dla której uzyskać szczegółową dokumentację (np. fadeInUp, bounceIn, slideOutLeft). Jeśli pominięto, zwraca pełny katalog animacji.Zwraca: Dokumentację animacji zawierającą:
get_component_defaultsZwraca wartości domyślne i pełny schemat JSON dla konkretnego typu komponentu. Agenci AI używają tego do zrozumienia, jak wygląda minimalny prawidłowy komponent i jakie właściwości mogą nadpisać.
Parametry:
component (ciąg znaków, wymagany) – Nazwa komponentu/typu warstwy.Zwraca: Obiekt JSON z:
defaults – Kompletne wartości domyślne dla każdej właściwościschema – Schemat JSON definiujący strukturę, typy i ograniczenia komponenturequired – Lista wymaganych właściwościPrzykład odpowiedzi dla warstwy tekstowej:
{
"defaults": {
"type": "text",
"text": "",
"fontSize": 24,
"fontFamily": "Arial",
"color": "#000000",
"fontWeight": "normal",
"textAlign": "center",
"position": { "x": 0, "y": 0 },
"opacity": 1,
"rotation": 0,
"animations": []
},
"required": ["type", "text"],
"schema": {
"type": "object",
"properties": {
"text": { "type": "string", "description": "The text content to display" },
"fontSize": { "type": "number", "minimum": 1, "maximum": 500 },
"fontFamily": { "type": "string", "description": "Google Font name or system font" },
"color": { "type": "string", "pattern": "^#[0-9a-fA-F]{6}$" }
}
}
}
get_easing_docsZwraca kompletną dokumentację dla wszystkich dostępnych funkcji easingu. Funkcje easingu kontrolują krzywą przyspieszenia animacji, określając, czy zaczynają się wolno, kończą wolno, odbijają się lub podążają za krzywą elastyczną.
Parametry:
easing (ciąg znaków, opcjonalny) – Konkretna nazwa funkcji easingu dla szczegółowej dokumentacji. Jeśli pominięto, zwraca pełną listę.Zwraca: Dokumentację dla każdej funkcji easingu zawierającą:
easeInOutCubic, easeOutBounce, spring)Podłączenie Rendervid do narzędzia AI wymaga dodania serwera MCP do konfiguracji narzędzia. Proces konfiguracji różni się nieznacznie między narzędziami, ale podstawowa koncepcja jest taka sama: wskaż narzędziu AI punkt wejścia serwera MCP Rendervid.
Przed skonfigurowaniem dowolnego narzędzia AI upewnij się, że masz:
git clone https://github.com/AceDZN/rendervid.git
cd rendervid
npm install
cd mcp
npm install
npm run build
# macOS
brew install ffmpeg
# Ubuntu/Debian
sudo apt install ffmpeg
# Windows (z Chocolatey)
choco install ffmpeg
Dodaj serwer MCP Rendervid do pliku konfiguracyjnego Claude Desktop.
Lokalizacja pliku konfiguracyjnego:
~/Library/Application Support/Claude/claude_desktop_config.json%APPDATA%\Claude\claude_desktop_config.json~/.config/Claude/claude_desktop_config.jsonKonfiguracja:
{
"mcpServers": {
"rendervid": {
"command": "node",
"args": ["/path/to/rendervid/mcp/build/index.js"],
"env": {}
}
}
}
Zamień /path/to/rendervid na rzeczywistą ścieżkę do instalacji Rendervid.
Dla Claude Code (CLI), dodaj tę samą konfigurację do pliku .claude/mcp.json projektu lub globalnych ustawień Claude Code. Claude Code automatycznie wykryje serwer MCP i udostępni wszystkie 11 narzędzi podczas sesji kodowania.
Po zapisaniu konfiguracji uruchom ponownie Claude Desktop lub Claude Code. Możesz zweryfikować połączenie, pytając Claude: “Jakie narzędzia Rendervid są dostępne?” Claude powinien wyświetlić wszystkie 11 narzędzi MCP.
Dodaj serwer MCP Rendervid do konfiguracji MCP Cursora.
Plik konfiguracyjny: .cursor/mcp.json w katalogu głównym projektu (lub globalne ustawienia Cursora).
{
"mcpServers": {
"rendervid": {
"command": "node",
"args": ["/path/to/rendervid/mcp/build/index.js"]
}
}
}
Po zapisaniu uruchom ponownie Cursor. Narzędzia Rendervid będą dostępne w asystencie AI Cursora, umożliwiając generowanie wideo bezpośrednio z edytora.
Windsurf obsługuje serwery MCP poprzez swoją konfigurację AI. Dodaj serwer Rendervid do ustawień MCP Windsurf:
{
"mcpServers": {
"rendervid": {
"command": "node",
"args": ["/path/to/rendervid/mcp/build/index.js"]
}
}
}
Zapoznaj się z dokumentacją Windsurf, aby poznać dokładną lokalizację pliku konfiguracyjnego, ponieważ może się ona różnić w zależności od wersji i systemu operacyjnego.
Każde narzędzie, które implementuje specyfikację klienta MCP, może połączyć się z serwerem MCP Rendervid. Serwer komunikuje się przez stdio (standardowe wejście/wyjście), co jest domyślnym transportem MCP.
Aby zintegrować z niestandardowym klientem MCP:
node /path/to/rendervid/mcp/build/index.js
tools/list, aby odkryć dostępne narzędzia.tools/call z nazwą narzędzia i argumentami, aby wykonać dowolne narzędzie.Serwer MCP jest bezstanowy. Każde wywołanie narzędzia jest niezależne, a serwer może obsługiwać równoczesne żądania od wielu klientów.
Poniższe przykłady pokazują, jak agenci AI używają narzędzi MCP Rendervid, aby przejść od promptu w języku naturalnym do gotowego wideo.
Prompt użytkownika: “Stwórz 10-sekundową Instagram story promującą letnią wyprzedaż z animowanym tekstem i gradientowym tłem”
Przepływ pracy agenta AI:
Krok 1 – Odkryj możliwości:
Agent wywołuje get_capabilities, aby dowiedzieć się o dostępnych typach warstw, presetach animacji i ograniczeniach wyjściowych. Odkrywa, że dostępne są warstwy text i shape, istnieją animacje fadeInUp i scaleIn, a Instagram stories używają rozdzielczości 1080x1920.
Krok 2 – Znajdź szablon początkowy:
Agent wywołuje list_examples z category: "social-media" i znajduje szablon instagram-story. Następnie wywołuje get_example("instagram-story"), aby załadować pełny JSON szablonu.
Krok 3 – Zbuduj szablon:
Używając przykładu jako odniesienia, agent konstruuje niestandardowy szablon:
{
"outputSettings": {
"width": 1080,
"height": 1920,
"fps": 30,
"duration": 10
},
"scenes": [
{
"duration": 10,
"layers": [
{
"type": "shape",
"shapeType": "rectangle",
"width": 1080,
"height": 1920,
"gradient": {
"type": "linear",
"angle": 135,
"stops": [
{ "color": "#FF6B35", "position": 0 },
{ "color": "#F72585", "position": 0.5 },
{ "color": "#7209B7", "position": 1 }
]
}
},
{
"type": "text",
"text": "SUMMER SALE",
"fontSize": 96,
"fontFamily": "Montserrat",
"fontWeight": "bold",
"color": "#FFFFFF",
"position": { "x": 540, "y": 700 },
"animations": [
{ "type": "fadeInUp", "duration": 0.8, "delay": 0.3 }
]
},
{
"type": "text",
"text": "50% OFF EVERYTHING",
"fontSize": 64,
"fontFamily": "Montserrat",
"color": "#FFE066",
"position": { "x": 540, "y": 850 },
"animations": [
{ "type": "fadeInUp", "duration": 0.8, "delay": 0.6 }
]
},
{
"type": "text",
"text": "Shop Now →",
"fontSize": 48,
"fontFamily": "Montserrat",
"color": "#FFFFFF",
"position": { "x": 540, "y": 1200 },
"animations": [
{ "type": "scaleIn", "duration": 0.6, "delay": 1.2 }
]
}
]
}
]
}
Krok 4 – Waliduj:
Agent wywołuje validate_template z JSON szablonu. Odpowiedź wraca jako valid: true bez błędów.
Krok 5 – Renderuj:
Agent wywołuje render_video ze zwalidowanym szablonem i otrzymuje URL do gotowego pliku MP4.
Prompt użytkownika: “Wygeneruj wideo prezentacji produktu dla naszych nowych słuchawek. Użyj tego obrazu produktu: https://example.com/headphones.png . Nazwa produktu to ‘SoundPro X1’, a cena to $299.”
Przepływ pracy agenta AI:
get_capabilities – Dowiaduje się o warstwach obrazów, stylizacji tekstu i opcjach animacji.list_examples – Znajduje szablon product-showcase w kategorii e-commerce.get_example("product-showcase") – Ładuje kompletny szablon prezentacji produktu, który używa zmiennych szablonu
dla nazwy produktu, obrazu i ceny.inputs danymi produktu użytkownika:{
"inputs": {
"productName": "SoundPro X1",
"productImage": "https://example.com/headphones.png",
"price": "$299",
"tagline": "Premium Sound, Redefined"
}
}
validate_template – Weryfikuje szablon i potwierdza, że https://example.com/headphones.png jest dostępny.render_video – Produkuje finalne wideo prezentacji produktu.Ten przepływ pracy demonstruje, jak agenci AI wykorzystują zmienne szablonu do tworzenia spersonalizowanych treści z szablonów wielokrotnego użytku. Ten sam szablon prezentacji produktu może wygenerować setki unikalnych wideo poprzez zamianę danych wejściowych.
Prompt użytkownika: “Stwórz animowany wykres słupkowy pokazujący kwartalne przychody: Q1: $1.2M, Q2: $1.8M, Q3: $2.1M, Q4: $2.7M”
Przepływ pracy agenta AI:
get_capabilities – Odkrywa typ warstwy custom i wbudowany komponent
AnimatedLineChart.get_component_docs("AnimatedLineChart") – Czyta dokumentację komponentu wykresu, ucząc się o formacie danych, konfiguracji kolorów, etykietach osi i opcjach animacji.get_component_defaults("AnimatedLineChart") – Otrzymuje wartości domyślne i schemat JSON, aby zrozumieć minimalną wymaganą konfigurację.{
"type": "custom",
"component": "AnimatedLineChart",
"props": {
"data": [
{ "label": "Q1", "value": 1200000 },
{ "label": "Q2", "value": 1800000 },
{ "label": "Q3", "value": 2100000 },
{ "label": "Q4", "value": 2700000 }
],
"colors": ["#4361EE", "#3A0CA3", "#7209B7", "#F72585"],
"title": "Quarterly Revenue 2025",
"yAxisLabel": "Revenue (USD)",
"animationDuration": 2
}
}
validate_template – Potwierdza, że struktura szablonu jest poprawna.render_video – Generuje wideo animowanego wykresu.Narzędzie get_capabilities jest kamieniem węgielnym integracji AI Rendervid. Implementuje wzorzec samoopisującego się API, gdzie system mówi agentom AI dokładnie, co może zrobić, jakie parametry są wymagane i jakie wartości są prawidłowe. To eliminuje potrzebę zapamiętywania lub trenowania modeli AI na konkretnym API Rendervid.
Gdy agent AI wywołuje get_capabilities, otrzymuje ustrukturyzowaną odpowiedź obejmującą każdy aspekt systemu renderowania:
Typy Warstw ze Schematami JSON:
{
"layerTypes": {
"text": {
"description": "Renders text with full styling control",
"schema": {
"properties": {
"text": { "type": "string", "required": true },
"fontSize": { "type": "number", "default": 24, "min": 1, "max": 500 },
"fontFamily": { "type": "string", "default": "Arial" },
"color": { "type": "string", "format": "hex-color" },
"position": { "type": "object", "properties": { "x": {}, "y": {} } },
"animations": { "type": "array", "items": { "$ref": "#/animations" } }
}
}
},
"image": { "..." : "..." },
"video": { "..." : "..." },
"shape": { "..." : "..." },
"audio": { "..." : "..." },
"group": { "..." : "..." },
"lottie": { "..." : "..." },
"custom": { "..." : "..." }
}
}
Presety Animacji:
Odpowiedź capabilities wymienia każdy preset animacji z jego kategorią, konfigurowalnymi parametrami i opisem. Agent AI otrzymujący te dane wie, że fadeInUp to animacja wejścia z parametrami duration, delay i easing, i że przesuwa element w górę, jednocześnie go rozjaśniając.
Funkcje Easingu:
Wszystkie ponad 30 funkcji easingu jest wymienionych z opisami, więc agent AI może wybrać odpowiednią krzywą dla każdej animacji. Na przykład easeOutBounce jest opisywany jako symulujący efekt odbicia na końcu animacji, który agent może polecić dla treści zabawnych lub przyciągających uwagę.
Filtry i Efekty:
Filtry wizualne takie jak blur, brightness, contrast, saturate, grayscale i sepia są udokumentowane z zakresami parametrów, pozwalając agentowi AI stosować efekty postprocessingu do dowolnej warstwy.
Tradycyjne API wymagają dokumentacji, którą modele AI mogły lub nie widzieć podczas treningu. Samoopisujące się API dostarcza dokumentację w czasie wykonania, zapewniając, że agent AI zawsze ma aktualne, dokładne informacje. Gdy Rendervid dodaje nowy preset animacji lub typ warstwy, każdy podłączony agent AI natychmiast go widzi poprzez get_capabilities. Bez aktualizacji dokumentacji, bez ponownego treningu, bez niezgodności wersji.
Postępuj zgodnie z tymi wytycznymi, aby uzyskać najlepsze wyniki podczas używania agentów AI do generowania wideo Rendervid.
Wywołaj validate_template przed każdym renderowaniem. Renderowanie jest obliczeniowo kosztowne, a walidacja jest niemal natychmiastowa. Narzędzie walidacji wychwytuje problemy, które spowodowałyby niepowodzenie renderowania lub nieoczekiwane wyjście:
Typowy przepływ pracy AI powinien zawsze zawierać walidację jako krok przed wywołaniem render_video lub render_image.
Zamiast budować szablony od zera, agenci AI powinni używać list_examples i get_example, aby znaleźć odpowiedni szablon początkowy. Przykładowe szablony są przetestowane i wiadomo, że produkują dobre wyjście. Rozpoczęcie od przykładu i jego modyfikacja jest szybsza i mniej podatna na błędy niż generowanie całkowicie nowej struktury szablonu.
Zalecane podejście:
list_examples z odpowiednią kategoriąget_example dla najbliższego pasującego szablonuPodczas żądania wideo od agenta AI, bądź konkretny co do:
Generowanie wideo jest iteracyjne. Po pierwszym renderowaniu przejrzyj wynik i poproś agenta AI o dostosowanie konkretnych elementów:
Agent AI może modyfikować istniejący szablon i ponownie renderować bez rozpoczynania od nowa, czyniąc iterację szybką i efektywną.
Jeśli potrzebujesz wielu wariantów tego samego wideo (różne produkty, różne języki, różne dane), poproś agenta AI o stworzenie szablonu ze zmiennymi
. To pozwala renderować wiele wideo z jednego szablonu poprzez przekazywanie różnych inputs:
{
"inputs": {
"productName": "Running Shoes Pro",
"productImage": "https://example.com/shoes.png",
"price": "$149",
"tagline": "Run Faster, Go Further"
}
}
Dla wideo dłuższych niż 30 sekund lub szablonów ze złożonymi animacjami, użyj start_render_async zamiast render_video. To zapobiega przekroczeniu limitu czasu i pozwala agentowi AI wykonywać inne zadania, podczas gdy wideo renderuje się w tle.
Rendervid zawiera ponad 100 przykładowych szablonów obejmujących 32 kategorie, dając agentom AI bogatą bibliotekę punktów startowych dla dowolnego zadania generowania wideo.
Przepływ pracy odkrywania szablonów używa dwóch narzędzi w sekwencji:
list_examples – Przeglądaj katalog z opcjonalnym filtrowaniem kategorii, aby znaleźć odpowiednie szablony.get_example – Załaduj pełny szablon JSON dla konkretnego przykładu.Agenci AI mogą filtrować przykłady według kategorii, aby szybko znaleźć odpowiednie punkty startowe:
| Kategoria | Opis | Przykładowe Szablony |
|---|---|---|
social-media | Treści zoptymalizowane pod platformy | Instagram story, wideo TikTok, miniatura YouTube |
e-commerce | Treści produktowe i sprzedażowe | Prezentacja produktu, błyskawiczna wyprzedaż, porównanie cen |
marketing | Materiały promocyjne | Intro marki, testimonial, wyróżnienie funkcji |
data-visualization | Wykresy i infografiki | Wykres słupkowy, wykres liniowy, wykres kołowy, dashboard |
typography | Projekty skupione na tekście | Tekst kinetyczny, karty cytatów, sekwencje tytułowe |
education | Materiały edukacyjne | Wideo wyjaśniające, samouczek krok po kroku, diagram |
presentation | Treści w stylu slajdów | Slajdy pitch deck, intro konferencyjne, keynote |
abstract | Efekty wizualne i sztuka | Systemy cząstek, wizualizacje fal, gradienty |
Gdy użytkownik prosi o “animowany wykres pokazujący dane sprzedaży”, agent AI:
list_examples(category: "data-visualization") i otrzymuje listę szablonów związanych z wykresami.animated-bar-chart jako najlepsze dopasowanie na podstawie opisu.get_example("animated-bar-chart"), aby załadować kompletny szablon.To podejście oparte na odkrywaniu oznacza, że agenci AI konsekwentnie produkują dobrze ustrukturyzowane szablony, ponieważ budują na przetestowanych przykładach, zamiast generować JSON szablonu od zera.
Aby zobaczyć każdy dostępny szablon, agent AI może wywołać list_examples bez filtra kategorii. Odpowiedź zawiera metadane dla wszystkich ponad 100 szablonów, pozwalając agentowi przeszukiwać kategorie w poszukiwaniu najlepszego dopasowania. Każdy wpis zawiera nazwę szablonu, kategorię, opis, wymiary i czas trwania, dając agentowi wystarczająco dużo informacji do podjęcia świadomej decyzji.
Serwer MCP Rendervid działa z dowolnym narzędziem, które implementuje specyfikację klienta Model Context Protocol. Następujące narzędzia zostały przetestowane i potwierdzone jako działające z Rendervid:
| Narzędzie AI | Typ | Wsparcie MCP | Plik Konfiguracyjny |
|---|---|---|---|
| Claude Desktop | Aplikacja desktopowa | Natywne | claude_desktop_config.json |
| Claude Code | CLI | Natywne | .claude/mcp.json |
| Cursor | IDE | Natywne | .cursor/mcp.json |
| Windsurf | IDE | Natywne | Ustawienia MCP |
| Google Antigravite | IDE w chmurze | Natywne | Ustawienia MCP |
Ponieważ MCP jest otwartym standardem, każde przyszłe narzędzie, które doda wsparcie klienta MCP, będzie automatycznie kompatybilne z serwerem MCP Rendervid. Nie są wymagane żadne zmiany w serwerze ani jego narzędziach.
Rendervid udostępnia serwer MCP (Model Context Protocol) z 11 narzędziami, które agenci AI mogą używać do generowania wideo. Agenci AI tacy jak Claude Code, Cursor i Windsurf mogą odkrywać dostępne funkcje, przeglądać przykładowe szablony, walidować szablony i renderować wideo - wszystko poprzez komendy w języku naturalnym.
Rendervid współpracuje z dowolnym narzędziem kompatybilnym z MCP, w tym Claude Desktop, Claude Code (CLI), Cursor IDE, Windsurf IDE i Google Antigravite. Serwer MCP udostępnia standaryzowany interfejs, który może być używany przez dowolnego klienta MCP.
Dodaj serwer MCP Rendervid do konfiguracji Claude Desktop (claude_desktop_config.json), określając ścieżkę do pliku index.js serwera MCP. Po skonfigurowaniu Claude może automatycznie odkryć i używać wszystkich 11 narzędzi renderowania.
Tak, narzędzie validate_template sprawdza strukturę szablonu, typy pól, a nawet waliduje adresy URL multimediów, aby upewnić się, że są dostępne. To zapobiega błędom renderowania i pomaga agentom AI wykrywać błędy przed poświęceniem czasu na renderowanie.
Wszystko, od treści w mediach społecznościowych (Instagram stories, wideo TikTok, miniatury YouTube) po materiały marketingowe (prezentacje produktów, ogłoszenia wyprzedaży), wizualizacje danych (animowane wykresy), treści edukacyjne i wiele więcej. Agent AI tworzy szablon JSON na podstawie Twojego opisu w języku naturalnym i renderuje go do wideo lub obrazu.
Narzędzie get_capabilities zwraca kompletne informacje o dostępnych typach warstw, presetach animacji, funkcjach easingu, filtrach, typach wejściowych i formatach wyjściowych - wszystko ze schematami JSON. To pozwala agentom AI dokładnie zrozumieć, co jest możliwe i generować prawidłowe szablony bez zakodowanej wiedzy o API.
Pomagamy firmom takim jak Twoja rozwijać inteligentne chatboty, serwery MCP, narzędzia AI lub inne rodzaje automatyzacji AI, aby zastąpić człowieka w powtarzalnych zadaniach w Twojej organizacji.

Kompletny przewodnik po systemie szablonów Rendervid. Dowiedz się, jak tworzyć szablony wideo JSON, używać dynamicznych zmiennych ze składnią {{zmienna}}, konfi...

Zintegruj FlowHunt z serwerem json2video-mcp, aby zautomatyzować programistyczne generowanie wideo, zarządzać własnymi szablonami oraz połączyć przepływy pracy ...

Poznaj wszystko, co musisz wiedzieć o aplikacji Sora-2 — jej możliwości, zastosowania oraz porównanie z czołowymi generatorami wideo AI. Dowiedz się, jak zacząć...