LLM Meta AI
LLM Meta AI w FlowHunt łączy modele Llama firmy Meta i dziesiątki innych modeli AI w jednym, łatwym do kontrolowania panelu do elastycznego generowania tekstu i obrazów.

Opis komponentu
Jak działa komponent LLM Meta AI
Czym jest komponent LLM Meta AI?
Komponent LLM Meta AI łączy rodzinę modeli Claude z Twoim Flow. Choć cała magia dzieje się w Generatorach i Agentach, to komponenty LLM pozwalają kontrolować używany model. Wszystkie komponenty domyślnie korzystają z ChatGPT-4. Możesz podłączyć ten komponent, jeśli chcesz zmienić model lub uzyskać nad nim większą kontrolę.

Pamiętaj, że podłączenie komponentu LLM jest opcjonalne. Wszystkie komponenty korzystające z LLM mają domyślnie ChatGPT-4o. Komponenty LLM pozwalają zmienić model i kontrolować jego ustawienia.
Ustawienia komponentu LLM Meta AI
Maksymalna liczba tokenów
Tokeny to pojedyncze jednostki tekstu, które model przetwarza i generuje. Zużycie tokenów zależy od modelu, a pojedynczy token może oznaczać słowo, fragment słowa lub nawet pojedynczy znak. Modele są zazwyczaj rozliczane w milionach tokenów.
Ustawienie maksymalnej liczby tokenów ogranicza łączną liczbę tokenów, które mogą zostać przetworzone w jednej interakcji lub żądaniu, zapewniając, że odpowiedzi mieszczą się w rozsądnych granicach. Domyślny limit to 4 000 tokenów — to optymalny rozmiar do podsumowywania dokumentów i wielu źródeł, by wygenerować odpowiedź.
Temperatura
Temperatura kontroluje zmienność odpowiedzi w zakresie od 0 do 1.
Temperatura 0,1 sprawi, że odpowiedzi będą bardzo konkretne, ale mogą być powtarzalne i ubogie.
Wysoka temperatura 1 pozwala na maksymalną kreatywność w odpowiedziach, ale zwiększa ryzyko odpowiedzi nie na temat lub wręcz halucynacji.
Na przykład zalecana temperatura dla chatbota obsługi klienta to od 0,2 do 0,5. Ten poziom pozwala zachować trafność i zgodność ze skryptem, a jednocześnie umożliwia naturalną zmienność odpowiedzi.
Model
To selektor modelu. Znajdziesz tu wszystkie obsługiwane modele Meta AI. Obsługujemy otwartoźródłowe, lekkie modele Llama firmy Meta. Modele te są zaprojektowane z myślą o wydajnych wdrożeniach na urządzeniach i na edge’u:
- Llama 3.2 1B – Model 1B zawiera około 1,23 miliarda parametrów i obsługuje kontekst do 128 000 tokenów. Model jest zoptymalizowany pod kątem zadań takich jak podsumowywanie, realizacja instrukcji i parafraza, dzięki czemu nadaje się do zastosowań na urządzeniach mobilnych i wbudowanych. Dowiedz się więcej o tym modelu i jego działaniu w tym artykule.
- Llama 3.2. 3B – Model 3B ma około 3,21 miliarda parametrów, z kontekstem do 128 000 tokenów. Przeczytaj więcej o tym, jak ten model radzi sobie z różnymi zadaniami.
Jak dodać LLM Meta AI do swojego Flow
Zauważysz, że wszystkie komponenty LLM mają tylko uchwyt wyjściowy. Dane wejściowe nie przechodzą przez komponent, ponieważ reprezentuje on jedynie model, a właściwa generacja odbywa się w AI Agentach i Generatorach.
Uchwyt LLM jest zawsze fioletowy. Uchwyt wejściowy LLM znajduje się na każdym komponencie, który wykorzystuje AI do generowania tekstu lub przetwarzania danych. Opcje zobaczysz po kliknięciu uchwytu:

To pozwala tworzyć wszelkiego rodzaju narzędzia. Zobaczmy komponent w akcji. Oto prosty Flow chatbota AI, który używa Llama 3.2 1B firmy Meta AI do generowania odpowiedzi. Możesz traktować to jako podstawowego chatbota Llama.
Ten prosty Flow chatbota obejmuje:
- Wejście czatu: Reprezentuje wiadomość, którą użytkownik wysyła na czacie.
- Historia czatu: Zapewnia, że chatbot pamięta i bierze pod uwagę wcześniejsze odpowiedzi.
- Wyjście czatu: Reprezentuje ostateczną odpowiedź chatbota.
- AI Agent: Autonomiczny agent AI generujący odpowiedzi.
- LLM Meta AI: Połączenie z modelami generowania tekstu firmy Meta.

Najczęściej zadawane pytania
- Czym jest komponent LLM Meta AI w FlowHunt?
Komponent LLM Meta AI pozwala podłączyć modele Llama firmy Meta oraz inne generatory tekstu/obrazów do Twoich przepływów, umożliwiając łatwy wybór modelu i zaawansowaną konfigurację, taką jak maksymalna liczba tokenów czy temperatura.
- Które modele Meta obsługuje FlowHunt?
FlowHunt obsługuje otwartoźródłowe modele Llama firmy Meta, w tym Llama 3.2 1B i 3B, zoptymalizowane pod kątem wydajności, podsumowań i wdrożeń na urządzeniach.
- Jak skonfigurować ustawienia LLM Meta AI?
Możesz dostosować takie ustawienia jak maksymalna liczba tokenów (ogranicza długość odpowiedzi), temperatura (reguluje kreatywność odpowiedzi) oraz wybór modelu bezpośrednio z panelu FlowHunt dla każdego komponentu.
- Czy trzeba dodawać komponent LLM Meta AI do każdego przepływu?
Nie, dodanie komponentu LLM Meta AI jest opcjonalne. Domyślnie komponenty korzystają z ChatGPT-4o, ale możesz przełączyć się na Llama lub inne modele, by mieć większą kontrolę lub dla konkretnych zastosowań.
Wypróbuj LLM Meta AI w FlowHunt
Zacznij budować inteligentniejsze chatboty i narzędzia AI z wykorzystaniem modeli Llama firmy Meta oraz dziesiątek innych generatorów AI — wszystko na jednej platformie.