LLM Gemini

Wykorzystaj moc modeli Gemini od Google w FlowHunt — zamieniaj modele AI, kontroluj ustawienia i buduj inteligentniejsze chatboty AI z łatwością.

LLM Gemini

Opis komponentu

Jak działa komponent LLM Gemini

Czym jest komponent LLM Gemini?

Komponent LLM Gemini łączy modele Gemini od Google z Twoim przepływem. Choć sama magia dzieje się w Generatorach i Agentach, komponenty LLM pozwalają kontrolować wykorzystywany model. Wszystkie komponenty domyślnie korzystają z ChatGPT-4. Możesz podłączyć ten komponent, jeśli chcesz zmienić model lub mieć nad nim większą kontrolę.

Gemini component

Pamiętaj, że podłączenie komponentu LLM jest opcjonalne. Wszystkie komponenty korzystające z LLM mają domyślnie ustawiony ChatGPT-4o. Komponenty LLM umożliwiają zmianę modelu i kontrolę ustawień modelu.

Ustawienia komponentu LLM Gemini

Max Tokens

Tokeny to jednostki tekstu, które model przetwarza i generuje. Użycie tokenów zależy od modelu — jeden token może być słowem, pod-słowem lub pojedynczym znakiem. Modele są zwykle rozliczane za miliony tokenów.

Ustawienie maksymalnej liczby tokenów ogranicza łączną liczbę tokenów, które mogą być przetworzone w jednej interakcji lub żądaniu, zapewniając, że odpowiedzi mieszczą się w rozsądnych ramach. Domyślny limit to 4 000 tokenów — to optymalna wartość do podsumowywania dokumentów oraz wielu źródeł przy generowaniu odpowiedzi.

Temperatura

Temperatura kontroluje zmienność odpowiedzi, w zakresie od 0 do 1.

Temperatura 0,1 sprawi, że odpowiedzi będą bardzo konkretne, ale mogą być powtarzalne i niepełne.

Wysoka temperatura, np. 1, pozwala na maksymalną kreatywność w odpowiedziach, ale zwiększa ryzyko nieistotnych lub nawet “halucynacyjnych” treści.

Na przykład zalecana temperatura dla chatbota obsługującego klientów to pomiędzy 0,2 a 0,5. Dzięki temu odpowiedzi będą na temat i zgodne ze skryptem, ale zachowają naturalną różnorodność.

Model

To selektor modelu. Tutaj znajdziesz wszystkie obsługiwane przez FlowHunt modele Gemini od Google. Obsługujemy wszystkie najnowsze modele Gemini:

  • Gemini 2.0 Flash Experimental – Zaawansowany, niskolatencyjny model stworzony z myślą o agentach. Oferuje nowe możliwości, takie jak natywna obsługa narzędzi, tworzenie obrazów i generowanie mowy. Zobacz, jak najlepiej zaawansowany model Google radził sobie z rutynowymi zadaniami w naszych testach.
  • Gemini 1.5 Flash – Lekki, multimodalny model zoptymalizowany pod kątem szybkości i wydajności, zdolny do przetwarzania dźwięku, obrazów, wideo i tekstu, z oknem kontekstowym do 1 048 576 tokenów. Dowiedz się więcej tutaj.
  • Gemini 1.5 Flash-8B – Mniejszy, szybszy i bardziej opłacalny wariant modelu 1.5 Flash, oferujący podobne możliwości multimodalne przy 50% niższej cenie i dwukrotnie wyższych limitach niż 1.5 Flash. Jak wypada jakość najprostszego modelu? Sprawdź tutaj.
  • Gemini 1.5 Pro – Średniej wielkości model multimodalny zoptymalizowany do szerokiego wachlarza zadań wymagających rozumowania, zdolny do przetwarzania dużych ilości danych, w tym długich plików audio i wideo, z limitem wejściowym 2 097 152 tokenów. Zobacz przykłady wyników.

Jak dodać LLM Gemini do swojego workflowu

Zauważysz, że wszystkie komponenty LLM mają tylko wyjście. Wejście nie przechodzi przez komponent, ponieważ reprezentuje on jedynie model, a właściwe generowanie odbywa się w Agentach AI i Generatorach.

Uchwyt LLM jest zawsze fioletowy. Uchwyt wejściowy LLM znajdziesz w każdym komponencie korzystającym z AI do generowania tekstu lub przetwarzania danych. Opcje zobaczysz klikając na uchwyt:

Gemini compatibility

Dzięki temu możesz tworzyć różne narzędzia. Zobaczmy komponent w działaniu. Oto prosty przepływ chatbota AI Agent wykorzystujący Gemini 2.0 Flash Experimental do generowania odpowiedzi. Możesz to traktować jako podstawowego chatbota Gemini.

Ten prosty przepływ chatbota zawiera:

  • Wejście z czatu: reprezentuje wiadomość wysłaną przez użytkownika.
  • Historia czatu: zapewnia, że chatbot pamięta i uwzględnia poprzednie odpowiedzi.
  • Wyjście z czatu: reprezentuje ostateczną odpowiedź chatbota.
  • AI Agent: autonomiczny agent AI generujący odpowiedzi.
  • LLM Gemini: połączenie z modelami generowania tekstu Google.
Gemini chatbot

Przykłady szablonów przepływu wykorzystujących komponent LLM Gemini

Aby pomóc Ci szybko zacząć, przygotowaliśmy kilka przykładowych szablonów przepływu, które pokazują, jak efektywnie używać komponentu LLM Gemini. Te szablony prezentują różne przypadki użycia i najlepsze praktyki, ułatwiając zrozumienie i implementację komponentu w Twoich własnych projektach.

Najczęściej zadawane pytania

Czym jest komponent LLM Gemini w FlowHunt?

LLM Gemini łączy modele Gemini od Google z Twoimi przepływami AI w FlowHunt, umożliwiając wybór najnowszych wariantów Gemini do generowania tekstu oraz dostosowywanie ich działania.

Które modele Gemini są obsługiwane?

FlowHunt obsługuje Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Flash-8B oraz Gemini 1.5 Pro — każdy z nich oferuje unikalne możliwości dla tekstu, obrazu, dźwięku i wideo.

Jak Max Tokens i Temperatura wpływają na odpowiedzi?

Max Tokens ogranicza długość odpowiedzi, a Temperatura steruje kreatywnością — niższe wartości dają bardziej konkretne odpowiedzi, wyższe pozwalają na większą różnorodność. Oba parametry można ustawić indywidualnie dla każdego modelu w FlowHunt.

Czy korzystanie z komponentu LLM Gemini jest obowiązkowe?

Nie, użycie komponentów LLM jest opcjonalne. Wszystkie przepływy AI domyślnie korzystają z ChatGPT-4o, ale dodanie LLM Gemini pozwala przełączyć się na modele Google i precyzyjnie dostroić ich ustawienia.

Wypróbuj Google Gemini z FlowHunt

Zacznij budować zaawansowane chatboty AI i narzędzia z Gemini oraz innymi topowymi modelami — wszystko w jednym panelu. Przełączaj modele, personalizuj ustawienia i usprawniaj swoje workflowy.

Dowiedz się więcej