
LangChain
LangChain to otwartoźródłowy framework do tworzenia aplikacji opartych na dużych modelach językowych (LLM), usprawniający integrację zaawansowanych LLM-ów, taki...
LangGraph to zaawansowana biblioteka do budowania stanowych, wieloaktorowych aplikacji z wykorzystaniem dużych modeli językowych (LLM). Opracowana przez LangChain Inc, rozszerza LangChain o możliwości cyklicznych obliczeń, umożliwiając złożone zachowania agentowe i workflowy z udziałem człowieka.
LangGraph to zaawansowana biblioteka zaprojektowana do budowania stanowych, wieloaktorowych aplikacji z wykorzystaniem dużych modeli językowych (LLM). Opracowany przez LangChain Inc, LangGraph rozszerza możliwości biblioteki LangChain, wprowadzając cykliczne możliwości obliczeniowe. Pozwala to na tworzenie złożonych, agentowych zachowań, w których LLM może działać w pętli, podejmując decyzje na każdym etapie.
LangGraph to potężne narzędzie, które umożliwia programistom tworzenie skomplikowanych workflowów z udziałem wielu aktorów i kroków. W przeciwieństwie do tradycyjnych skierowanych acyklicznych grafów (DAG) stosowanych w LangChain, LangGraph obsługuje cykle, dzięki czemu idealnie nadaje się do aplikacji wymagających powtarzalnego podejmowania decyzji i zarządzania stanem.
Stanowy graf to podstawowa koncepcja w LangGraph. Każdy węzeł w grafie reprezentuje krok obliczeniowy, a graf utrzymuje stan, który jest aktualizowany wraz z postępem obliczeń. Taka stanowość umożliwia bardziej dynamiczne i elastyczne workflowy.
Węzły są podstawowymi elementami budulcowymi LangGraph. Każdy węzeł wykonuje określoną funkcję lub obliczenie, np. przetwarza dane wejściowe, podejmuje decyzje lub komunikuje się z zewnętrznymi API.
Krawędzie łączą węzły i definiują przepływ obliczeń w grafie. LangGraph obsługuje krawędzie warunkowe, co pozwala dynamicznie zmieniać przepływ w zależności od aktualnego stanu.
LangGraph umożliwia implementację pętli i warunków w aplikacjach, zapewniając większą elastyczność i kontrolę nad przepływem obliczeń.
Jedną z wyróżniających cech LangGraph jest wbudowana trwałość. Automatycznie zapisuje stan po każdym kroku, umożliwiając odzyskiwanie po błędach, workflowy z udziałem człowieka, a nawet cofanie się do wcześniejszych stanów w celu podjęcia innych działań.
LangGraph wspiera współpracę człowieka z agentem, umożliwiając przerwanie wykonywania grafu. Użytkownicy mogą zaakceptować lub edytować kolejną akcję zaplanowaną przez agenta, co zapewnia większą kontrolę i niezawodność.
Dla lepszego doświadczenia użytkownika, LangGraph oferuje natywną obsługę strumieniowania wyników, zarówno token po tokenie, jak i kroków pośrednich, umożliwiając dynamiczne i interaktywne interakcje.
Choć LangGraph można używać samodzielnie, integruje się on bezproblemowo z LangChain i LangSmith, oferując pełen zestaw narzędzi do budowania i zarządzania aplikacjami opartymi o LLM.
Aby zainstalować LangGraph, użyj następującego polecenia:
pip install -U langgraph
Dla wersji JavaScript użyj:
npm install @langchain/langgraph
LangGraph idealnie nadaje się do tworzenia workflowów, w których uczestniczy wielu agentów lub aktorów, z których każdy wykonuje określone zadania i podejmuje decyzje w sposób skoordynowany.
Możliwość obsługi cykli i trwałości stanu sprawia, że LangGraph doskonale nadaje się do aplikacji wymagających złożonego podejmowania decyzji i mechanizmów odzyskiwania po błędach.
Dzięki wbudowanemu wsparciu dla interakcji człowiek-w-obiegu, LangGraph zapewnia skuteczną współpracę agentów z użytkownikami, czyniąc go odpowiednim do zastosowań wymagających wysokiej niezawodności i kontroli.
Zacznij budować własne rozwiązania AI i dynamiczne workflowy z intuicyjną platformą LangGraph i FlowHunt.

LangChain to otwartoźródłowy framework do tworzenia aplikacji opartych na dużych modelach językowych (LLM), usprawniający integrację zaawansowanych LLM-ów, taki...

LazyGraphRAG to innowacyjne podejście do Retrieval-Augmented Generation (RAG), optymalizujące wydajność i obniżające koszty pozyskiwania danych przez AI dzięki ...

Poznaj kluczowe wymagania GPU dla dużych modeli językowych (LLM), w tym różnice między treningiem a inferencją, specyfikacje sprzętowe i jak wybrać odpowiednią ...
Zgoda na Pliki Cookie
Używamy plików cookie, aby poprawić jakość przeglądania i analizować nasz ruch. See our privacy policy.