Descripción del componente
Cómo funciona el componente LLM DeepSeek
¿Qué es el componente LLM DeepSeek?
El componente LLM DeepSeek conecta los modelos DeepSeek a tu Flow. Aunque los Generators y Agents son donde ocurre la magia real, los componentes LLM te permiten cambiar y controlar el modelo utilizado.

Recuerda que conectar un componente LLM es opcional. Todos los componentes que utilizan un LLM vienen con ChatGPT-4o como predeterminado. Los componentes LLM te permiten cambiar el modelo y controlar la configuración del modelo.
Configuración del componente LLM Gemini
Máximo de tokens
Los tokens representan las unidades individuales de texto que el modelo procesa y genera. El uso de tokens varía según el modelo, y un solo token puede ser desde palabras o subpalabras hasta un solo carácter. Por lo general, los modelos se cobran por millones de tokens.
La configuración de máximo de tokens limita el número total de tokens que pueden ser procesados en una sola interacción o solicitud, asegurando que las respuestas se generen dentro de límites razonables. El límite predeterminado es de 4,000 tokens, el tamaño óptimo para resumir documentos y varias fuentes para generar una respuesta.
Temperatura
La temperatura controla la variabilidad de las respuestas, en un rango de 0 a 1.
Una temperatura de 0.1 hará que las respuestas sean muy directas pero potencialmente repetitivas y deficientes.
Una temperatura alta de 1 permite la máxima creatividad en las respuestas, pero crea el riesgo de respuestas irrelevantes o incluso alucinatorias.
Por ejemplo, la temperatura recomendada para un bot de atención al cliente es entre 0.2 y 0.5. Este nivel mantiene las respuestas relevantes y dentro del guion, permitiendo cierta variación natural en la respuesta.
Modelo
Este es el selector de modelo. Aquí encontrarás todos los modelos DeepSeek compatibles. Somos compatibles con todos los modelos Gemini más recientes:
- DeepSeek R1: El modelo ligero de código abierto en chino que revolucionó el mundo a principios de 2025. Actualmente es el modelo DeepSeek más rápido y el mejor, superando fácilmente al modelo o1 de OpenAI.
Cómo añadir LLM DeepSeek a tu Flow
Notarás que todos los componentes LLM solo tienen un conector de salida. La entrada no pasa por el componente, ya que solo representa el modelo, mientras que la generación real ocurre en los Agentes de IA y Generators.
El conector LLM siempre es de color morado. El conector de entrada LLM se encuentra en cualquier componente que utilice IA para generar texto o procesar datos. Puedes ver las opciones haciendo clic en el conector:

Esto te permite crear todo tipo de herramientas. Veamos el componente en acción. Aquí tienes un sencillo Flow de chatbot AI utilizando DeepSeek R1 para generar respuestas. Puedes pensar en él como un chatbot básico de DeepSeek.
Este sencillo Flow de Chatbot incluye:
- Entrada de chat: Representa el mensaje que un usuario envía en el chat.
- Historial de chat: Asegura que el chatbot puede recordar y tener en cuenta respuestas pasadas.
- Salida de chat: Representa la respuesta final del chatbot.
- Agente de IA: Un agente de IA autónomo que genera respuestas.
- LLM DeepSeek: La conexión con los modelos de generación DeepSeek.

Preguntas frecuentes
- ¿Qué es LLM DeepSeek en FlowHunt?
LLM DeepSeek es un componente en FlowHunt que te permite conectar y controlar modelos de IA DeepSeek para generación de texto e imágenes, habilitando chatbots potentes y flujos automatizados.
- ¿Qué modelos DeepSeek son compatibles?
FlowHunt es compatible con todos los modelos DeepSeek más recientes, incluido DeepSeek R1, conocido por su velocidad y rendimiento, especialmente en comparación con otros modelos líderes de IA.
- ¿Cómo puedo personalizar la configuración de LLM DeepSeek?
Puedes ajustar el máximo de tokens para la longitud de la respuesta y la temperatura para la creatividad, así como cambiar entre los modelos DeepSeek disponibles directamente desde tu panel de FlowHunt.
- ¿Es obligatorio conectar un componente LLM DeepSeek?
No, conectar un componente LLM es opcional. Por defecto, FlowHunt utiliza ChatGPT-4o, pero añadir LLM DeepSeek te permite alternar y controlar qué modelo de IA impulsa tus flujos.
Prueba FlowHunt con DeepSeek
Comienza a crear chatbots de IA y herramientas de automatización más inteligentes usando los avanzados modelos DeepSeek—todo sin configuraciones complejas ni múltiples suscripciones.