inteligencia_artificial:langchain:memoria
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| inteligencia_artificial:langchain:memoria [2025/01/09 00:23] – alberto | inteligencia_artificial:langchain:memoria [2025/12/18 16:52] (actual) – [Ventana de tokens del buffer de conversación] alberto | ||
|---|---|---|---|
| Línea 55: | Línea 55: | ||
| ) | ) | ||
| # Obtenemos las respuestas del modelo | # Obtenemos las respuestas del modelo | ||
| - | respuesta = chat_chain.run(" | + | respuesta = chat_chain.invoke(" |
| # | # | ||
| - | respuesta = chat_chain.run(" | + | respuesta = chat_chain.invoke(" |
| # | # | ||
| - | respuesta = chat_chain.run(" | + | respuesta = chat_chain.invoke(" |
| # | # | ||
| Línea 108: | Línea 108: | ||
| <code Python> | <code Python> | ||
| # CUARTO EJEMPLO: Definimos el número máximo de tokens a recordar | # CUARTO EJEMPLO: Definimos el número máximo de tokens a recordar | ||
| - | # Se necesita instalar el módulo " | + | # Se necesita instalar el módulo " |
| # Tembién he tenido que instalar el módulo " | # Tembién he tenido que instalar el módulo " | ||
| from langchain.memory import ConversationTokenBufferMemory | from langchain.memory import ConversationTokenBufferMemory | ||
| Línea 139: | Línea 139: | ||
| print(memoria.load_memory_variables({})) | print(memoria.load_memory_variables({})) | ||
| </ | </ | ||
| - | {{gallery>: | + | {{gallery>: |
| + | ===== Resumen de conversación | ||
| Con el fin de " | Con el fin de " | ||
inteligencia_artificial/langchain/memoria.1736378595.txt.gz · Última modificación: por alberto
