Herramientas de usuario

Herramientas del sitio


inteligencia_artificial:langchain:memoria

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
inteligencia_artificial:langchain:memoria [2025/01/09 00:23] albertointeligencia_artificial:langchain:memoria [2025/12/18 16:52] (actual) – [Ventana de tokens del buffer de conversación] alberto
Línea 55: Línea 55:
 ) )
 # Obtenemos las respuestas del modelo # Obtenemos las respuestas del modelo
-respuesta = chat_chain.run("Hola, soy Alberto")+respuesta = chat_chain.invoke("Hola, soy Alberto")
 #print(respuesta) #print(respuesta)
  
-respuesta = chat_chain.run("¿Cuánto es 1+1?")+respuesta = chat_chain.invoke("¿Cuánto es 1+1?")
 #print(respuesta) #print(respuesta)
  
-respuesta = chat_chain.run("¿Cómo me llamo?")+respuesta = chat_chain.invoke("¿Cómo me llamo?")
 #print(respuesta) #print(respuesta)
  
Línea 108: Línea 108:
 <code Python> <code Python>
 # CUARTO EJEMPLO: Definimos el número máximo de tokens a recordar # CUARTO EJEMPLO: Definimos el número máximo de tokens a recordar
-# Se necesita instalar el módulo "tiktoken": pip install tiktokenpip +# Se necesita instalar el módulo "tiktoken": pip install tiktoken 
 # Tembién he tenido que instalar el módulo "transformers": pip install transformers # Tembién he tenido que instalar el módulo "transformers": pip install transformers
 from langchain.memory import ConversationTokenBufferMemory from langchain.memory import ConversationTokenBufferMemory
Línea 139: Línea 139:
 print(memoria.load_memory_variables({})) print(memoria.load_memory_variables({}))
 </code> </code>
-{{gallery>:inteligencia_artificial}}==== Resumen de conversación ====+{{gallery>:inteligencia_artificial}} 
 +===== Resumen de conversación =====
 Con el fin de "gastar" menos tokens evitando "arrastrar" toda la conversación de una interacción a otra con el modelo, la clase **ConversationSummaryBufferMemory** nos permite guardar en un buffer un resumen de la conversación, cuyo tamaño en tokens podemos especificar. Con el fin de "gastar" menos tokens evitando "arrastrar" toda la conversación de una interacción a otra con el modelo, la clase **ConversationSummaryBufferMemory** nos permite guardar en un buffer un resumen de la conversación, cuyo tamaño en tokens podemos especificar.
  
inteligencia_artificial/langchain/memoria.1736378595.txt.gz · Última modificación: por alberto

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki