Tämä opas havainnollistaa keskustelutunnistepuskurin käyttöä LangChainissa.
Kuinka käyttää keskustelutunnuspuskuria LangChainissa?
The ConversationTokenBufferMemory kirjasto voidaan tuoda LangChain-kehyksestä uusimpien viestien tallentamiseksi puskurimuistiin. Tokenit voidaan konfiguroida rajoittamaan puskuriin tallennettujen viestien määrää ja aiemmat viestit tyhjennetään automaattisesti.
Oppiaksesi keskustelutunnistepuskurin käyttämisen LangChainissa, käytä seuraavaa ohjetta:
Vaihe 1: Asenna moduulit
Asenna ensin LangChain-kehys, joka sisältää kaikki tarvittavat moduulit pip-komennolla:
pip asennus langchain
Asenna nyt OpenAI-moduuli rakentaaksesi LLM:t ja ketjut OpenAI()-menetelmällä:
pip install openai
Kun olet asentanut moduulit, käytä vain OpenAI:n API-avainta perustaa ympäristöä käyttöjärjestelmän ja getpass-kirjastojen avulla:
tuonti sinätuonti getpass
sinä . suunnilleen [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )
Vaihe 2: Keskustelumerkkipuskurimuistin käyttäminen
Luo LLM:t OpenAI()-menetelmällä tuonnin jälkeen ConversationTokenBufferMemory kirjasto LangChain-kehyksestä:
alkaen langchain. muisti tuonti ConversationTokenBufferMemoryalkaen langchain. llms tuonti OpenAI
llm = OpenAI ( )
Määritä muisti asettamaan token, se huuhtelee vanhat viestit ja tallentaa ne puskurimuistiin. Tallenna sen jälkeen keskustelun viestit ja hanki uusimmat, jotta voit käyttää niitä kontekstina:
muisti = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )muisti. save_context ( { 'syöttö' : 'Hei' } , { 'lähtö' : 'Miten menee' } )
muisti. save_context ( { 'syöttö' : 'Minulle kuuluu hyvää Entä sinulle' } , { 'lähtö' : 'ei paljon' } )
Suorita muisti saadaksesi puskurimuistiin tallennetut tiedot käyttämällä load_memory_variables() -menetelmää:
muisti. load_memory_variables ( { } )
Vaihe 3: Keskustelumerkkipuskurimuistin käyttäminen ketjussa
Rakenna ketjut määrittämällä Keskusteluketju() menetelmä useilla argumenteilla keskustelutunnistepuskurimuistin käyttämiseksi:
alkaen langchain. ketjut tuonti Keskusteluketjukeskustelu_yhteenvedon kanssa = Keskusteluketju (
llm = llm ,
muisti = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
monisanainen = Totta ,
)
keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Hei miten menee?' )
Aloita keskustelu nyt esittämällä kysymyksiä käyttämällä luonnollisella kielellä kirjoitettuja kehotteita:
keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Työskentelen vain NLP-projektin parissa' )
Hanki tulos puskurimuistiin tallennetuista tiedoista käyttämällä merkkien määrää:
keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Työstän vain LLM:ien suunnittelua' )
Puskuri päivittyy jatkuvasti jokaisen uuden syötteen yhteydessä, koska aiemmat viestit tyhjennetään säännöllisesti:
keskustelu_yhteenvedon kanssa. ennustaa (syöttö = 'LLM LangChainilla! Oletko kuullut siitä'
)
Siinä on kyse keskustelutunnistepuskurin käytöstä LangChainissa.
Johtopäätös
Jos haluat käyttää keskustelutunnistepuskuria LangChainissa, asenna moduulit ja määritä ympäristö OpenAI-tilin API-avaimella. Tuo sen jälkeen ConversationTokenBufferMemory-kirjasto LangChain-moduulin avulla keskustelun tallentamiseksi puskuriin. Puskurimuistia voidaan käyttää ketjussa vanhojen viestien huuhtelemiseksi jokaisen uuden viestin kanssa chatissa. Tässä viestissä on käsitelty keskustelutunnistepuskurimuistin käyttöä LangChainissa.