Kuinka käyttää keskustelutunnuspuskuria LangChainissa?

Kuinka Kayttaa Keskustelutunnuspuskuria Langchainissa



LangChainin avulla kehittäjät voivat rakentaa malleja koneoppimisen tai syväoppimisen avulla, jotka voivat kouluttaa malleja tietojoukkojen avulla. Nämä mallit voivat saada datasta erilaisia ​​kuvioita tai ymmärtää tietojoukon muodon ja kielen tiedon poimimiseksi. Suuret kielimallit tai LLM:t voidaan konfiguroida tai suunnitella käyttämällä LangChain-kehyksiä, jotka voivat ymmärtää ja luoda tekstiä luonnollisilla kielillä.

Tämä opas havainnollistaa keskustelutunnistepuskurin käyttöä LangChainissa.

Kuinka käyttää keskustelutunnuspuskuria LangChainissa?

The ConversationTokenBufferMemory kirjasto voidaan tuoda LangChain-kehyksestä uusimpien viestien tallentamiseksi puskurimuistiin. Tokenit voidaan konfiguroida rajoittamaan puskuriin tallennettujen viestien määrää ja aiemmat viestit tyhjennetään automaattisesti.







Oppiaksesi keskustelutunnistepuskurin käyttämisen LangChainissa, käytä seuraavaa ohjetta:



Vaihe 1: Asenna moduulit

Asenna ensin LangChain-kehys, joka sisältää kaikki tarvittavat moduulit pip-komennolla:



pip asennus langchain





Asenna nyt OpenAI-moduuli rakentaaksesi LLM:t ja ketjut OpenAI()-menetelmällä:

pip install openai



Kun olet asentanut moduulit, käytä vain OpenAI:n API-avainta perustaa ympäristöä käyttöjärjestelmän ja getpass-kirjastojen avulla:

tuonti sinä

tuonti getpass

sinä . suunnilleen [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )

Vaihe 2: Keskustelumerkkipuskurimuistin käyttäminen

Luo LLM:t OpenAI()-menetelmällä tuonnin jälkeen ConversationTokenBufferMemory kirjasto LangChain-kehyksestä:

alkaen langchain. muisti tuonti ConversationTokenBufferMemory

alkaen langchain. llms tuonti OpenAI

llm = OpenAI ( )

Määritä muisti asettamaan token, se huuhtelee vanhat viestit ja tallentaa ne puskurimuistiin. Tallenna sen jälkeen keskustelun viestit ja hanki uusimmat, jotta voit käyttää niitä kontekstina:

muisti = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

muisti. save_context ( { 'syöttö' : 'Hei' } , { 'lähtö' : 'Miten menee' } )

muisti. save_context ( { 'syöttö' : 'Minulle kuuluu hyvää Entä sinulle' } , { 'lähtö' : 'ei paljon' } )

Suorita muisti saadaksesi puskurimuistiin tallennetut tiedot käyttämällä load_memory_variables() -menetelmää:

muisti. load_memory_variables ( { } )

Vaihe 3: Keskustelumerkkipuskurimuistin käyttäminen ketjussa

Rakenna ketjut määrittämällä Keskusteluketju() menetelmä useilla argumenteilla keskustelutunnistepuskurimuistin käyttämiseksi:

alkaen langchain. ketjut tuonti Keskusteluketju

keskustelu_yhteenvedon kanssa = Keskusteluketju (
llm = llm ,
muisti = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
monisanainen = Totta ,
)
keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Hei miten menee?' )

Aloita keskustelu nyt esittämällä kysymyksiä käyttämällä luonnollisella kielellä kirjoitettuja kehotteita:

keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Työskentelen vain NLP-projektin parissa' )

Hanki tulos puskurimuistiin tallennetuista tiedoista käyttämällä merkkien määrää:

keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Työstän vain LLM:ien suunnittelua' )

Puskuri päivittyy jatkuvasti jokaisen uuden syötteen yhteydessä, koska aiemmat viestit tyhjennetään säännöllisesti:

keskustelu_yhteenvedon kanssa. ennustaa (

syöttö = 'LLM LangChainilla! Oletko kuullut siitä'

)

Siinä on kyse keskustelutunnistepuskurin käytöstä LangChainissa.

Johtopäätös

Jos haluat käyttää keskustelutunnistepuskuria LangChainissa, asenna moduulit ja määritä ympäristö OpenAI-tilin API-avaimella. Tuo sen jälkeen ConversationTokenBufferMemory-kirjasto LangChain-moduulin avulla keskustelun tallentamiseksi puskuriin. Puskurimuistia voidaan käyttää ketjussa vanhojen viestien huuhtelemiseksi jokaisen uuden viestin kanssa chatissa. Tässä viestissä on käsitelty keskustelutunnistepuskurimuistin käyttöä LangChainissa.