Kuinka lisätä muistin tilaa ketjuun LangChainilla?

Kuinka Lisata Muistin Tilaa Ketjuun Langchainilla



LangChainin avulla kehittäjät voivat rakentaa chat-malleja, jotka voivat keskustella ihmisten kanssa luonnollisilla kielillä. Jotta keskustelu olisi tehokasta, mallilla on oltava muisti siitä, mihin keskustelun konteksti on tallennettu. LangChain-mallit voivat tallentaa chat-viestit havainnoin, jolloin tulos voi olla keskustelun yhteydessä koko ajan

Tämä opas havainnollistaa ketjujen latausprosessia LangChain Hubista.

Kuinka lisätä muistin tilaa ketjuun LangChainilla?

Muistin tilaa voidaan käyttää ketjujen alustamiseen, koska se voi viitata ketjuihin viimeksi tallennettuun arvoon, jota käytetään tulosteen palauttamisessa. Jos haluat oppia lisäämään muistitilan ketjuihin LangChain-kehyksen avulla, käy läpi tämä helppo opas:







Vaihe 1: Asenna moduulit

Ensinnäkin pääset prosessiin asentamalla LangChain-kehys sen riippuvuuksineen pip-komennolla:



pip asennus langchain



Asenna myös OpenAI-moduuli saadaksesi sen kirjastot, joita voidaan käyttää muistitilan lisäämiseen ketjuun:





pip install openai

Hanki API-avain OpenAI-tililtä ja perustaa ympäristöä käyttämällä sitä, jotta ketjut pääsevät käsiksi siihen:



tuonti sinä

tuonti getpass

sinä . suunnilleen [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )

Tämä vaihe on tärkeä, jotta koodi toimii oikein.

Vaihe 2: Tuo kirjastot

Kun olet määrittänyt ympäristön, tuo kirjastot muistitilan lisäämistä varten, kuten LLMChain, ConversationBufferMemory ja monet muut:

alkaen langchain. ketjut tuonti Keskusteluketju

alkaen langchain. muisti tuonti ConversationBufferMemory

alkaen langchain. chat_models tuonti ChatOpenAI

alkaen langchain. ketjut . llm tuonti LLMChain

alkaen langchain. kehotteita tuonti PromptTemplate

Vaihe 3: Ketjujen rakentaminen

Luo nyt ketjut LLM:lle käyttämällä OpenAI()-menetelmää ja kehotteen mallia käyttämällä kyselyä ketjun kutsumiseksi:

keskustella = ChatOpenAI ( lämpötila = 0 )

kehote_malli = 'Kirjoita {style} vitsi'

llm_chain = LLMChain ( llm = keskustella , kehote = PromptTemplate. from_template ( kehote_malli ) )

llm_chain ( tulot = { 'tyyli' : 'korni' } )

Malli on näyttänyt tulosteen käyttämällä LLM-mallia, kuten alla olevassa kuvakaappauksessa näkyy:

Vaihe 4: Muistin tilan lisääminen

Tässä aiomme lisätä muistin tilan ketjuun ConversationBufferMemory() -menetelmällä ja suorittaa ketjun saadakseen 3 väriä sateenkaaresta:

keskustelu = Keskusteluketju (

llm = keskustella ,

muisti = ConversationBufferMemory ( )

)

keskustelu. juosta ( 'Anna lyhyesti sateenkaaren kolme väriä' )

Mallissa on näkynyt vain kolme sateenkaaren väriä ja konteksti on tallennettu ketjun muistiin:

Tässä käytämme ketjua epäselvällä komennolla ' muut 4? ” joten malli itse saa kontekstin muistista ja näyttää jäljellä olevat sateenkaaren värit:

keskustelu. juosta ( 'muut 4?' )

Malli on tehnyt juuri niin, koska se ymmärsi kontekstin ja palautti loput neljä väriä sateenkaarisarjasta:

Kyse on ketjujen lataamisesta LangChain Hubista.

Johtopäätös

Jos haluat lisätä muistia ketjuihin LangChain-kehyksen avulla, asenna moduulit LLM:n rakentamisympäristön määrittämiseksi. Tuo sen jälkeen LLM:n ketjujen rakentamiseen tarvittavat kirjastot ja lisää sitten muistitila siihen. Kun olet lisännyt muistitilan ketjuun, anna ketjulle komento saadaksesi tulos ja anna sitten toinen komento edellisen yhteydessä saadaksesi oikean vastauksen. Tässä viestissä on käsitelty muistitilan lisäämisprosessia ketjuissa LangChain-kehyksen avulla.