Kuinka käyttää muistia LLMChainissa LangChainin kautta?

Kuinka Kayttaa Muistia Llmchainissa Langchainin Kautta



LangChain on kehys, jota voidaan käyttää tuomaan kirjastoja ja riippuvuuksia suurten kielimallien tai LLM:ien rakentamiseen. Kielimallit käyttävät muistia datan tai historian tallentamiseen tietokantaan havainnoksi saadakseen keskustelun kontekstin. Muisti on määritetty tallentamaan viimeisimmät viestit, jotta malli voi ymmärtää käyttäjän antamat moniselitteiset kehotteet.

Tämä blogi selittää muistin käytön LLMChainissa LangChainin kautta.







Kuinka käyttää muistia LLMChainissa LangChainin kautta?

Jos haluat lisätä muistia ja käyttää sitä LLMChainissa LangChainin kautta, ConversationBufferMemory-kirjastoa voidaan käyttää tuomalla se LangChainista.



Jos haluat oppia käyttämään muistia LLMChainissa LangChainin kautta, käy läpi seuraava opas:



Vaihe 1: Asenna moduulit

Aloita ensin muistin käyttö asentamalla LangChain pip-komennolla:





pip asennus langchain

Asenna OpenAI-moduulit saadaksesi sen riippuvuuksia tai kirjastoja LLM:ien tai chat-mallien rakentamiseen:



pip install openai

Aseta ympäristö OpenAI:lle API-avaimella tuomalla käyttöjärjestelmä- ja getpass-kirjastot:

tuo meille
tuoda getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Vaihe 2: Kirjastojen tuonti

Kun olet määrittänyt ympäristön, tuo kirjastot, kuten ConversationBufferMemory, LangChainista:

langchain.chainsista tuonti LLMChain
Tuo OpenAI osoitteesta langchain.llms

langchain.memory tuonti ConversationBufferMemory

langchain.promptsista tuo PromptTemplate

Määritä kehotteen malli käyttämällä muuttujia, kuten 'input' saadaksesi kyselyn käyttäjältä ja 'hist' tietojen tallentamiseksi puskurimuistiin:

template = '''Olet malli, joka juttelee ihmisen kanssa

{hist}
Ihminen: {input}
Chatbot: '''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=malli
)
muisti = ConversationBufferMemory(memory_key='hist')

Vaihe 3: LLM:n määrittäminen

Kun kyselyn malli on luotu, määritä LLMChain()-menetelmä käyttämällä useita parametreja:

llm = OpenAI()
llm_chain = LLMChain(
llm = llm,
kehote = kehote,
verbose = Totta,
muisti = muisti,
)

Vaihe 4: LLMchainin testaus

Testaa sen jälkeen LLMChain syöttömuuttujan avulla saadaksesi kehotteen käyttäjältä tekstimuodossa:

llm_chain.predict(input='Hei ystäväni')

Käytä toista tuloa saadaksesi muistiin tallennetut tiedot ulostulon purkamista varten kontekstin avulla:

llm_chain.predict(input='Hyvä! Olen hyvä - kuinka voit')

Vaihe 5: Muistin lisääminen chat-malliin

Muistia voidaan lisätä chat-mallipohjaiseen LLMChainiin tuomalla kirjastot:

langchain.chat_modelsista tuo ChatOpenAI
langchain.schema tuonti SystemMessagesta
langchain.promptsista tuonti ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Määritä kehotemalli ConversationBufferMemory()-toiminnolla käyttämällä erilaisia ​​muuttujia asettaaksesi käyttäjän syötteen:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Olet malli, joka juttelee ihmisen kanssa'),
ViestitPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

muisti = ConversationBufferMemory(memory_key='hist', return_messages=True)

Vaihe 6: LLMchainin määrittäminen

Määritä LLMChain()-metodi mallin konfiguroimiseksi käyttämällä erilaisia ​​argumentteja ja parametreja:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm = llm,
kehote = kehote,
verbose = Totta,
muisti = muisti,
)

Vaihe 7: LLMChainin testaus

Lopuksi testaa vain LLMChain syötteen avulla, jotta malli voi luoda tekstin kehotteen mukaan:

chat_llm_chain.predict(input='Hei ystäväni')

Malli on tallentanut edellisen keskustelun muistiin ja näyttää sen ennen varsinaista kyselyn tulosta:

llm_chain.predict(input='Hyvä! Olen hyvä - kuinka voit')

Siinä on kyse muistin käytöstä LLMChainissa LangChainin avulla.

Johtopäätös

Jos haluat käyttää muistia LLMChainissa LangChain-kehyksen kautta, asenna moduulit ja määritä ympäristö, joka saa riippuvuudet moduuleista. Sen jälkeen tuo kirjastot LangChainista käyttääksesi puskurimuistia edellisen keskustelun tallentamiseen. Käyttäjä voi myös lisätä muistia chat-malliin rakentamalla LLMChainin ja sitten testaamalla ketjua antamalla syötteen. Tässä oppaassa on käsitelty muistin käyttöä LLMChainissa LangChainin kautta.