Kuinka käyttää keskusteluyhteenvetoa LangChainissa?

Kuinka Kayttaa Keskusteluyhteenvetoa Langchainissa



LangChain on kehys, jota voidaan käyttää kielimallien rakentamiseen käyttämällä valtavaa määrää luonnollisiin kieliin rakennettuja koulutustietojoukkoja. LangChain tarjoaa kirjastot ja riippuvuudet, joita voidaan käyttää chatbottien ja kielimallien, kuten LLM:ien, rakentamiseen ja hallintaan. Näitä malleja pidetään enimmäkseen koneina, jotka keskustelevat tai poimivat tietoja ihmisen kaltaisilla kielillä kirjoitettujen kehotteiden perusteella.

Tämä opas havainnollistaa keskusteluyhteenvedon käyttöä LangChainissa.

Kuinka käyttää keskusteluyhteenvetoa LangChainissa?

LangChain tarjoaa kirjastoja, kuten ConversationSummaryMemory, jotka voivat poimia täydellisen yhteenvedon chatista tai keskustelusta. Sitä voidaan käyttää keskustelun tärkeimpien tietojen saamiseksi ilman, että sinun tarvitsee lukea kaikkia chatissa olevia viestejä ja tekstiä.







Jos haluat oppia keskusteluyhteenvedon käyttämisen LangChainissa, siirry seuraaviin vaiheisiin:



Vaihe 1: Asenna moduulit

Asenna ensin LangChain-kehys saadaksesi sen riippuvuudet tai kirjastot seuraavan koodin avulla:



pip asennus langchain





Asenna nyt OpenAI-moduulit LangChainin asentamisen jälkeen pip-komennolla:

pip install openai



Moduulien asennuksen jälkeen yksinkertaisesti perustaa ympäristöä käyttämällä seuraavaa koodia saatuaan API-avaimen OpenAI-tililtä:

tuonti sinä

tuonti getpass

sinä . suunnilleen [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )

Vaihe 2: Keskustelun yhteenvedon käyttäminen

Aloita keskustelun yhteenvedon käyttäminen tuomalla kirjastot LangChainista:

alkaen langchain. muisti tuonti ConversationSummaryMemory , ChatMessageHistory

alkaen langchain. llms tuonti OpenAI

Konfiguroi mallin muisti ConversationSummaryMemory()- ja OpenAI()-menetelmillä ja tallenna tiedot siihen:

muisti = ConversationSummaryMemory ( llm = OpenAI ( lämpötila = 0 ) )

muisti. save_context ( { 'syöttö' : 'Hei' } , { 'lähtö' : 'Hei' } )

Suorita muisti soittamalla load_memory_variables() tapa poimia tiedot muistista:

muisti. load_memory_variables ( { } )

Käyttäjä voi saada tiedot myös keskustelun muodossa, kuten jokainen kokonaisuus erillisellä viestillä:

muisti = ConversationSummaryMemory ( llm = OpenAI ( lämpötila = 0 ) , return_messages = Totta )

muisti. save_context ( { 'syöttö' : 'Hei' } , { 'lähtö' : 'Hei miten menee' } )

Saadaksesi tekoälyn ja ihmisten viestin erikseen, suorita load_memory_variables()-metodi:

muisti. load_memory_variables ( { } )

Tallenna keskustelun yhteenveto muistiin ja suorita sitten muisti näyttääksesi chatin/keskustelun yhteenvedon näytöllä:

viestejä = muisti. chat_memory . viestejä

edellinen_yhteenveto = ''

muisti. ennustaa_uusi_yhteenveto ( viestejä , edellinen_yhteenveto )

Vaihe 3: Keskustelun yhteenvedon käyttäminen olemassa olevien viestien kanssa

Käyttäjä voi myös saada yhteenvedon luokan tai chatin ulkopuolella olevasta keskustelusta ChatMessageHistory()-viestin avulla. Nämä viestit voidaan lisätä muistiin, jotta se voi luoda automaattisesti yhteenvedon koko keskustelusta:

historia = ChatMessageHistory ( )

historia. add_user_message ( 'Hei' )

historia. add_ai_message ( 'Hei siellä!' )

Rakenna malli, kuten LLM, käyttämällä OpenAI()-menetelmää olemassa olevien viestien suorittamiseksi chat_memory muuttuja:

muisti = ConversationSummaryMemory. from_messages (
llm = OpenAI ( lämpötila = 0 ) ,
chat_memory = historia ,
return_messages = Totta
)

Suorita muisti puskurin avulla saadaksesi yhteenvedon olemassa olevista viesteistä:

muisti. puskuri

Suorita seuraava koodi luodaksesi LLM:n määrittämällä puskurimuisti chat-viestien avulla:

muisti = ConversationSummaryMemory (
llm = OpenAI ( lämpötila = 0 ) ,
puskuri = '''Ihminen kysyy kysyjältä itsestään
Järjestelmä vastaa, että tekoäly on rakennettu hyvään, koska se voi auttaa ihmisiä saavuttamaan potentiaalinsa'''
,
chat_memory = historia ,
return_messages = Totta
)

Vaihe 4: Keskustelun yhteenvedon käyttäminen ketjussa

Seuraava vaihe selittää keskustelun yhteenvedon käyttämisen ketjussa LLM:n avulla:

alkaen langchain. llms tuonti OpenAI
alkaen langchain. ketjut tuonti Keskusteluketju
llm = OpenAI ( lämpötila = 0 )
keskustelu_yhteenvedon kanssa = Keskusteluketju (
llm = llm ,
muisti = ConversationSummaryMemory ( llm = OpenAI ( ) ) ,
monisanainen = Totta
)
keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Hei, miten menee' )

Täällä olemme aloittaneet ketjujen rakentamisen aloittamalla keskustelun kohteliaalla tiedustelulla:

Siirry nyt keskusteluun kysymällä hieman lisää viimeisestä tuotosta laajentaaksesi sitä:

keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Kerro minulle lisää siitä!' )

Malli on selittänyt viimeisen viestin yksityiskohtaisella esittelyllä tekoälyteknologiaan tai chatbotiin:

Poimi kiinnostava kohde edellisestä tulosteesta, jotta voit viedä keskustelun tiettyyn suuntaan:

keskustelu_yhteenvedon kanssa. ennustaa ( syöttö = 'Amazing Kuinka hyvä tämä projekti on?' )

Täältä saamme yksityiskohtaisia ​​vastauksia bottia käyttämällä keskusteluyhteenvetomuistikirjastoa:

Siinä on kyse keskusteluyhteenvedon käyttämisestä LangChainissa.

Johtopäätös

Jos haluat käyttää keskustelun yhteenvetoviestiä LangChainissa, asenna ympäristön määrittämiseen tarvittavat moduulit ja puitteet. Kun ympäristö on asetettu, tuo ConversationSummaryMemory kirjasto LLM:ien rakentamiseen OpenAI()-menetelmällä. Sen jälkeen käytä keskusteluyhteenvetoa poimiaksesi yksityiskohtaiset tulokset malleista, jotka ovat edellisen keskustelun yhteenveto. Tässä oppaassa on käsitelty keskustelun yhteenvetomuistin käyttöä LangChain-moduulin avulla.