LangChain LLMChain -funktion käyttäminen Pythonissa

Langchain Llmchain Funktion Kayttaminen Pythonissa



LangChainissa on lukuisia moduuleja kielimallisovellusten luomiseen. Sovelluksista voidaan tehdä monimutkaisempia moduuleja yhdistämällä tai niitä voidaan yksinkertaistaa yhdellä moduulilla. LLM:n soittaminen tietyllä syötteellä on LangChainin olennaisin komponentti.

Ketjut eivät toimi vain yhdelle LLM-puhelulle; ne ovat kokoelmia puheluita joko LLM:lle tai muulle apuohjelmalle. LangChain tarjoaa päästä päähän -ketjut laajalti käytettyihin sovelluksiin sekä standardiketjun API:n ja lukuisten työkaluintegraatioiden.

Joustavuus ja kyky linkittää useita elementtejä yhdeksi kokonaisuudeksi voi olla hyödyllistä, kun haluamme suunnitella ketjun, joka hyväksyy käyttäjän syötteen, määrittää sen käyttämällä PromptTemplatea ja toimittaa sitten luodun tuloksen LLM:lle.







Tämä artikkeli auttaa sinua ymmärtämään LangChain LLMchain -funktion käytön Pythonissa.



Esimerkki: LLMchain-funktion käyttäminen LangChainissa

Puhuimme siitä, mitä ketjut ovat. Nyt näemme käytännön esittelyn näistä ketjuista, jotka on toteutettu Python-skriptillä. Tässä esimerkissä käytämme yksinkertaisinta LangChain-ketjua, joka on LLMchain. Se sisältää PromptTemplaten ja LLM:n ja ketjuttaa ne yhteen tulosteen luomiseksi.



Konseptin toteuttamisen aloittamiseksi meidän on asennettava joitain vaadittuja kirjastoja, jotka eivät sisälly Python-standardikirjastoon. Asennettavat kirjastot ovat LangChain ja OpenAI. Asennamme LangChain-kirjaston, koska meidän on käytettävä sen LLMchain-moduulia sekä PromptTemplatea. OpenAI-kirjaston avulla voimme käyttää OpenAI:n malleja tulosten, eli GPT-3:n, ennustamiseen.





Asenna LangChain-kirjasto suorittamalla seuraava komento päätteessä:

$ pip asenna langchain

Asenna OpenAI-kirjasto seuraavalla komennolla:



$ pip asennus openai

Kun asennukset on tehty, voimme aloittaa pääprojektin työskentelyn.

alkaen langchain. kehotteita tuonti PromptTemplate

alkaen langchain. llms tuonti OpenAI

tuonti sinä

sinä . suunnilleen [ 'OPENAI_API_KEY' ] = 'sk-YOUR API KEY'

Pääprojekti alkaa tarvittavien moduulien tuomisella. Joten tuomme ensin PromptTemplaten 'langchain.prompts' -kirjastosta. Tuomme sitten OpenAI:n 'langchain.llms'-kirjastosta. Seuraavaksi tuomme 'os' asettaaksemme ympäristömuuttujan.

Aluksi asetimme OpenAI API -avaimen ympäristömuuttujaksi. Ympäristömuuttuja on muuttuja, joka koostuu nimestä ja arvosta ja asetetaan käyttöjärjestelmässämme. 'os.environ' on objekti, jota käytetään ympäristömuuttujien kartoittamiseen. Joten kutsumme 'os.environiksi'. API-avaimelle asettamamme nimi on OPENAI_API_KEY. Määritämme sitten API-avaimen sen arvoksi. API-avain on yksilöllinen jokaiselle käyttäjälle. Joten, kun harjoittelet tätä koodiohjelmaa, kirjoita salainen API-avaimesi.

llm = OpenAI ( lämpötila = 0.9 )

kehote = PromptTemplate (

input_variables = [ 'Tuotteet' ] ,

sapluuna = 'Mikä olisi brändin nimi, joka myy {tuotteita}?' ,

)

Nyt kun avain on asetettu ympäristömuuttujaksi, alustamme kääreen. Aseta lämpötila OpenAI GPT -malleille. Lämpötila on ominaisuus, joka auttaa meitä määrittämään, kuinka arvaamaton vaste on. Mitä korkeampi lämpötila-arvo, sitä epätarkempia vasteet ovat. Asetamme tässä lämpötila-arvoksi 0,9. Siten saamme satunnaisimmat tulokset.

Sitten alustamme PromptTemplate-luokan. Kun käytämme LLM:ää, luomme kehotteen syötteestä, joka on otettu käyttäjältä ja välitämme sen sitten LLM:lle sen sijaan, että lähetämme syötteen suoraan LLM:lle, joka vaatii kovaa koodausta (kehote on syöte, jonka otimme käyttäjä ja jolle määritellyn AI-mallin pitäisi luoda vastaus). Joten alustamme PromptTemplaten. Tämän jälkeen määritämme sen aaltosulkeissa input_muuttujaksi 'Tuotteet' ja mallitekstiksi 'Mikä olisi brändin nimi, joka myy {tuotteita}?' Käyttäjän syöttö kertoo, mitä brändi tekee. Sitten se muotoilee kehotteen näiden tietojen perusteella.

alkaen langchain. ketjut tuonti LLMChain

ketju = LLMChain ( llm = llm , kehote = kehote )

Nyt kun PromptTemplatemme on alustettu, seuraava askel on tehdä LLMchain. Tuo ensin LLMchain-moduuli 'langchain.chain'-kirjastosta. Sitten luomme ketjun kutsumalla LLMchain()-funktiota, joka ottaa käyttäjän syötteen ja muotoilee kehotteen sen kanssa. Lopuksi se lähettää vastauksen LLM:lle. Joten se yhdistää PromptTemplaten ja LLM:n.

Tulosta ( ketju. juosta ( 'Taidetarvikkeet' ) )

Ketjun suorittamiseksi kutsumme chain.run()-metodia ja annamme käyttäjän syötteen parametrina, joka määritellään nimellä 'Art Supplies'. Sitten välitämme tämän menetelmän Python print() -funktiolle näyttääksemme ennustetun tuloksen Python-konsolissa.

AI-malli lukee kehotteen ja antaa vastauksen sen perusteella.

Koska pyysimme nimeämään brändin, joka myy taidetarvikkeita, tekoälymallin ennustettu nimi näkyy seuraavassa kuvassa:

Tämä esimerkki näyttää meille LLMchainingin, kun yksi syötemuuttuja tarjotaan. Tämä on mahdollista myös käytettäessä useita muuttujia. Tätä varten meidän on yksinkertaisesti luotava muuttujien sanakirja syöttääksemme ne kokonaan. Katsotaan kuinka tämä toimii:

alkaen langchain. kehotteita tuonti PromptTemplate

alkaen langchain. llms tuonti OpenAI

tuonti sinä

sinä . suunnilleen [ 'OPENAI_API_KEY' ] = 'sk - API-AVAIN'

llm = OpenAI(lämpötila = 0,9)

prompt = PromptTemplate(

input_variables=['
Brändi ', ' Tuote '],

template='
Mikä olisi sen nimi { Brändi } joka myy { Tuote } ? ',

)

langchain.chainsista tuonti LLMChain

ketju = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

'Brändi': '
Taidetarvikkeet ',

'Tuote': '
värit '

}))

Koodi on sama kuin edellinen esimerkki, paitsi että meidän on välitettävä kaksi muuttujaa kehotemalliluokassa. Joten luo sanakirja input_variables. Pitkät hakasulkeet edustavat sanakirjaa. Tässä meillä on kaksi muuttujaa - 'Brändi' ja 'Tuote' - jotka on erotettu pilkulla. Nyt tarjoamamme malliteksti on 'Mikä olisi {Tuotetta} myyvän {Brandin} nimi?' Siten AI-malli ennustaa nimen, joka keskittyy näihin kahteen syöttömuuttujaan.

Sitten luomme LLM-ketjun, joka muotoilee käyttäjän syötteen ja kehotteen lähettää vastaus LLM:lle. Tämän ketjun suorittamiseksi käytämme chain.run()-menetelmää ja välitämme muuttujien sanakirjan käyttäjän syöttämällä 'Brändi': 'Art supplies' ja 'Product' kohtaan 'Colors'. Sitten välitämme tämän menetelmän Python print() -funktiolle saadaksesi vastauksen.

Tulostuskuvassa näkyy ennustettu tulos:

Johtopäätös

Ketjut ovat LangChainin rakennuspalikoita. Tässä artikkelissa käydään läpi käsite LLMchainin käytöstä LangChainissa. Teimme johdannon LLMchainiin ja kuvasimme tarvetta käyttää niitä Python-projektissa. Tämän jälkeen teimme käytännön esimerkin, joka havainnollistaa LLM-ketjun toteutusta yhdistämällä PromptTemplate ja LLM. Voit luoda näitä ketjuja yhdellä syöttömuuttujalla sekä useilla käyttäjän toimittamilla muuttujilla. Myös GPT-mallista luodut vastaukset tarjotaan.