LangChain簡單大模型應(yīng)用

翻譯軟件流程圖.png
  • 依賴
pip install langchain

# 接入ollama本地大模型
pip install langchian-ollama
# 接入兼容OpenAI接口的國產(chǎn)大模型
pip install langchain-openai

提示詞

輸入

  • 提示詞主要有三種角色,LangChain有相應(yīng)的Message類
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage

# 原始寫法
messages = [
    {"role": "system", "content": "將下面的內(nèi)容翻譯成 英語"},
    {"role": "user", "content": "你好,吃了嗎?"},
    {"role": "assistant", "content": "Hello, have you eaten yet?"},
]

# 使用消息類
messages = [
    SystemMessage(content="將下面的內(nèi)容翻譯成 英語"),
    HumanMessage(content="你好,吃了嗎?"),
    AIMessage(content="Hello, have you eaten yet?"),
]

# 另一種寫法
messages = [
    ("system", "將下面的內(nèi)容翻譯成 英語"),
    ("human", "你好,吃了嗎?"),
    ("ai", "Hello, have you eaten yet?"),
]
  • Message類的常用方法
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage

message = AIMessage(content="Hello, have you eaten yet?")
# 以下兩個方法,SystemMessage、HumanMessage、AIMessage均適用


# 打印輸出
message.pretty_print()
# Message繼承Pydantic,可以使用Pydantic方法
print(message.model_dump_json())

模板

  • 使用"{xxx}"占位
from langchain_core.prompts import ChatPromptTemplate

# 輸入
inputs = {"language": "英語", "text": "你好,吃了嗎?"}

# 定義模板
template = ChatPromptTemplate(
    [("system", "將下面的內(nèi)容翻譯成 {language} "), ("human", "{text}")]
)

# 填充模板
result = template.invoke(inputs)
# result結(jié)果如下:
# messages = [
#     SystemMessage(content="將下面的內(nèi)容翻譯成 英語", additional_kwargs={}, response_metadata={}),
#     HumanMessage(content="你好,吃了嗎?", additional_kwargs={}, response_metadata={}),
# ]

接入大模型

實例化大模型

from langchain_ollama import ChatOllama

# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
  • 兼容OpenAI接口的大模型
from langchain_openai import ChatOpenAI

# 兼容OpenAI接口的國產(chǎn)大模型(如:阿里云、火山、騰訊云等)
llm = ChatOpenAI(
    openai_api_base="各個大平臺兼容OpenAI的地址",
    openai_api_key="xxx-xxx", 
    model_name="模型名稱/endpoint等"
)
  • 調(diào)用方式
from langchain_ollama import ChatOllama
from langchain_core.messages import HumanMessage

# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 提示詞
messages = [HumanMessage(content="你好,吃了嗎?")]

result = llm.invoke(messages)

主線(模板+大模型)

from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate

# 輸入
inputs = {"language": "英語", "text": "你好,吃了嗎?"}

# 模板
template = ChatPromptTemplate(
    [("system", "將下面的內(nèi)容翻譯成 {language} "), ("human", "{text}")]
)

# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")


# 調(diào)用
# result = template.invoke(inputs)
# result = llm.invoke(result)

# LangChain寫法
chain = template | llm
result = chain.invoke(inputs)

輸出轉(zhuǎn)換

輸出轉(zhuǎn)換器

  • 轉(zhuǎn)換成特定格式可以更好得進行業(yè)務(wù)串聯(lián)
from langchain_core.output_parsers import StrOutputParser, JsonOutputParser
from langchain_core.messages import AIMessage

# 模擬大模型返回的文本消息
message = AIMessage(content='{"name": "Alice", "age": 30}')

# 字符串輸出解析器
str_parser = StrOutputParser()
result = str_parser.invoke(message)
print(type(result))  # <class 'str'>
print(result)  # {"name": "Alice", "age": 30}

# Json輸出解析器(代碼中呈現(xiàn)為字典)
json_parser = JsonOutputParser()
result = json_parser.invoke(message)
print(type(result))  # <class 'dict'>
print(result)  # {'name': 'Alice', 'age': 30}

主線(模板+大模型+輸出)

from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

# 輸入
inputs = {"language": "英語", "text": "你好,吃了嗎?"}

# 模板
template = ChatPromptTemplate(
    [("system", "將下面的內(nèi)容翻譯成 {language} "), ("human", "{text}")]
)
# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 輸出轉(zhuǎn)換器
parser = StrOutputParser()


# 調(diào)用
# result = template.invoke(inputs)
# result = llm.invoke(result)
# result = parser.invoke(result)

# LangChain寫法
chain = template | llm | parser
result = chain.invoke(inputs)

其他補充

模板

  • "placeholder"可替換列表
from langchain_core.prompts import ChatPromptTemplate

template = ChatPromptTemplate(
    [("system", "你是導(dǎo)游,回答用戶提出的問題"), ("placeholder", "{conversation}")]
)

inputs = {
    "conversation": [
        ("human", "福州"),
        ("ai", "福州是一個....."),
        ("human", "什么季節(jié)去合適?"),
    ],
}


# 填充模板
messages = template.invoke(inputs)
# messages = [
#     SystemMessage(content="你是導(dǎo)游,回答用戶提出的問題", additional_kwargs={}, response_metadata={}),
#     HumanMessage(content="福州", additional_kwargs={}, response_metadata={}),
#     AIMessage(content="福州是一個.....", additional_kwargs={}, response_metadata={}),
#     HumanMessage(content="什么季節(jié)去合適?", additional_kwargs={}, response_metadata={}),
# ]

  • 多個占位符則使用字典一一對應(yīng)即可
from langchain_core.prompts import ChatPromptTemplate

template = ChatPromptTemplate(
    [("system", "你是{role},回答用戶提出的問題"), ("placeholder", "{conversation}")]
)

inputs = {
    "role": "導(dǎo)游",
    "conversation": [
        ("human", "福州"),
        ("ai", "福州是一個....."),
        ("human", "什么季節(jié)去合適?"),
    ],
}


messages = template.invoke(inputs)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容