Prompt
# Prompt
与大语言模型对话也是一门艺术,我们提问的策略和技巧能很大程度上影响模型的输出。需要仔细思考,保证指令清晰具体,才能引导模型生成更优,更稳定的答案。
常见的提示技巧 Prompt: 1.演示环境搭建 2.保持指令清晰: 2.1 尽可能提供更多的细节 2.2 与GPT玩角色扮演 2.3 多用分隔符,划分指令不同部分 2.4 指定任务所需的步骤 3.少样本(Few-Shot)提示 --> 生成知识提示 4、给模型思考时间 4.1 思考链(CoT)提示: 少样本思维链提示;零成本CoT提示 4.2 思维链(ToT)提示 5.检索增强生成(RAG) 6.格式化输出,解锁模型使用新姿势
# 1、演示环境搭建
为了能更好地实践每个提示技巧,我们先使用 LangServe 部署一个简单的 LLM 应用,代码如下:
from langchain_core.output_parsers import StrOutputParser
from langchain_openai import ChatOpenAI
from fastapi import FastAPI
from langserve import add_routes
llm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)
rag_chain = (
llm
| StrOutputParser()
)
app = FastAPI(
title="prompt教学",
version="1.0",
)
# 3. Adding chain route
add_routes(
app,
rag_chain,
path="/prompt_ai",
)
if __name__ == "__main__":
import uvicorn
uvicorn.run(app, host="localhost", port=8000)
运行后,浏览器打开地址:http://127.0.0.1:8000/prompt_ai/playground/ 。
LangServe 允许我们输入多种类型的消息,在后续介绍的提示技巧中,一般会使用到 Human 和 System 消息。