Microsoft Autogen
AutoGen 是一个开源编程框架,用于构建 AI 代理并促进多个代理之间的协作以解决任务。
多代理对话:AutoGen 代理可以相互通信以解决任务。这使得构建比单个大型语言模型(LLM)更复杂、更精密的应用程序成为可能。
定制:AutoGen 代理可以根据应用程序的特定需求进行定制。这包括选择要使用的 LLM、允许的人类输入类型以及使用的工具的能力。
人类参与:AutoGen 允许人类参与。这意味着人类可以根据需要向代理提供输入和反馈。
通过Autogen-Qdrant 集成,您可以构建由 Qdrant 高性能检索支持的 Autogen 工作流程。
安装
pip install "autogen-agentchat[retrievechat-qdrant]"
用法
配置
import autogen
config_list = autogen.config_list_from_json("OAI_CONFIG_LIST")
函数 config_list_from_json
首先查找环境变量 OAI_CONFIG_LIST
,该变量需要是有效的 JSON 字符串。如果未找到,则查找名为 OAI_CONFIG_LIST
的 JSON 文件。示例文件可以在此处找到。
为 RetrieveChat 构建代理
我们首先初始化 RetrieveAssistantAgent 和 QdrantRetrieveUserProxyAgent。RetrieveAssistantAgent 的系统消息需要设置为“You are a helpful assistant.”。详细说明在用户消息中给出。
from qdrant_client import QdrantClient
from sentence_transformers import SentenceTransformer
from autogen import AssistantAgent
from autogen.agentchat.contrib.retrieve_user_proxy_agent import RetrieveUserProxyAgent
# 1. Create an AssistantAgent instance named "assistant"
assistant = AssistantAgent(
name="assistant",
system_message="You are a helpful assistant.",
llm_config={
"timeout": 600,
"cache_seed": 42,
"config_list": config_list,
},
)
sentence_transformer_ef = SentenceTransformer("all-distilroberta-v1").encode
client = QdrantClient(url="http://localhost:6333/")
# 2. Create the RetrieveUserProxyAgent instance named "ragproxyagent"
# Refer to https://msdocs.cn/autogen/docs/reference/agentchat/contrib/retrieve_user_proxy_agent
# for more information on the RetrieveUserProxyAgent
ragproxyagent = RetrieveUserProxyAgent(
name="ragproxyagent",
human_input_mode="NEVER",
max_consecutive_auto_reply=10,
retrieve_config={
"task": "code",
"docs_path": [
"path/to/some/doc.md",
"path/to/some/other/doc.md",
],
"chunk_token_size": 2000,
"model": config_list[0]["model"],
"vector_db": "qdrant",
"db_config": {"client": client},
"get_or_create": True,
"overwrite": True,
"embedding_function": sentence_transformer_ef, # Defaults to "BAAI/bge-small-en-v1.5" via FastEmbed
},
code_execution_config=False,
)
运行代理
# Always reset the assistant before starting a new conversation.
assistant.reset()
# We use the ragproxyagent to generate a prompt to be sent to the assistant as the initial message.
# The assistant receives it and generates a response. The response will be sent back to the ragproxyagent for processing.
# The conversation continues until the termination condition is met.
qa_problem = "What is the .....?"
chat_results = ragproxyagent.initiate_chat(assistant, message=ragproxyagent.message_generator, problem=qa_problem)