Gemini
Qdrant 兼容 Gemini Embedding Model API 及其官方 Python SDK,可以像其他软件包一样安装
Gemini 是 Google PaLM 系列的新模型,于 2023 年 12 月发布。新的嵌入模型取代了之前的 Gecko Embedding Model。
在最新的模型中,可以向 API 调用传递一个附加参数 task_type。此参数用于指定所使用的嵌入的预期用途。
Embedding Model API 支持各种任务类型,概述如下
retrieval_query:搜索/检索设置中的查询retrieval_document:正在搜索的语料库中的文档semantic_similarity:语义文本相似度classification:用于文本分类的嵌入clustering:生成的嵌入将用于聚类task_type_unspecified:未设置的值,将默认为其他值之一。
如果您正在构建语义搜索应用程序(例如 RAG),则应将索引文档的 task_type 设置为 "retrieval_document",并将搜索查询的 task_type 设置为 "retrieval_query"。
以下示例展示了如何使用 Qdrant 完成此操作
设置
pip install google-generativeai
让我们看看如何使用 Embedding Model API 嵌入用于检索的文档。
以下示例展示了如何使用 models/embedding-001 模型和 retrieval_document 任务类型嵌入文档
嵌入文档
import google.generativeai as gemini_client
from qdrant_client import QdrantClient
from qdrant_client.models import Distance, PointStruct, VectorParams
collection_name = "example_collection"
GEMINI_API_KEY = "YOUR GEMINI API KEY" # add your key here
client = QdrantClient(url="https://:6333")
gemini_client.configure(api_key=GEMINI_API_KEY)
texts = [
"Qdrant is a vector database that is compatible with Gemini.",
"Gemini is a new family of Google PaLM models, released in December 2023.",
]
results = [
gemini_client.embed_content(
model="models/embedding-001",
content=sentence,
task_type="retrieval_document",
title="Qdrant x Gemini",
)
for sentence in texts
]
创建 Qdrant 点并使用 Qdrant 索引文档
创建 Qdrant 点
points = [
PointStruct(
id=idx,
vector=response['embedding'],
payload={"text": text},
)
for idx, (response, text) in enumerate(zip(results, texts))
]
创建集合
client.create_collection(collection_name, vectors_config=
VectorParams(
size=768,
distance=Distance.COSINE,
)
)
将它们添加到集合中
client.upsert(collection_name, points)
使用 Qdrant 搜索文档
文档索引后,您可以使用相同的模型和 retrieval_query 任务类型搜索最相关的文档
client.search(
collection_name=collection_name,
query_vector=gemini_client.embed_content(
model="models/embedding-001",
content="Is Qdrant compatible with Gemini?",
task_type="retrieval_query",
)["embedding"],
)
将 Gemini 嵌入模型与二进制量化结合使用
您可以将 Gemini 嵌入模型与二进制量化结合使用——这是一种可以将嵌入大小减少 32 倍而不会过度降低搜索结果质量的技术。
在此表中,您可以看到使用 models/embedding-001 模型和二进制量化与原始模型相比的搜索结果
在过采样 3 和限制 100 的情况下,我们对启用重新评分的精确最近邻居的召回率为 95%。
| 过采样 | 1 | 1 | 2 | 2 | 3 | 3 | |
|---|---|---|---|---|---|---|---|
| 重新评分 | 否 | 是 | 否 | 是 | 否 | 是 | |
| 限制 | |||||||
| 10 | 0.523333 | 0.831111 | 0.523333 | 0.915556 | 0.523333 | 0.950000 | |
| 20 | 0.510000 | 0.836667 | 0.510000 | 0.912222 | 0.510000 | 0.937778 | |
| 50 | 0.489111 | 0.841556 | 0.489111 | 0.913333 | 0.488444 | 0.947111 | |
| 100 | 0.485778 | 0.846556 | 0.485556 | 0.929000 | 0.486000 | 0.956333 |
就是这样!您现在可以使用 Gemini 嵌入模型与 Qdrant 配合使用!