LlamaIndex

Llama Index 作为您的外部数据和大型语言模型之间的接口。因此,您可以引入您的私有数据并用其增强 LLM。LlamaIndex 简化了数据摄取和索引过程,并集成了 Qdrant 作为向量索引。

如果我们使用 pip 作为包管理器,安装 Llama Index 是很简单的。Qdrant 默认不安装,因此我们需要单独安装它。这两个工具的集成也作为另一个包提供。

pip install llama-index llama-index-vector-stores-qdrant

Llama Index 需要提供一个 QdrantClient 实例,以便它可以与 Qdrant 服务器交互。

from llama_index.core.indices.vector_store.base import VectorStoreIndex
from llama_index.vector_stores.qdrant import QdrantVectorStore

import qdrant_client

client = qdrant_client.QdrantClient(
    "<qdrant-url>",
    api_key="<qdrant-api-key>", # For Qdrant Cloud, None for local instance
)

vector_store = QdrantVectorStore(client=client, collection_name="documents")
index = VectorStoreIndex.from_vector_store(vector_store=vector_store)

延伸阅读

此页面是否有用?

感谢您的反馈! 🙏

很抱歉听到此消息。 😔 您可以在 GitHub 上编辑此页面,或创建一个 GitHub issue。