FastLLM 介绍:Qdrant 的革命性大语言模型
David Myriel
·2024 年 4 月 1 日

今天,我们很高兴地宣布,专门为检索增强生成(RAG)用例量身定制的轻量级语言模型 FastLLM (FLLM) 已正式进入抢先体验阶段!
FastLLM 旨在与 Qdrant 无缝集成,代表着 AI 驱动的内容生成领域的重大飞跃。迄今为止,大型语言模型只能处理数百万个 Token。
截至今天,FLLM 提供了一个包含 10 亿个 Token 的上下文窗口。
然而,FastLLM 的独特之处在于其优化的架构,使其成为 RAG 应用的理想选择。只需极少的努力,您就可以结合 FastLLM 和 Qdrant 来启动处理海量数据的应用程序。凭借 Qdrant 可扩展性功能的强大支持,FastLLM 有望彻底改变企业 AI 应用大规模生成和检索内容的方式。
“首先我们推出了 FastEmbed。但后来我们想——为什么止步于此呢?Embedding (向量嵌入)固然有用,但我们的用户应该在 Qdrant 生态系统内完成所有事情。FastLLM 只是朝着大规模整合 AI 工具的自然发展。” Qdrant 总裁兼首席执行官 Andre Zayarni
宏大愿景:质量与数量
很快,将出现一个上下文窗口极大的大型语言模型,它将彻底消除向量数据库可以添加的任何价值。
我们知道这一点。这就是为什么我们训练了自己的大型语言模型来摧毁竞争对手。此外,以防万一向量数据库失败,至少我们还剩下了一个大型语言模型!
我们刚进入 Series A,就知道是时候加大训练力度了。FLLM 在 30 万个通过 5Tbps Infiniband 连接的 NVIDIA H100 上进行训练。模型的完整训练花费了数周时间,但我们的共同努力产生了人类……或者说,大型语言模型已知的最强大的大型语言模型。
我们认为没有其他公司能与 FastLLM 竞争。我们的大多数竞争对手很快就会为了追求下一个最厉害的东西而烧毁显卡。但为时已晚。到明年这个时候,我们已经把他们甩在了后面。
“人人都有大型语言模型,为什么我们不能有?面对现实吧——你提供的产品和功能越多,他们就越会注册。当然,这是一个重大的转变……但生活就是关于勇于尝试。” Qdrant 产品教育总监 David Myriel
极致性能
Qdrant 的研发部门很自豪能取得最惊人的基准测试结果。在一系列标准基准测试中,FLLM 超越了现有的所有模型。在 大海捞针 (NIAH) 测试中,FLLM 以 100% 的准确率找到了嵌入文本,并且总是在包含 10 亿个 Token 的块中找到。我们实际上认为 FLLM 可以处理超过万亿个 Token,但它很可能隐藏了其真正的能力。
FastLLM 采用了细粒度的专家混合架构和高达 1 万亿个总参数。随着开发者和研究人员深入探究这个新模型所释放的可能性,他们将发现新的应用,改进现有解决方案,甚至可能偶然发现意想不到的突破。截至目前,我们还不完全确定 FLLM 正在解决什么问题,但嘿,它有很多参数!
我们的客户问我们:“这么极端的语言模型我能用来做什么?”我不知道,但再构建一个 RAG 聊天机器人也无妨。” Qdrant 高级开发者布道师 Kacper Lukawski
立即开始!
不要错过这个站在 AI 创新最前沿的机会。立即加入 FastLLM 的抢先体验计划,踏上通往 AI 卓越之旅!
请继续关注更多更新和激动人心的进展,我们将继续突破 AI 驱动内容生成的可能性边界。
生成愉快!🚀