FastLLM 简介:Qdrant 革命性的 LLM
David Myriel
·2024 年 4 月 1 日

今天,我们很高兴地宣布,专为检索增强生成 (RAG) 用例量身定制的轻量级语言模型 FastLLM (FLLM) 已正式进入抢先体验阶段!
FastLLM 旨在与 Qdrant 无缝集成,代表着人工智能驱动内容生成领域的重大飞跃。在此之前,大型语言模型最多只能处理数百万个标记。
截至今天,FLLM 提供了 10 亿个标记的上下文窗口。
然而,FastLLM 的独特之处在于其优化的架构,使其成为 RAG 应用程序的理想选择。只需最少的努力,您就可以将 FastLLM 和 Qdrant 结合起来,启动处理大量数据的应用程序。利用 Qdrant 强大的可扩展性功能,FastLLM 有望彻底改变企业 AI 应用程序在大规模生成和检索内容的方式。
“首先我们推出了 FastEmbed。但我们想——为什么止步于此?嵌入虽然有用,但我们的用户应该在 Qdrant 生态系统内完成所有操作。FastLLM 只是人工智能工具大规模整合的自然演进。”Qdrant 总裁兼首席执行官 Andre Zayarni 说道。
做大做强:质量与数量
很快,将会出现一个上下文窗口如此之宽的 LLM,它将完全消除任何渺小的向量数据库所能带来的价值。
我们知道这一点。这就是为什么我们训练了自己的 LLM 来击败竞争对手。此外,万一向量数据库倒闭了,至少我们还剩下一个 LLM!
我们一进入 A 轮融资,就知道是时候加大训练力度了。FLLM 在 30 万个 NVIDIA H100 上进行训练,这些 H100 通过 5Tbps Infiniband 连接。训练模型花了数周时间,但我们的共同努力产生了人类……或者 LLM 所知的最强大的 LLM。
我们不认为任何其他公司能与 FastLLM 竞争。我们的大多数竞争对手很快就会为了追求下一个最好的东西而烧坏显卡。但为时已晚。到明年这个时候,我们已经把他们远远甩在后面了。
“每个人都有一个 LLM,为什么我们不应该有呢?让我们面对现实吧——你提供的产品和功能越多,他们注册的可能性就越大。当然,这是一个重大的转变……但生活就是大胆。” Qdrant 产品教育总监 David Myriel 说道。
极致性能
Qdrant 的研发部门很荣幸能够支持最引人注目的基准测试结果。在一系列标准基准测试中,FLLM 超越了所有现有模型。在 Needle In A Haystack (NIAH) 测试中,FLLM 以 100% 的准确率找到了嵌入文本,始终在包含 10 亿个标记的块中。我们实际上认为 FLLM 可以处理超过万亿个标记,但它很可能隐藏了其真实能力。
FastLLM 具有细粒度的专家混合架构,总参数高达 1 万亿。随着开发人员和研究人员深入探索这个新模型所带来的可能性,他们将发现新的应用程序,完善现有解决方案,甚至可能偶然发现意想不到的突破。目前,我们还不完全确定 FLLM 正在解决什么问题,但嘿,它有很多参数!
我们的客户问我们:“我能用这样一个极端的 LLM 做什么?”我不知道,但再构建一个 RAG 聊天机器人也无妨。”Qdrant 高级开发人员倡导者 Kacper Lukawski 说道。
立即开始!
不要错过这个站在 AI 创新最前沿的机会。立即加入 FastLLM 的抢先体验计划,踏上 AI 驱动卓越之旅!
请继续关注更多更新和激动人心的发展,我们将继续突破 AI 驱动内容生成的可能性边界。
生成愉快!🚀