将 Vector Search 与 AI 技术相集成
您可以通过流行的 AI 提供商和 LLM通过其标准API使用 Atlas Vector Search。 MongoDB 和合作伙伴还提供特定的产品集成,帮助您在生成式 AI 和 AI 驱动的应用程序中利用 Atlas Vector Search。
本页重点介绍 MongoDB 和合作伙伴开发的著名 AI 集成。有关集成和合作伙伴服务的完整列表,请参阅探索 MongoDB 合作伙伴生态系统。
关键概念
- 大型语言模型(LLM)
您可以将 Atlas Vector Search 与法学硕士和法学硕士框架集成,以构建人工智能驱动的应用程序。 使用LLM进行开发时,您可能会遇到以下限制:
过时数据: LLM在特定时间点之前的静态数据集上进行训练。
无权访问本地数据:法学硕士无权访问本地或个人数据。
幻觉:法学硕士有时会生成不准确的信息。
- 检索增强生成 (RAG)
检索增强生成 (RAG) 是一种适用于LLM应用程序的架构,旨在解决这些限制。 在RAG中,您可以执行以下操作:
将自定义数据存储在矢量数据库中。
使用向量搜索从向量数据库中检索语义相似的文档。 这些文档扩充了法学硕士可以访问的现有培训数据。
提示LLM 。 法学硕士使用这些文档作为上下文,以生成更明智、更准确的回复。
要了解更多信息,请参阅什么是检索增强生成 (RAG)?。
框架
您可以将 Atlas Vector Search 与以下开源框架集成,以在 Atlas 中存储自定义数据,并使用 Atlas Vector Search 实施RAG 。
LangChain
LangChain 是一个通过使用“链”简化 LLM 应用程序创建的框架,“链”是特定于 LangChain 的组件,可以组合在一起以用于各种使用案例,包括 RAG 。
要开始使用,请参阅以下教程:
LlamaIndex
LlamaIndex 是一个框架,可简化将自定义数据源连接到 LLM 的方式。它提供了多种工具来帮助您为 RAG 应用程序加载和准备向量嵌入。
要开始使用,请参阅开始使用 LlamaIndex 集成。
语义内核
Microsoft 语义内核 是一个 SDK,可让您将各种 AI 服务与您的应用程序相结合。您可以将语义内核用于各种使用案例,包括 RAG 。
服务
您还可以将 Atlas Vector Search 与以下 AI 服务集成。
Amazon 基岩知识库
Amazon 基岩版 是一项用于构建生成式 AI 应用程序的完全托管服务。您可以将 Atlas Vector Search 集成为 知识库 用于 Amazon BedRock 在 Atlas 中存储自定义数据并实施 RAG 。
要开始使用,请参阅开始使用 Amazon Bedrock 知识库集成。
API 资源
在使用 Atlas Vector Search 的 AI 集成进行开发时,请参阅以下API资源: