Docs 菜单
Docs 主页
/
MongoDB Atlas
/

将 Vector Search 与 AI 技术集成

在此页面上

  • 框架
  • LangChain
  • LlamaIndex
  • Semantic Kernel
  • Haystack
  • Spring AI
  • 服务
  • Amazon Bedrock 知识库
  • API 资源

您可以通过标准 API 将 Atlas Vector Search 与流行的 AI 提供程序和 LLM 一起使用。MongoDB 和合作伙伴还提供特定的产品集成,以帮助您在 RAG 和 AI 驱动的应用程序中利用 Atlas Vector Search。

本页重点介绍 MongoDB 及其合作伙伴开发的著名 AI 集成。有关集成和合作伙伴服务的完整列表,请参阅探索 MongoDB 合作伙伴生态系统

您可以将 Atlas Vector Search 与以下开源框架集成,以在 Atlas 中存储自定义数据,并使用 Atlas Vector Search 实施RAG

LangChain 是一个通过使用“链”简化 LLM 应用程序创建的框架,“链”是特定于 LangChain 的组件,可以组合在一起以用于各种使用案例,包括 RAG

要开始使用,请参阅以下资源:

LlamaIndex 是一个框架,可简化将自定义数据源连接到 LLM 的方式。它提供了多种工具来帮助您为RAG应用程序加载和准备向量嵌入。

要开始使用,请参阅开始使用 LlamaIndex 集成。

Microsoft 语义内核 是一个 SDK,可让您将各种 AI 服务与您的应用程序相结合。您可以将语义内核用于各种使用案例,包括RAG

要开始使用,请参阅以下教程:

Haystack 是一个框架,用于通过 LLM 、嵌入模型、矢量搜索等来构建自定义应用程序。它支持诸如问答和 RAG 之类的应用场景。

要开始使用,请参阅 Haystack Integration 入门

Spring AI 是一个应用程序框架,允许您将 Spring 设计原则应用到您的 AI 应用程序中。您可以将 Spring AI 用于各种用例,包括语义搜索和 RAG

要开始使用,请参阅 Spring AI 集成入门。

您还可以将 Atlas Vector Search 与以下 AI 服务集成。

Amazon 基岩版 是一项用于构建生成式 AI 应用程序的完全托管服务。您可以将 Atlas Vector Search 集成为 知识库 用于 Amazon BedRock 在 Atlas 中存储自定义数据并实施 RAG

要开始使用,请参阅 Amazon Bedrock 知识库集成入门。

在使用 Atlas Vector Search 的 AI 集成进行开发时,请参阅以下API资源:

后退

本地 RAG