Docs 菜单
Docs 主页
/
Atlas

将MongoDB与AI技术集成

MongoDB和合作伙伴开发了特定的产品集成,帮助您在AI应用程序和AI代理中利用MongoDB 。

本页重点介绍MongoDB和合作伙伴开发的著名AI集成。您可以通过流行的AI提供商和 LLM 的标准连接方法和 API 将MongoDB与他们一起使用。有关集成和合作服务的完整列表,请参阅探索MongoDB合作伙伴生态系统。

您可以使用以下开源框架在MongoDB集群中存储自定义数据,并使用MongoDB Vector Search实现RAG 等功能。

LangChain 是一个通过使用“链”来简化 LLM 应用程序创建的框架,“链”是特定于 LangChain 的组件,可以将它们组合在一起以用于各种使用案例,包括 RAG

要开始使用,请参阅以下资源:

LangChainGo 是一个框架,可简化Go中 LLM 应用程序的创建。LangChainGo 将 LangChain 的功能融入到Go生态系统中。您可以将 LangChainGo 用于各种使用案例,包括语义搜索和 RAG

要开始使用,请参阅 LangChainGo 集成入门

LangChain4j 是一个框架,可简化Java中 LLM 应用程序的创建过程。LangChain4j 结合了 LangChain、Haystack、LlamaIndex 和其他来源的概念和功能。您可以将 LangChain4j 用于各种使用案例,包括语义搜索和 RAG

要开始,请参阅 LangChain4j 集成入门指南

LlamaIndex 是一个框架,可简化将自定义数据源连接到 LLM 的方式。它提供了多种工具来帮助您为RAG应用程序加载和准备向量嵌入。

要开始使用,请参阅开始使用 LlamaIndex 集成。

Microsoft Semantic Kernel 是一个 SDK,可让您将各种AI服务与您的应用程序相结合。您可以将语义内核用于各种使用案例,包括 RAG

要开始使用,请参阅以下教程:

Haystack 是一个框架,用于使用 LLM、嵌入模型和向量搜索等内容来构建自定义应用程序。它支持诸如问答和 RAG 之类的应用场景。

要开始使用,请参阅 Haystack Integration 入门

Spring AI 是一个应用程序框架,允许您将 Spring 设计原则应用到您的 AI 应用程序中。您可以将 Spring AI 用于各种用例,包括语义搜索和 RAG

要开始使用,请参阅 Spring AI 集成入门。

您可以使用以下开源框架构建AI代理和多代理应用程序,这些应用程序使用MongoDB来实现代理 RAG 和代理内存等功能。

LangGraph 是 LangChain生态系统中的一个专门框架,旨在构建AI代理和复杂的多代理工作流程。LangGraph 基于图形的方法允许您动态确定应用程序的执行路径,从而支持高级代理应用程序和使用案例。它还支持持久性、流媒体和内存等功能。

要开始使用,请参阅以下资源:

CrewAI 是一个Python框架,使您能够构建具有专门角色、工具和任务的自主AI代理。这些代理可以一起组织成“工作人员”,它们通过利用法学硕士和在彼此之间委派工作来共同完成复杂的任务。

要开始使用,请参阅将MongoDB与 CrewAI 集成。

您还可以将MongoDB Vector Search 与以下企业平台集成,以构建生成式AI应用程序。这些平台提供预先训练的模型和其他工具,帮助您在生产中构建AI应用程序和代理。

Amazon Bedrock 是一个完全托管的平台,用于构建生成式AI应用程序。您可以将MongoDB Vector Search 集成为Amazon Bedrock 的知识库,以便在MongoDB Atlas中存储自定义数据、实现RAG 和部署代理。

要开始使用,请参阅 Amazon Bedrock 知识库集成入门。

Vertex AI是Google Cloud Platform中用于构建和部署AI应用程序和代理的平台。Vertex AI平台包括 Google 提供的多种工具和预训练模型,您可以将它们与MongoDB Atlas一起用于RAG和自然语言查询等其他使用案例。

要开始使用,请参阅将 Atlas 与 Google Vertex AI 集成。

您还可以将MongoDB与以下AI工具集成。

模型上下文协议 (MCP) 是一个开放标准,用于规范 LLM 如何连接到外部资源和服务并与之交互。使用我们的官方 MCP 服务器实施,通过代理AI工具、助手和平台与MongoDB数据和集群交互。

要学习;了解更多信息,请参阅MongoDB MCP Server。

后退

变更日志

在此页面上