문서 메뉴
문서 홈
/
MongoDB Atlas
/

Vector Search와 AI 기술 통합

이 페이지의 내용

  • 주요 개념
  • 프레임워크
  • LangChain
  • LlamaIndex
  • 시맨틱 커널
  • 서비스
  • Amazon 베드락 지식 기반
  • API 리소스

인기 있는 AI 제공자 및 LLM의 표준 API를 통해 Atlas Vector Search를 사용할 수 있습니다. MongoDB와 파트너사는 생성형 AI 및 AI 기반 애플리케이션에서 Atlas Vector Search를 활용하는 데 도움이 되는 특정 제품 통합도 제공합니다.

이 페이지에서는 MongoDB와 파트너가 개발한 주목할 만한 AI 통합을 중점적으로 설명합니다. 통합 및 파트너 서비스의 전체 목록은 MongoDB 파트너 에코시스템 탐색을 참조하세요.

거대 언어 모델(LLM)

Atlas Vector Search를 LLMLLM 프레임워크와 통합하여 AI 기반 애플리케이션을 구축할 수 있습니다. LLM을 사용하여 개발할 때 다음과 같은 제한 사항이 발생할 수 있습니다.

  • 오래된 데이터: LLM은 특정 점까지 정적 데이터 세트에서 훈련됩니다.

  • 로컬 데이터에 대한 액세스 권한 없음: LLM은 로컬 또는 개인 데이터에 액세스할 수 없습니다.

  • 환각: LLM은 때때로 부정확한 정보를 생성합니다.

검색 증강 생성(RAG)

RAG(검색 확장 생성)는 이러한 제한 사항을 해결하도록 설계된 LLM 애플리케이션용 아키텍처입니다. RAG에서는 다음 조치를 수행합니다.

  1. 사용자 지정 데이터를 벡터 데이터베이스에 저장합니다.

  2. 벡터 검색을 사용하여 벡터 데이터베이스에서 의미적으로 유사한 문서를 조회할 수 있습니다. 이 문서는 LLM이 액세스할 수 있는 기존 교육 데이터를 보강합니다.

  3. 프롬프트 를 표시합니다. LLM 은 이러한 문서를 컨텍스트로 사용하여 더 많은 정보에 입각하여 정확한 응답을 생성합니다.

자세한 내용 은 검색 보강 생성(RAG)이란 무엇인가요?를 참조하세요 .

Atlas Vector Search를 다음 오픈 소스 프레임워크와 통합하여 Atlas에 사용자 지정 데이터를 저장하고 Atlas Vector Search로 RAG 를 구현할 수 있습니다.

LangChainRAG 를 포함한 다양한 사용 사례에 대해 함께 결합할 수 있는 LangChain 특정 구성 요소인 "체인"을 사용하여 LLM 애플리케이션 생성을 간소화하는 프레임워크입니다.

시작하려면 다음 튜토리얼을 참조하세요.

LlamaIndex 사용자 지정 데이터 소스를 LLM에 연결하는 방법을 간소화하는 프레임워크입니다.RAG 애플리케이션을 위한 벡터 임베딩을 로드하고 준비하는 데 도움이 되는 여러 도구를 제공합니다.

시작하려면 LlamaIndex 통합 시작하기를 참조하세요.

Microsoft 시맨틱 커널 다양한 AI 서비스를 애플리케이션과 결합할 수 있는 SDK입니다. 시맨틱 커널은 RAG 를 포함한 다양한 사용 사례에 사용할 수 있습니다.

시작하려면 시맨틱 커널 통합 시작하기를 참조하세요.

Atlas Vector Search를 다음 AI 서비스와 통합할 수도 있습니다.

Amazon 기반암 생성형 AI 애플리케이션을 구축하기 위한 완전 관리형 서비스입니다. Atlas Vector Search를 지식 기반 으로 통합할 수 있습니다. Amazon 베드락이 Atlas에 사용자 지정 데이터를 저장하고 RAG 를 구현할 수 있도록 합니다.

시작하려면 Amazon 기반 지식 기반 통합 시작하기를 참조하세요.

Atlas Vector Search용 AI 통합을 사용하여 개발할 때는 다음 API 리소스를 참조하세요.

← 하이브리드 검색을 수행하는 방법