Crie uma implementação de RAG local com o Atlas Vector Search
Nesta página
Este tutorial demonstra como implementar a geração aumentada de recuperação (RAG) localmente, sem a necessidade de chaves ou créditos de API. Para saber mais sobre a RAG, consulte RAG (geração aumentada de recuperação) com Atlas Vector Search.
Especificamente, você executa as seguintes ações:
Crie um sistema local do Atlas ou implemente um cluster na nuvem.
Configure o ambiente.
Use um modelo de incorporação local para gerar incorporação de vetores.
Crie um índice de pesquisa do Atlas Vector Search em seus dados.
Use um LLM local para responder a perguntas sobre seus dados.
➤ Use o menu suspenso Selecione sua linguagem para definir o idioma dos exemplos nesta página.
Plano de fundo
Para completar este tutorial, você pode criar uma implantação local do Atlas usando o Atlas CLI ou implantar um cluster na cloud. O Atlas CLI é a interface de linha de comando do MongoDB Atlas, e você pode usar o Atlas CLI para interagir com o Atlas a partir do terminal para várias tarefas, incluindo a criação de implantações locais do Atlas. Para saber mais, consulte Gerenciar implantações locais e na nuvem a partir do Atlas CLI.
Observação
As implantações locais do Atlas são destinadas apenas para testes. Para ambientes de produção, implante um cluster.
Você também usa os seguintes modelos de código aberto neste tutorial:
Texto incorporado Nomic modelo de incorporação
Modelo generativo Mistral 7B
Há várias maneiras de baixar e implantar LLMs localmente. Neste tutorial, você baixa o Ollama e obtém os modelos de código aberto listados acima para executar tarefas RAG.
Este tutorial também usa o pacote Microsoft.Extensions.AI.Ollama para se conectar a esses modelos e integrá-los ao Atlas Vector Search. Se preferir modelos diferentes ou uma estrutura diferente, você pode adaptar este tutorial substituindo os nomes dos modelos Ollama pelos seus equivalentes para sua configuração preferida.
Você também usa os seguintes modelos de código aberto neste tutorial:
Texto incorporado Nomic modelo de incorporação
Modelo generativo Mistral 7B
Há várias maneiras de baixar e implantar LLMs localmente. Neste tutorial, você baixa o Ollama e obtém os modelos de código aberto listados acima para executar tarefas RAG.
Este tutorial também usa a porta de linguagem Go do LangChain, uma estrutura popular de código aberto LLM, para se conectar a esses modelos e integrá-los ao Atlas Vector Search. Se preferir modelos diferentes ou um framework diferente, você pode adaptar este tutorial substituindo os nomes dos modelos Ollama ou os componentes da biblioteca LangChain pelos seus equivalentes para sua configuração preferida.
Há várias maneiras de baixar e distribuir LLMs localmente. Neste tutorial, você baixa o Ollama e extrai os seguintes modelos de código aberto para executar tarefas RAG:
Texto incorporado Nomic modelo de incorporação
Modelo generativo Mistral 7B
Este tutorial também usa o LangChain4j, um popular framework LLM de código aberto para Java, para se conectar a esses modelos e integrá-los ao Atlas Vector Search. Se você preferir modelos diferentes ou uma framework diferente, pode adaptar este tutorial substituindo os nomes dos modelos Ollama ou os componentes da biblioteca LangChain4j por seus equivalentes para sua configuração preferida.
Você também usa os seguintes modelos de código aberto neste tutorial:
mxbai-embed-large-v1 modelo de incorporação
Modelo generativo Mistral 7B
Há várias maneiras de baixar e implantar LLMs localmente. Neste tutorial, você baixa o modelo mistral 7B usando GPT4All, um ecossistema de código aberto para desenvolvimento local de LLM.
Ao trabalhar com este tutorial, você usa um notebook interativo do Python. Esse ambiente permite que você crie e execute blocos de código individuais sem executar o arquivo inteiro toda vez.
Você também usa os seguintes modelos de código aberto neste tutorial:
mxbai-embed-large-v1 modelo de incorporação
Modelo generativo Mistral 7B
Há várias maneiras de baixar e implantar LLMs localmente. Neste tutorial, você baixa o modelo mistral 7B usando GPT4All, um ecossistema de código aberto para desenvolvimento local de LLM.
Pré-requisitos
Para concluir este tutorial, você deve ter o seguinte:
O Atlas CLI instalado e em execução v1.14.3 ou posterior.
Database Tools de linha de comando MongoDB instaladas.
Um terminal e editor de código para executar seu projeto .NET.
.NET versão 8.0 ou superior instalado.
Ollama instalado.
Para concluir este tutorial, você deve ter o seguinte:
O Atlas CLI instalado e em execução v1.14.3 ou posterior.
Database Tools de linha de comando MongoDB instaladas.
Um terminal e editor de código para executar seu projeto Go.
Go instalado.
Ollama instalado.
Para concluir este tutorial, você deve ter o seguinte:
O Atlas CLI instalado e em execução v1.14.3 ou posterior.
Database Tools de linha de comando MongoDB instaladas.
Java Development Kit (JDK) versão 8 ou posterior.
Um ambiente para configurar e executar um aplicação Java . Recomendamos que você use um ambiente de desenvolvimento integrado (IDE) como IntelliJ IDEA ou Eclipse IDE para configurar Maven ou Gradle para construir e executar seu projeto.
Ollama instalado.
Para concluir este tutorial, você deve ter o seguinte:
O Atlas CLI instalado e em execução v1.14.3 ou posterior.
Database Tools de linha de comando MongoDB instaladas.
Um token de acesso do Hugging Face com acesso de leitura.
Armazenamento de arquivos grandes do Git instalado.
Um editor de terminal e código para executar seu projeto Node.js.
npm e Node.js instalado.
Para concluir este tutorial, você deve ter o seguinte:
O Atlas CLI instalado e em execução v1.14.3 ou posterior.
Database Tools de linha de comando MongoDB instaladas.
Um notebook interativo de Python que você pode executar localmente. Você pode executar notebooks interativos de Python no VS Code. Seu ambiente deve estar executando Python v3.10 ou posterior.
Observação
Se você usa um serviço hospedado como o Colab, deve ter RAM suficiente para executar este tutorial. Caso contrário, poderá ter problemas de desempenho.
Criar um Sistema Local ou Atlas Cluster
Este tutorial requer um sistema local ou de nuvem do Atlas carregado com o conjunto de dados de listagens de amostra do AirBnB para ser usado como banco de dados vetorial.
Se você tiver um cluster do Atlas existente executando MongoDB versão 6.0.11, 7.0.2, ou posterior com os dados de amostra do sample_airbnb.listingsAndReviews
carregados, você pode pular esta etapa.
Você pode criar um sistema local do Atlas usando o Atlas CLI ou implementar um cluster na nuvem.
Você pode criar um sistema local utilizando o Atlas CLI.
Conecte-se a partir da Atlas CLI.
No terminal, execute atlas auth login
para fazer a autenticação com suas credenciais de login do Atlas. Para saber mais, consulte Conexão pelo Atlas CLI.
Observação
Se você não tiver uma conta no Atlas, execute atlas setup
ou crie uma nova conta.
Criar uma implantação local usando o Atlas CLI.
Execute atlas deployments setup
e siga as solicitações para criar uma implantação local.
Para obter instruções detalhadas, consulte Criar uma implementação local do Atlas.
Carregue os dados de amostra na sua implantação.
Execute o seguinte comando no seu terminal para baixar os dados de amostra:
curl https://atlas-education.s3.amazonaws.com/sampledata.archive -o sampledata.archive Execute o seguinte comando para carregar os dados em sua implantação, substituindo
<port-number>
pela porta em que você está hospedando a implantação:mongorestore --archive=sampledata.archive --port=<port-number> Observação
Você deve instalar as Database Tools da Linha de Comando MongoDB para acessar o
mongorestore
comando.
Você pode criar e implementar um novo cluster usando a Atlas CLI ou a UI do Atlas . Certifique-se de pré-carregar o novo cluster com os dados de amostra.
Para saber como carregar os dados de amostra fornecidos pelo Atlas em seu cluster, consulte Carregar Dados de Amostra.
Para obter instruções detalhadas,consulte Criar um cluster.
Configurar o ambiente
Nesta seção, você configura o ambiente para este tutorial. Crie um projeto, instale os pacotes necessários e defina uma cadeia de conexão:
Instalar e importar dependências.
Execute os seguintes comandos:
dotnet add package MongoDB.Driver --version 3.1.0 dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
Execute os seguintes comandos:
dotnet add package MongoDB.Driver --version 3.1.0 dotnet add package Microsoft.Extensions.Configuration dotnet add package Microsoft.Extensions.Configuration.Json dotnet add package Microsoft.Extensions.AI --prerelease dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
Defina sua string de conexão como uma variável de ambiente.
Exporte sua string de conexão, set
no PowerShell, ou use o gerenciador de variáveis de ambiente do seu IDE para tornar a string de conexão disponível para o seu projeto.
export ATLAS_CONNECTION_STRING="<connection-string>"
Substitua o valor do placeholder <connection-string>
pela sua string de conexão do Atlas.
Se você estiver usando uma implantação local do Atlas, sua string de conexão segue esse formato, substituindo <port-number>
pela porta para sua implantação local.
export ATLAS_CONNECTION_STRING="mongodb://localhost:<port-number>/?directConnection=true"
Se estiver usando um cluster do Atlas, sua string de conexão seguirá esse formato, substituindo "<connection-string>";
pela string de conexão SRV do seu cluster do Atlas:
export ATLAS_CONNECTION_STRING="<connection-string>"
Observação
Sua string de conexão deve usar o seguinte formato:
mongodb+srv://<db_username>:<db_password>@<clusterName>.<hostname>.mongodb.net
Nesta seção, você configura o ambiente para este tutorial. Crie um projeto, instale os pacotes necessários e defina uma cadeia de conexão:
Crie um arquivo .env
.
Em seu projeto, crie um arquivo .env
para armazenar sua string de conexão.
ATLAS_CONNECTION_STRING = "<connection-string>"
Substitua o valor do placeholder <connection-string>
pela sua string de conexão do Atlas.
Se você estiver usando uma implantação local do Atlas, sua string de conexão segue esse formato, substituindo <port-number>
pela porta para sua implantação local.
ATLAS_CONNECTION_STRING = "mongodb://localhost:<port-number>/?directConnection=true"
Se estiver usando um cluster do Atlas, sua string de conexão seguirá esse formato, substituindo "<connection-string>";
pela string de conexão SRV do seu cluster do Atlas:
ATLAS_CONNECTION_STRING = "<connection-string>"
Observação
Sua string de conexão deve usar o seguinte formato:
mongodb+srv://<db_username>:<db_password>@<clusterName>.<hostname>.mongodb.net
Nesta seção, você configura o ambiente para este tutorial. Crie um projeto, instale os pacotes necessários e defina uma cadeia de conexão:
Crie seu projeto Java e instale dependências.
A partir do seu IDE, crie um projeto Java denominado
local-rag-mongodb
usando Maven ou Gradle.Adicione as seguintes dependências, dependendo do seu gerenciador de pacotes:
Se você estiver utilizando o Maven, adicione as seguintes dependências à array
dependencies
no arquivopom.xml
do seu projeto:pom.xml<dependencies> <!-- MongoDB Java Sync Driver v5.2.0 or later --> <dependency> <groupId>org.mongodb</groupId> <artifactId>mongodb-driver-sync</artifactId> <version>[5.2.0,)</version> </dependency> <!-- Java library for working with Ollama --> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-ollama</artifactId> <version>0.35.0</version> </dependency> </dependencies> Se você estiver usando o Gradle, adicione o seguinte à array
dependencies
no arquivobuild.gradle
do seu projeto:build.gradledependencies { // MongoDB Java Sync Driver v5.2.0 or later implementation 'org.mongodb:mongodb-driver-sync:[5.2.0,)' // Java library for working with Ollama implementation 'dev.langchain4j:langchain4j-ollama:0.35.0' } Execute seu gerenciador de pacote para instalar as dependências em seu projeto.
Defina sua variável de ambiente.
Observação
Este exemplo define a variável no IDE. Os aplicativos de produção podem gerenciar variáveis de ambiente por meio de uma configuração de sistema, pipeline CI/CD ou gerenciador de segredos, mas você pode adaptar o código fornecido para se adequar ao seu caso de uso.
No seu IDE, crie um novo modelo de configuração e adicione as seguintes variáveis ao seu projeto:
Se você estiver usando o IntelliJ IDEA, crie um novo modelo de configuração de execução Application, depois adicione suas variáveis como valores separados por ponto e vírgula no campo Environment variables (por exemplo,
FOO=123;BAR=456
). Aplique as alterações e clique em OK.Para saber mais, consulte a seção Criar uma configuração de execução/depuração a partir de um modelo da documentação do IntelliJ IDEA.
Se você estiver usando o Eclipse, crie uma nova configuração de inicialização Java Application e, em seguida, adicione cada variável como um novo par de valores-chave na guia Environment. Aplique as alterações e clique em OK.
Para saber mais, consulte a seção Criando uma configuração de inicialização do aplicação Java da documentação do IDE do Eclipse.
Substitua o <port-number>
pela porta para seu sistema local.
Sua string de conexão deve seguir o seguinte formato:
ATLAS_CONNECTION_STRING = "mongodb://localhost:<port-number>/?directConnection=true"
Substitua o <connection-string>
valor do espaço reservado pela string de conexão SRVdo seu Atlas cluster.
Sua string de conexão deve usar o seguinte formato:
mongodb+srv://<db_username>:<db_password>@<clusterName>.<hostname>.mongodb.net
Nesta seção, você configura o ambiente para este tutorial. Crie um projeto, instale os pacotes necessários e defina uma cadeia de conexão:
Crie um arquivo .env
.
Em seu projeto, crie um arquivo .env
para armazenar sua string de conexão.
ATLAS_CONNECTION_STRING = "<connection-string>"
Substitua o valor do placeholder <connection-string>
pela sua string de conexão do Atlas.
Se você estiver usando uma implantação local do Atlas, sua string de conexão segue esse formato, substituindo <port-number>
pela porta para sua implantação local.
ATLAS_CONNECTION_STRING = "mongodb://localhost:<port-number>/?directConnection=true";
Se estiver usando um cluster do Atlas, sua string de conexão seguirá esse formato, substituindo "<connection-string>";
pela string de conexão SRV do seu cluster do Atlas:
ATLAS_CONNECTION_STRING = "<connection-string>";
Observação
Sua string de conexão deve usar o seguinte formato:
mongodb+srv://<db_username>:<db_password>@<clusterName>.<hostname>.mongodb.net
Observação
Requisitos mínimos de versão do Node.js
O Node.js v20.x introduziu a opção --env-file
. Se você estiver usando uma versão mais antiga do Node.js, adicione o pacote dotenv
ao seu projeto ou use um método diferente para gerenciar suas variáveis de ambiente.
Nesta seção, você configura o ambiente para este tutorial.
Defina sua string de conexão do Atlas.
Se você estiver usando uma implantação local do Atlas, execute o código a seguir em seu notebook, substituindo <port-number>
pela porta para sua implantação local.
ATLAS_CONNECTION_STRING = ("mongodb://localhost:<port-number>/?directConnection=true")
Se estiver usando um cluster do Atlas, execute o seguinte código em seu notebook, substituindo <connection-string>
string de conexão SRV do seu cluster do Atlas.
ATLAS_CONNECTION_STRING = ("<connection-string>")
Observação
Sua string de conexão deve usar o seguinte formato:
mongodb+srv://<db_username>:<db_password>@<clusterName>.<hostname>.mongodb.net
Gerar incorporações com um modelo local
Nesta seção, você carrega um modelo de incorporação localmente e gera incorporações vetoriais usando dados do banco de dados sample_airbnb, que contém uma única coleção chamada listingsAndReviews
.
Baixe o modelo de incorporação local.
Este exemplo usa o modelo nomic-embed-text do Ollama.
Execute o seguinte comando para extrair o modelo de incorporação:
ollama pull nomic-embed-text
Gerar incorporações.
Para encapsular a lógica de cada parte da implementação, crie algumas classes para coordenar e gerenciar os serviços.
Crie um arquivo chamado
OllamaAIService.cs
, e cole o seguinte código nele:OllamaAIService.csnamespace MyCompany.RAG.Local; using Microsoft.Extensions.AI; public class OllamaAIService { private static readonly Uri OllamaUri = new("http://localhost:11434/"); private static readonly string EmbeddingModelName = "nomic-embed-text"; private static readonly OllamaEmbeddingGenerator EmbeddingGenerator = new OllamaEmbeddingGenerator(OllamaUri, EmbeddingModelName); public async Task<float[]> GetEmbedding(string text) { var embedding = await EmbeddingGenerator.GenerateEmbeddingVectorAsync(text); return embedding.ToArray(); } } Crie outro arquivo denominado
MongoDBDataService.cs
e cole o seguinte código nele:MongoDBDataService.cs1 namespace MyCompany.RAG.Local; 2 3 using MongoDB.Driver; 4 using MongoDB.Bson; 5 6 public class MongoDBDataService 7 { 8 private static readonly string? ConnectionString = Environment.GetEnvironmentVariable("ATLAS_CONNECTION_STRING"); 9 private static readonly MongoClient Client = new MongoClient(ConnectionString); 10 private static readonly IMongoDatabase Database = Client.GetDatabase("sample_airbnb"); 11 private static readonly IMongoCollection<BsonDocument> Collection = Database.GetCollection<BsonDocument>("listingsAndReviews"); 12 13 public List<BsonDocument>? GetDocuments() 14 { 15 var filter = Builders<BsonDocument>.Filter.And( 16 Builders<BsonDocument>.Filter.And( 17 Builders<BsonDocument>.Filter.Exists("summary", true), 18 Builders<BsonDocument>.Filter.Ne("summary", "") 19 ), 20 Builders<BsonDocument>.Filter.Exists("embeddings", false) 21 ); 22 return Collection.Find(filter).Limit(250).ToList(); 23 } 24 25 public async Task<string> UpdateDocuments(Dictionary<string, float[]> embeddings) 26 { 27 var listWrites = new List<WriteModel<BsonDocument>>(); 28 foreach(var kvp in embeddings) 29 { 30 var filterForUpdate = Builders<BsonDocument>.Filter.Eq("_id", kvp.Key); 31 var updateDefinition = Builders<BsonDocument>.Update.Set("embeddings", kvp.Value); 32 listWrites.Add(new UpdateOneModel<BsonDocument>(filterForUpdate, updateDefinition)); 33 } 34 35 try 36 { 37 var result = await Collection.BulkWriteAsync(listWrites); 38 listWrites.Clear(); 39 return $"{result.ModifiedCount} documents updated successfully."; 40 } catch (Exception e) 41 { 42 return $"Exception: {e.Message}"; 43 } 44 } 45 } A geração de incorporações consome tempo e recursos computacionais. Neste exemplo, você gera embeddings para apenas 250 documentos da coleção, o que deve levar menos de alguns minutos. Se você quiser alterar o número de documentos para os quais está gerando incorporações:
Altere o número de documentos: ajuste o número
.Limit(250)
na chamadaFind()
na linha 21.Gere embeddings para todos os documentos: omita o
.Limit(250)
completamente na chamadaFind()
na linha 21.
Crie outro arquivo denominado
EmbeddingGenerator.cs
e cole o seguinte código nele:EmbeddingGenerator.cs1 namespace MyCompany.RAG.Local; 2 3 public class EmbeddingGenerator 4 { 5 private readonly MongoDBDataService _dataService = new(); 6 private readonly OllamaAIService _ollamaAiService = new(); 7 8 public async Task<string> GenerateEmbeddings() 9 { 10 // Retrieve documents from MongoDB 11 var documents = _dataService.GetDocuments(); 12 if (documents != null) 13 { 14 Console.WriteLine("Generating embeddings."); 15 Dictionary<string, float[]> embeddings = new Dictionary<string, float[]>(); 16 foreach (var document in documents) 17 { 18 try 19 { 20 var id = document.GetValue("_id").ToString(); 21 var summary = document.GetValue("summary").ToString(); 22 if (id != null && summary != null) 23 { 24 // Use Ollama to generate vector embeddings for each 25 // document's "summary" field 26 var embedding = await _ollamaAiService.GetEmbedding(summary); 27 embeddings.Add(id, embedding); 28 } 29 } 30 catch (Exception e) 31 { 32 return $"Error creating embeddings for summaries: {e.Message}"; 33 } 34 } 35 // Add a new field to the MongoDB documents with the vector embedding 36 var result = await _dataService.UpdateDocuments(embeddings); 37 return result; 38 } 39 else 40 { 41 return "No documents found"; 42 } 43 } 44 } Este código contém a lógica para:
Obtenha documentos do banco de dados.
Use o modelo de incorporação para gerar incorporações vetoriais para o campo
summary
de cada documento.Atualize os documentos com as novas embeddings.
Cole o seguinte código em
Program.cs
:Program.cs1 using MyCompany.RAG.Local; 2 3 var embeddingGenerator = new EmbeddingGenerator(); 4 var result = await embeddingGenerator.GenerateEmbeddings(); 5 Console.WriteLine(result); Compile e execute seu projeto para gerar embeddings:
dotnet run MyCompany.RAG.Local.csproj Generating embeddings. 250 documents updated successfully.
Baixe o modelo de incorporação local.
Este exemplo usa o modelo nomic-embed-text do Ollama.
Execute o seguinte comando para extrair o modelo de incorporação:
ollama pull nomic-embed-text
Gerar incorporações.
Crie um diretório
common
para armazenar o código que você reutilizará em várias etapas.mkdir common && cd common Crie um arquivo chamado
get-embeddings.go
, e cole o seguinte código nele:get-embeddings.gopackage common import ( "context" "log" "github.com/tmc/langchaingo/llms/ollama" ) func GetEmbeddings(documents []string) [][]float32 { llm, err := ollama.New(ollama.WithModel("nomic-embed-text")) if err != nil { log.Fatalf("failed to connect to ollama: %v", err) } ctx := context.Background() embs, err := llm.CreateEmbedding(ctx, documents) if err != nil { log.Fatalf("failed to create ollama embedding: %v", err) } return embs } Para simplificar a ordenação e desordenação de documentos nesta coleção de e para o BSON, crie um arquivo chamado
models.go
e cole o seguinte código nele:models.gopackage common import ( "time" "go.mongodb.org/mongo-driver/bson/primitive" ) type Image struct { ThumbnailURL string `bson:"thumbnail_url"` MediumURL string `bson:"medium_url"` PictureURL string `bson:"picture_url"` XLPictureURL string `bson:"xl_picture_url"` } type Host struct { ID string `bson:"host_id"` URL string `bson:"host_url"` Name string `bson:"host_name"` Location string `bson:"host_location"` About string `bson:"host_about"` ThumbnailURL string `bson:"host_thumbnail_url"` PictureURL string `bson:"host_picture_url"` Neighborhood string `bson:"host_neighborhood"` IsSuperhost bool `bson:"host_is_superhost"` HasProfilePic bool `bson:"host_has_profile_pic"` IdentityVerified bool `bson:"host_identity_verified"` ListingsCount int32 `bson:"host_listings_count"` TotalListingsCount int32 `bson:"host_total_listings_count"` Verifications []string `bson:"host_verifications"` } type Location struct { Type string `bson:"type"` Coordinates []float64 `bson:"coordinates"` IsLocationExact bool `bson:"is_location_exact"` } type Address struct { Street string `bson:"street"` Suburb string `bson:"suburb"` GovernmentArea string `bson:"government_area"` Market string `bson:"market"` Country string `bson:"Country"` CountryCode string `bson:"country_code"` Location Location `bson:"location"` } type Availability struct { Thirty int32 `bson:"availability_30"` Sixty int32 `bson:"availability_60"` Ninety int32 `bson:"availability_90"` ThreeSixtyFive int32 `bson:"availability_365"` } type ReviewScores struct { Accuracy int32 `bson:"review_scores_accuracy"` Cleanliness int32 `bson:"review_scores_cleanliness"` CheckIn int32 `bson:"review_scores_checkin"` Communication int32 `bson:"review_scores_communication"` Location int32 `bson:"review_scores_location"` Value int32 `bson:"review_scores_value"` Rating int32 `bson:"review_scores_rating"` } type Review struct { ID string `bson:"_id"` Date time.Time `bson:"date,omitempty"` ListingId string `bson:"listing_id"` ReviewerId string `bson:"reviewer_id"` ReviewerName string `bson:"reviewer_name"` Comments string `bson:"comments"` } type Listing struct { ID string `bson:"_id"` ListingURL string `bson:"listing_url"` Name string `bson:"name"` Summary string `bson:"summary"` Space string `bson:"space"` Description string `bson:"description"` NeighborhoodOverview string `bson:"neighborhood_overview"` Notes string `bson:"notes"` Transit string `bson:"transit"` Access string `bson:"access"` Interaction string `bson:"interaction"` HouseRules string `bson:"house_rules"` PropertyType string `bson:"property_type"` RoomType string `bson:"room_type"` BedType string `bson:"bed_type"` MinimumNights string `bson:"minimum_nights"` MaximumNights string `bson:"maximum_nights"` CancellationPolicy string `bson:"cancellation_policy"` LastScraped time.Time `bson:"last_scraped,omitempty"` CalendarLastScraped time.Time `bson:"calendar_last_scraped,omitempty"` FirstReview time.Time `bson:"first_review,omitempty"` LastReview time.Time `bson:"last_review,omitempty"` Accommodates int32 `bson:"accommodates"` Bedrooms int32 `bson:"bedrooms"` Beds int32 `bson:"beds"` NumberOfReviews int32 `bson:"number_of_reviews"` Bathrooms primitive.Decimal128 `bson:"bathrooms"` Amenities []string `bson:"amenities"` Price primitive.Decimal128 `bson:"price"` WeeklyPrice primitive.Decimal128 `bson:"weekly_price"` MonthlyPrice primitive.Decimal128 `bson:"monthly_price"` CleaningFee primitive.Decimal128 `bson:"cleaning_fee"` ExtraPeople primitive.Decimal128 `bson:"extra_people"` GuestsIncluded primitive.Decimal128 `bson:"guests_included"` Image Image `bson:"images"` Host Host `bson:"host"` Address Address `bson:"address"` Availability Availability `bson:"availability"` ReviewScores ReviewScores `bson:"review_scores"` Reviews []Review `bson:"reviews"` Embeddings []float32 `bson:"embeddings,omitempty"` } Retorne ao diretório raiz.
cd ../ Crie outro arquivo denominado
generate-embeddings.go
e cole o seguinte código nele:generate-embeddings.go1 package main 2 3 import ( 4 "context" 5 "local-rag-mongodb/common" // Module that contains the models and GetEmbeddings function 6 "log" 7 "os" 8 9 "github.com/joho/godotenv" 10 "go.mongodb.org/mongo-driver/bson" 11 "go.mongodb.org/mongo-driver/mongo" 12 "go.mongodb.org/mongo-driver/mongo/options" 13 ) 14 15 func main() { 16 ctx := context.Background() 17 18 if err := godotenv.Load(); err != nil { 19 log.Println("no .env file found") 20 } 21 22 // Connect to your Atlas cluster 23 uri := os.Getenv("ATLAS_CONNECTION_STRING") 24 if uri == "" { 25 log.Fatal("set your 'ATLAS_CONNECTION_STRING' environment variable.") 26 } 27 clientOptions := options.Client().ApplyURI(uri) 28 client, err := mongo.Connect(ctx, clientOptions) 29 if err != nil { 30 log.Fatalf("failed to connect to the server: %v", err) 31 } 32 defer func() { _ = client.Disconnect(ctx) }() 33 34 // Set the namespace 35 coll := client.Database("sample_airbnb").Collection("listingsAndReviews") 36 37 filter := bson.D{ 38 {"$and", 39 bson.A{ 40 bson.D{ 41 {"$and", 42 bson.A{ 43 bson.D{{"summary", bson.D{{"$exists", true}}}}, 44 bson.D{{"summary", bson.D{{"$ne", ""}}}}, 45 }, 46 }}, 47 bson.D{{"embeddings", bson.D{{"$exists", false}}}}, 48 }}, 49 } 50 51 findOptions := options.Find().SetLimit(250) 52 53 cursor, err := coll.Find(ctx, filter, findOptions) 54 if err != nil { 55 log.Fatalf("failed to retrieve data from the server: %v", err) 56 } 57 58 var listings []common.Listing 59 if err = cursor.All(ctx, &listings); err != nil { 60 log.Fatalf("failed to unmarshal retrieved docs to model objects: %v", err) 61 } 62 63 var summaries []string 64 for _, listing := range listings { 65 summaries = append(summaries, listing.Summary) 66 } 67 68 log.Println("Generating embeddings.") 69 embeddings := common.GetEmbeddings(summaries) 70 71 updateDocuments := make([]mongo.WriteModel, len(listings)) 72 for i := range updateDocuments { 73 updateDocuments[i] = mongo.NewUpdateOneModel(). 74 SetFilter(bson.D{{"_id", listings[i].ID}}). 75 SetUpdate(bson.D{{"$set", bson.D{{"embeddings", embeddings[i]}}}}) 76 } 77 78 bulkWriteOptions := options.BulkWrite().SetOrdered(false) 79 80 result, err := coll.BulkWrite(ctx, updateDocuments, bulkWriteOptions) 81 if err != nil { 82 log.Fatalf("failed to update documents: %v", err) 83 } 84 85 log.Printf("%d documents updated successfully.", result.MatchedCount) 86 } Neste exemplo, definimos um limite de 250 documentos ao gerar incorporações. O processo para gerar incorporações para mais de 5000 documentos na coleção é lento. Se você quiser alterar o número de documentos para os quais está gerando incorporações:
Altere o número de documentos: ajuste o número
.SetLimit(250)
nasFind()
opções na linha 52.Gere incorporações para todos os documentos: omita as opções na chamada
Find()
na linha 54.
Execute o seguinte comando para executar o código:
go run generate-embeddings.go 2024/10/10 15:49:23 Generating embeddings. 2024/10/10 15:49:28 250 documents updated successfully.
Baixe o modelo de incorporação local.
Execute o seguinte comando para extrair o modelo nomic-embed-text do Ollama:
ollama pull nomic-embed-text
Defina seu modelo e método para gerar incorporações vetoriais.
Crie um arquivo chamado OllamaModels.java
e cole o seguinte código.
Este código define os modelos locais de incorporação e bate-papo do Ollama que você usará em seu projeto. Trabalharemos com o modelo de chat em uma etapa posterior. Você pode adaptar ou criar modelos adicionais conforme necessário para a configuração de sua preferência.
Este código também define dois métodos para gerar incorporações para uma determinada entrada usando o modelo de incorporação que você baixou anteriormente:
Várias Entradas: O
getEmbeddings
método aceita uma array de entradas de textoList<String>
(), permitindo criar várias incorporações em uma única chamada de API. O método converte as arrays de floats fornecidas pela API em arrays BSON de double para armazenamento em seu Atlas cluster.Entrada única: o
getEmbedding
método aceita umString
único, que representa uma query que você deseja fazer em relação aos dados vetoriais. O método converte a array de flutuantes fornecida pela API em uma array BSON de valores duplos para usar ao fazer query em sua coleção.
import dev.langchain4j.data.embedding.Embedding; import dev.langchain4j.data.segment.TextSegment; import dev.langchain4j.model.ollama.OllamaChatModel; import dev.langchain4j.model.ollama.OllamaEmbeddingModel; import dev.langchain4j.model.output.Response; import org.bson.BsonArray; import org.bson.BsonDouble; import java.util.List; import static java.time.Duration.ofSeconds; public class OllamaModels { private static final String host = "http://localhost:11434"; private static OllamaEmbeddingModel embeddingModel; private static OllamaChatModel chatModel; /** * Returns the Ollama embedding model used by the getEmbeddings() and getEmbedding() methods * to generate vector embeddings. */ public static OllamaEmbeddingModel getEmbeddingModel() { if (embeddingModel == null) { embeddingModel = OllamaEmbeddingModel.builder() .timeout(ofSeconds(10)) .modelName("nomic-embed-text") .baseUrl(host) .build(); } return embeddingModel; } /** * Returns the Ollama chat model interface used by the createPrompt() method * to process queries and generate responses. */ public static OllamaChatModel getChatModel() { if (chatModel == null) { chatModel = OllamaChatModel.builder() .timeout(ofSeconds(25)) .modelName("mistral") .baseUrl(host) .build(); } return chatModel; } /** * Takes an array of strings and returns a collection of BSON array embeddings * to store in the database. */ public static List<BsonArray> getEmbeddings(List<String> texts) { List<TextSegment> textSegments = texts.stream() .map(TextSegment::from) .toList(); Response<List<Embedding>> response = getEmbeddingModel().embedAll(textSegments); return response.content().stream() .map(e -> new BsonArray( e.vectorAsList().stream() .map(BsonDouble::new) .toList())) .toList(); } /** * Takes a single string and returns a BSON array embedding to * use in a vector query. */ public static BsonArray getEmbedding(String text) { Response<Embedding> response = getEmbeddingModel().embed(text); return new BsonArray( response.content().vectorAsList().stream() .map(BsonDouble::new) .toList()); } }
Defina o código para gerar incorporações a partir dos dados de amostra.
Crie um arquivo denominado EmbeddingGenerator.java
e cole o seguinte código.
Este código utiliza o getEmbeddings
método e o MongoDB Java Sync Driver para fazer o seguinte:
Conecte-se à sua implantação local do Atlas ou ao cluster Atlas .
Obtenha um subconjunto de documentos da coleção
sample_airbnb.listingsAndReviews
que possuem um camposummary
não vazio.Observação
Para fins de demonstração, definimos um
limit
de 250 documentos para reduzir o tempo de processamento. Você pode ajustar ou remover esse limite conforme necessário para melhor se adequar ao seu caso de uso.Gere uma incorporação do campo
summary
de cada documento usando o métodogetEmbeddings
definido anteriormente.Atualize cada documento com um novo campo
embedding
que contém o valor de incorporação correspondente.
import com.mongodb.MongoException; import com.mongodb.bulk.BulkWriteResult; import com.mongodb.client.MongoClient; import com.mongodb.client.MongoClients; import com.mongodb.client.MongoCollection; import com.mongodb.client.MongoCursor; import com.mongodb.client.MongoDatabase; import com.mongodb.client.model.BulkWriteOptions; import com.mongodb.client.model.Filters; import com.mongodb.client.model.Projections; import com.mongodb.client.model.UpdateOneModel; import com.mongodb.client.model.Updates; import com.mongodb.client.model.WriteModel; import org.bson.BsonArray; import org.bson.Document; import org.bson.conversions.Bson; import java.util.ArrayList; import java.util.List; public class EmbeddingGenerator { public static void main(String[] args) { String uri = System.getenv("ATLAS_CONNECTION_STRING"); if (uri == null || uri.isEmpty()) { throw new RuntimeException("ATLAS_CONNECTION_STRING env variable is not set or is empty."); } // establish connection and set namespace try (MongoClient mongoClient = MongoClients.create(uri)) { MongoDatabase database = mongoClient.getDatabase("sample_airbnb"); MongoCollection<Document> collection = database.getCollection("listingsAndReviews"); // define parameters for the find() operation // NOTE: this example uses a limit to reduce processing time Bson projectionFields = Projections.fields( Projections.include("_id", "summary")); Bson filterSummary = Filters.ne("summary", ""); int limit = 250; try (MongoCursor<Document> cursor = collection .find(filterSummary) .projection(projectionFields) .limit(limit) .iterator()) { List<String> summaries = new ArrayList<>(); List<String> documentIds = new ArrayList<>(); while (cursor.hasNext()) { Document document = cursor.next(); String summary = document.getString("summary"); String id = document.get("_id").toString(); summaries.add(summary); documentIds.add(id); } // generate embeddings for the summary in each document // and add to the document to the 'embeddings' array field System.out.println("Generating embeddings for " + summaries.size() + " documents."); System.out.println("This operation may take up to several minutes."); List<BsonArray> embeddings = OllamaModels.getEmbeddings(summaries); List<WriteModel<Document>> updateDocuments = new ArrayList<>(); for (int j = 0; j < summaries.size(); j++) { UpdateOneModel<Document> updateDoc = new UpdateOneModel<>( Filters.eq("_id", documentIds.get(j)), Updates.set("embeddings", embeddings.get(j))); updateDocuments.add(updateDoc); } // bulk write the updated documents to the 'listingsAndReviews' collection int result = performBulkWrite(updateDocuments, collection); System.out.println("Added embeddings successfully to " + result + " documents."); } } catch (MongoException me) { throw new RuntimeException("Failed to connect to MongoDB", me); } catch (Exception e) { throw new RuntimeException("Operation failed: ", e); } } /** * Performs a bulk write operation on the specified collection. */ private static int performBulkWrite(List<WriteModel<Document>> updateDocuments, MongoCollection<Document> collection) { if (updateDocuments.isEmpty()) { return 0; } BulkWriteResult result; try { BulkWriteOptions options = new BulkWriteOptions().ordered(false); result = collection.bulkWrite(updateDocuments, options); return result.getModifiedCount(); } catch (MongoException me) { throw new RuntimeException("Failed to insert documents", me); } } }
Baixe o modelo de incorporação local.
Este exemplo usa o managed-ai/mxvai-embed-large-v1 modelo a partir do hub de modelos do Hugging Face. O método mais simples de baixar os arquivos de modelo é clonar o repositório usando o Git com o Git Large File Storage. O Hugging Face requer um token de acesso do usuário ou Git sobre SSH para autenticar sua solicitação para clonar o repositório.
git clone https://<your-hugging-face-username>:<your-hugging-face-user-access-token>@huggingface.co/mixedbread-ai/mxbai-embed-large-v1
git clone git@hf.co:mixedbread-ai/mxbai-embed-large-v1
Dica
Armazenamento de arquivos grandes do Git
Os arquivos do modelo Hugging Face são grandes e requerem Git Large File Storage (git-lfs) para clonar os repositórios. Se você vir erros relacionados ao armazenamento de arquivos grandes, verifique se instalou o git-lfs.
Obtenha o caminho local para os arquivos do modelo.
Obtenha o caminho para os arquivos do modelo local na sua máquina. Esse é o diretório principal que contém o repositório git que você acabou de clonar. Se você clonou o repositório modelo dentro do diretório do projeto que criou para este tutorial, o caminho do diretório principal deve ser semelhante a:
/Users/<username>/local-rag-mongodb
Verifique o diretório do modelo e certifique-se de que contenha um diretório onnx
que tenha um arquivo model_quantized.onnx
:
cd mxbai-embed-large-v1/onnx ls
model.onnx model_fp16.onnx model_quantized.onnx
Gerar incorporações.
Navegue de volta para o diretório principal
local-rag-mongodb
.Crie um arquivo chamado
get-embeddings.js
, e cole o seguinte código nele:get-embeddings.jsimport { env, pipeline } from '@xenova/transformers'; // Function to generate embeddings for given data export async function getEmbedding(data) { // Replace this path with the parent directory that contains the model files env.localModelPath = '/Users/<username>/local-rag-mongodb/'; env.allowRemoteModels = false; const task = 'feature-extraction'; const model = 'mxbai-embed-large-v1'; const embedder = await pipeline( task, model); const results = await embedder(data, { pooling: 'mean', normalize: true }); return Array.from(results.data); } Substitua o
'/Users/<username>/local-rag-mongodb/'
pelo caminho local da etapa anterior.Crie outro arquivo denominado
generate-embeddings.js
e cole o seguinte código nele:generate-embeddings.js1 import { MongoClient } from 'mongodb'; 2 import { getEmbedding } from './get-embeddings.js'; 3 4 async function run() { 5 6 // Connect to your Atlas cluster 7 const client = new MongoClient(process.env.ATLAS_CONNECTION_STRING); 8 9 try { 10 // Connect to your local MongoDB deployment 11 await client.connect(); 12 const db = client.db("sample_airbnb"); 13 const collection = db.collection("listingsAndReviews"); 14 15 const filter = { '$and': [ 16 { 'summary': { '$exists': true, '$ne': null } }, 17 { 'embeddings': { '$exists': false } } 18 ]}; 19 20 // This is a long-running operation for all docs in the collection, 21 // so we limit the docs for this example 22 const cursor = collection.find(filter).limit(50); 23 24 // To verify that you have the local embedding model configured properly, 25 // try generating an embedding for one document 26 const firstDoc = await cursor.next(); 27 if (!firstDoc) { 28 console.log('No document found.'); 29 return; 30 } 31 32 const firstDocEmbeddings = await getEmbedding(firstDoc.summary); 33 console.log(firstDocEmbeddings); 34 35 // After confirming that you are successfully generating embeddings, 36 // uncomment the following code to generate embeddings for all docs: 37 /* 38 cursor.rewind(); // Reset the cursor to process documents again 39 console.log("Generating embeddings and updating documents..."); 40 41 // Create embeddings from a field in the collection 42 const updateDocuments = []; 43 for await (const doc of cursor) { 44 45 const embedding = await getEmbedding(doc.summary); 46 47 updateDocuments.push( 48 { 49 updateOne: { 50 filter: { "_id": doc._id }, 51 update: { $set: { "embedding": embedding } } 52 } 53 } 54 ) 55 } 56 57 // Continue processing documents if an error occurs during an operation 58 const options = { ordered: false }; 59 60 // Update documents with the new embedding field 61 const result = await collection.bulkWrite(updateDocuments, options) 62 console.log("Count of documents updated: " + result.modifiedCount); 63 */ 64 65 } catch (err) { 66 console.log(err.stack); 67 } 68 finally { 69 await client.close(); 70 } 71 } 72 run().catch(console.dir); Esse código inclui algumas linhas para testar se você baixou corretamente o modelo e está usando o caminho correto. Execute o seguinte comando para executar o código:
node --env-file=.env generate-embeddings.js Tensor { dims: [ 1, 1024 ], type: 'float32', data: Float32Array(1024) [ -0.01897735893726349, -0.001120976754464209, -0.021224822849035263, -0.023649735376238823, -0.03350808471441269, -0.0014186901971697807, -0.009617107920348644, 0.03344292938709259, 0.05424851179122925, -0.025904450565576553, 0.029770011082291603, -0.0006215018220245838, 0.011056603863835335, -0.018984895199537277, 0.03985185548663139, -0.015273082070052624, -0.03193040192127228, 0.018376577645540237, -0.02236943319439888, 0.01433168537914753, 0.02085157483816147, -0.005689046811312437, -0.05541415512561798, -0.055907104164361954, -0.019112611189484596, 0.02196515165269375, 0.027313007041811943, -0.008618313819169998, 0.045496534556150436, 0.06271681934595108, -0.0028660669922828674, -0.02433634363114834, 0.02016191929578781, -0.013882477767765522, -0.025465600192546844, 0.0000950733374338597, 0.018200192600488663, -0.010413561016321182, -0.002004098379984498, -0.058351870626211166, 0.01749623566865921, -0.013926318846642971, -0.00278360559605062, -0.010333008132874966, 0.004406726453453302, 0.04118744656443596, 0.02210155501961708, -0.016340743750333786, 0.004163357429206371, -0.018561601638793945, 0.0021984230261296034, -0.012378614395856857, 0.026662321761250496, -0.006476820446550846, 0.001278138137422502, -0.010084952227771282, -0.055993322283029556, -0.015850437805056572, 0.015145729295909405, 0.07512971013784409, -0.004111358895897865, -0.028162647038698196, 0.023396577686071396, -0.01159974467009306, 0.021751703694462776, 0.006198467221111059, 0.014084039255976677, -0.0003913900291081518, 0.006310020107775927, -0.04500332102179527, 0.017774192616343498, -0.018170733004808426, 0.026185045018792152, -0.04488714039325714, -0.048510149121284485, 0.015152698382735252, 0.012136898003518581, 0.0405895821750164, -0.024783289059996605, -0.05514788627624512, 0.03484730422496796, -0.013530988246202469, 0.0319477915763855, 0.04537525027990341, -0.04497901350259781, 0.009621822275221348, -0.013845544308423996, 0.0046155862510204315, 0.03047163411974907, 0.0058857654221355915, 0.005858785007148981, 0.01180865429341793, 0.02734190598130226, 0.012322399765253067, 0.03992653638124466, 0.015777742490172386, 0.017797520384192467, 0.02265017107129097, -0.018233606591820717, 0.02064627595245838, ... 924 more items ], size: 1024 } Opcionalmente, depois de confirmar que está gerando incorporações com sucesso com o modelo local, você pode descomentar o código nas linhas 35-52 para gerar incorporações para todos os documentos na coleção. Salve o arquivo.
Em seguida, execute o comando para executar o código:
node --env-file=.env generate-embeddings.js [ Tensor { dims: [ 1024 ], type: 'float32', data: Float32Array(1024) [ -0.043243519961833954, 0.01316747535020113, -0.011639945209026337, -0.025046885013580322, 0.005129443947225809, -0.02003324404358864, 0.005245734006166458, 0.10105721652507782, 0.05425914749503136, -0.010824322700500488, 0.021903572604060173, 0.048009492456912994, 0.01291663944721222, -0.015903260558843613, -0.008034848608076572, -0.003592714900150895, -0.029337648302316666, 0.02282896265387535, -0.029112281277775764, 0.011099508963525295, -0.012238143011927605, -0.008351574651896954, -0.048714976757764816, 0.001015961286611855, 0.02252192236483097, 0.04426417499780655, 0.03514830768108368, -0.02088250033557415, 0.06391220539808273, 0.06896235048770905, -0.015386332757771015, -0.019206153228878975, 0.015263230539858341, -0.00019019744649995118, -0.032121095806360245, 0.015855342149734497, 0.05055809020996094, 0.004083932377398014, 0.026945054531097412, -0.0505746565759182, -0.009507855400443077, -0.012497996911406517, 0.06249537691473961, -0.04026378318667412, 0.010749109089374542, 0.016748877242207527, -0.0235306303948164, -0.03941794112324715, 0.027474915608763695, -0.02181144617497921, 0.0026422827504575253, 0.005104491952806711, 0.027314607053995132, 0.019283341243863106, 0.005245842970907688, -0.018712762743234634, -0.08618085831403732, 0.003314188914373517, 0.008071620017290115, 0.05356570705771446, -0.008000597357749939, 0.006983411032706499, -0.0070550404489040375, -0.043323490768671036, 0.03490140289068222, 0.03810165822505951, 0.0406375490128994, -0.0032191979698836803, 0.01489361934363842, -0.01609957590699196, -0.006372962612658739, 0.03360277786850929, -0.014810526743531227, -0.00925799086689949, -0.01885424554347992, 0.0182492695748806, 0.009002899751067162, -0.004713123198598623, -0.00846288911998272, -0.012471121735870838, -0.0080558517947793, 0.0135461101308465, 0.03335557505488396, -0.0027410900220274925, -0.02145615592598915, 0.01378028653562069, 0.03708091005682945, 0.03519297018647194, 0.014239554293453693, 0.02219904027879238, 0.0015641176141798496, 0.02624501660466194, 0.022713981568813324, -0.004414170514792204, 0.026919621974229813, -0.002607459668070078, -0.04017219692468643, -0.003570320550352335, -0.022905709221959114, 0.030657364055514336, ... 924 more items ], size: 1024 } ] Generating embeddings and updating documents... Count of documents updated: 50
Cole o código a seguir no seu notebook.
Este código executa as seguintes ações:
Conecta-se à sua implantação local do Atlas ou ao cluster Atlas e seleciona a coleção
sample_airbnb.listingsAndReviews
.Carrega o modelo mixedbread-ai/mxbai-embed-large-v1 do hub de modelos Hugging Face e o salva localmente. Para saber mais, consulte Baixando modelos.
Define uma função que usa o modelo para gerar incorporações vetoriais.
Para um subconjunto de documentos na coleção:
Gera uma incorporação a partir do campo
summary
do documento.Atualiza o documento criando um novo campo chamado
embeddings
que contém a incorporação.
from pymongo import MongoClient from sentence_transformers import SentenceTransformer # Connect to your local Atlas deployment or Atlas Cluster client = MongoClient(ATLAS_CONNECTION_STRING) # Select the sample_airbnb.listingsAndReviews collection collection = client["sample_airbnb"]["listingsAndReviews"] # Load the embedding model (https://huggingface.co/sentence-transformers/mixedbread-ai/mxbai-embed-large-v1) model_path = "<model-path>" model = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1') model.save(model_path) model = SentenceTransformer(model_path) # Define function to generate embeddings def get_embedding(text): return model.encode(text).tolist() # Filters for only documents with a summary field and without an embeddings field filter = { '$and': [ { 'summary': { '$exists': True, '$ne': None } }, { 'embeddings': { '$exists': False } } ] } # Creates embeddings for subset of the collection updated_doc_count = 0 for document in collection.find(filter).limit(50): text = document['summary'] embedding = get_embedding(text) collection.update_one({ '_id': document['_id'] }, { "$set": { 'embeddings': embedding } }, upsert=True) updated_doc_count += 1 print("Documents updated: {}".format(updated_doc_count)) Documents updated: 50
Esse código pode levar alguns minutos para ser executado. Depois de concluído, você poderá visualizar suas incorporações vetoriais conectando-se ao sistema local a partir do mongosh
ou ao seu aplicação usando a string de conexão do sistema. Em seguida, você pode executar operações de leitura na sample_airbnb.listingsAndReviews
coleção.
Você pode visualizar suas incorporações vetoriais na interface do Atlas navegando até a coleção sample_airbnb.listingsAndReviews
no seu cluster e expandindo os campos em um documento.
Dica
Você pode converter as incorporações nos dados de amostra em vetores BSON para armazenar e ingerir vetores no Atlas com eficiência. Para saber mais, consulte como converter incorporações nativas em vetores BSON.
Criar o índice Atlas Vector Search Index
Para ativar a pesquisa vetorial na coleção sample_airbnb.listingsAndReviews
, crie um índice do Atlas Vector Search.
Este tutorial mostra como criar um índice do Atlas Vector Search programaticamente com um driver do MongoDB compatível ou usando a Atlas CLI. Para obter informações sobre outras maneiras de criar um índice do Atlas Vector Search , consulte Como indexar campos para o Vector Search.
Observação
Para criar um Atlas Vector Search índice de pesquisa, você deve ter acesso Project Data Access Admin
ou superior ao Atlas projeto.
Para criar um índice do Atlas Vector Search para uma coleção usando o driver C# do MongoDB v3.1.0 ou posterior, execute as seguintes etapas:
Defina o índice do Atlas Vector Search.
Adicione um novo método CreateVectorIndex()
no arquivo chamado MongoDBDataService.cs
para definir o índice de pesquisa:
namespace MyCompany.RAG.Local; using MongoDB.Driver; using MongoDB.Bson; public class DataService { private static readonly string? ConnectionString = Environment.GetEnvironmentVariable("ATLAS_CONNECTION_STRING"); private static readonly MongoClient Client = new MongoClient(ConnectionString); private static readonly IMongoDatabase Database = Client.GetDatabase("sample_airbnb"); private static readonly IMongoCollection<BsonDocument> Collection = Database.GetCollection<BsonDocument>("listingsAndReviews"); public List<BsonDocument>? GetDocuments() { // Method details... } public async Task<string> UpdateDocuments(Dictionary<string, float[]> embeddings) { // Method details... } public string CreateVectorIndex() { try { var searchIndexView = Collection.SearchIndexes; var name = "vector_index"; var type = SearchIndexType.VectorSearch; var definition = new BsonDocument { { "fields", new BsonArray { new BsonDocument { { "type", "vector" }, { "path", "embeddings" }, { "numDimensions", 768 }, { "similarity", "cosine" } } } } }; var model = new CreateSearchIndexModel(name, type, definition); searchIndexView.CreateOne(model); Console.WriteLine($"New search index named {name} is building."); // Polling for index status Console.WriteLine("Polling to check if the index is ready. This may take up to a minute."); bool queryable = false; while (!queryable) { var indexes = searchIndexView.List(); foreach (var index in indexes.ToEnumerable()) { if (index["name"] == name) { queryable = index["queryable"].AsBoolean; } } if (!queryable) { Thread.Sleep(5000); } } return $"{name} is ready for querying."; } catch (Exception e) { return $"Exception: {e.Message}"; } } }
Essa definição de índice indexa o campo embeddings
em um índice do tipo vectorSearch para a coleção sample_airbnb.listingsAndReviews
. Esse campo contém as incorporações criadas utilizando o modelo de incorporação. A definição de índice especifica 768
dimensões vetoriais e mede a similaridade usando cosine
.
Para criar um índice do Atlas Vector Search para uma coleção usando o driver Go do MongoDB v1.16.0 ou posterior, execute as seguintes etapas:
Defina o índice do Atlas Vector Search.
Crie um arquivo chamado vector-index.go
e cole o seguinte código no arquivo:
package main import ( "context" "fmt" "log" "os" "time" "github.com/joho/godotenv" "go.mongodb.org/mongo-driver/bson" "go.mongodb.org/mongo-driver/mongo" "go.mongodb.org/mongo-driver/mongo/options" ) func main() { ctx := context.Background() if err := godotenv.Load(); err != nil { log.Println("no .env file found") } // Connect to your Atlas cluster uri := os.Getenv("ATLAS_CONNECTION_STRING") if uri == "" { log.Fatal("set your 'ATLAS_CONNECTION_STRING' environment variable.") } clientOptions := options.Client().ApplyURI(uri) client, err := mongo.Connect(ctx, clientOptions) if err != nil { log.Fatalf("failed to connect to the server: %v", err) } defer func() { _ = client.Disconnect(ctx) }() // Set the namespace coll := client.Database("sample_airbnb").Collection("listingsAndReviews") indexName := "vector_index" opts := options.SearchIndexes().SetName(indexName).SetType("vectorSearch") type vectorDefinitionField struct { Type string `bson:"type"` Path string `bson:"path"` NumDimensions int `bson:"numDimensions"` Similarity string `bson:"similarity"` } type vectorDefinition struct { Fields []vectorDefinitionField `bson:"fields"` } indexModel := mongo.SearchIndexModel{ Definition: vectorDefinition{ Fields: []vectorDefinitionField{{ Type: "vector", Path: "embeddings", NumDimensions: 768, Similarity: "cosine"}}, }, Options: opts, } log.Println("Creating the index.") searchIndexName, err := coll.SearchIndexes().CreateOne(ctx, indexModel) if err != nil { log.Fatalf("failed to create the search index: %v", err) } // Await the creation of the index. log.Println("Polling to confirm successful index creation.") log.Println("NOTE: This may take up to a minute.") searchIndexes := coll.SearchIndexes() var doc bson.Raw for doc == nil { cursor, err := searchIndexes.List(ctx, options.SearchIndexes().SetName(searchIndexName)) if err != nil { fmt.Errorf("failed to list search indexes: %w", err) } if !cursor.Next(ctx) { break } name := cursor.Current.Lookup("name").StringValue() queryable := cursor.Current.Lookup("queryable").Boolean() if name == searchIndexName && queryable { doc = cursor.Current } else { time.Sleep(5 * time.Second) } } log.Println("Name of Index Created: " + searchIndexName) }
Essa definição de índice indexa o campo embeddings
em um índice do tipo vectorSearch para a coleção sample_airbnb.listingsAndReviews
. Esse campo contém as incorporações criadas utilizando o modelo de incorporação. A definição de índice especifica 768
dimensões vetoriais e mede a similaridade usando cosine
.
Para criar um índice do Atlas Vector Search para uma coleção usando o driver Java do MongoDB v5.2.0 ou posterior, execute as seguintes etapas:
Defina um método para criar o índice do Atlas Vector Search .
Crie um arquivo denominado VectorIndex.java
e cole o seguinte código.
Esse código chama um método assistente createSearchIndexes()
, que usa seu objeto MongoCollection
e cria um índice do Atlas Vector Search em sua coleção usando a seguinte definição de índice:
Indexe o
embedding
campo em um tipo de índice vectorSearch para asample_airbnb.listingsAndReviews
coleção. Este campo contém a incorporação criada utilizando o modelo de incorporação.Aplique
768
dimensões vetoriais e meça a similaridade entre vetores usandocosine
.
import com.mongodb.MongoException; import com.mongodb.client.ListSearchIndexesIterable; import com.mongodb.client.MongoClient; import com.mongodb.client.MongoClients; import com.mongodb.client.MongoCollection; import com.mongodb.client.MongoCursor; import com.mongodb.client.MongoDatabase; import com.mongodb.client.model.SearchIndexModel; import com.mongodb.client.model.SearchIndexType; import org.bson.Document; import org.bson.conversions.Bson; import java.util.Collections; import java.util.List; public class VectorIndex { public static void main(String[] args) { String uri = System.getenv("ATLAS_CONNECTION_STRING"); if (uri == null || uri.isEmpty()) { throw new IllegalStateException("ATLAS_CONNECTION_STRING env variable is not set or is empty."); } // establish connection and set namespace try (MongoClient mongoClient = MongoClients.create(uri)) { MongoDatabase database = mongoClient.getDatabase("sample_airbnb"); MongoCollection<Document> collection = database.getCollection("listingsAndReviews"); // define the index details for the index model String indexName = "vector_index"; Bson definition = new Document( "fields", Collections.singletonList( new Document("type", "vector") .append("path", "embeddings") .append("numDimensions", 768) .append("similarity", "cosine"))); SearchIndexModel indexModel = new SearchIndexModel( indexName, definition, SearchIndexType.vectorSearch()); // create the index using the defined model try { List<String> result = collection.createSearchIndexes(Collections.singletonList(indexModel)); System.out.println("Successfully created a vector index named: " + result); } catch (Exception e) { throw new RuntimeException(e); } // wait for Atlas to build the index and make it queryable System.out.println("Polling to confirm the index has completed building."); System.out.println("It may take up to a minute for the index to build before you can query using it."); waitForIndexReady(collection, indexName); } catch (MongoException me) { throw new RuntimeException("Failed to connect to MongoDB ", me); } catch (Exception e) { throw new RuntimeException("Operation failed: ", e); } } /** * Polls the collection to check whether the specified index is ready to query. */ public static void waitForIndexReady(MongoCollection<Document> collection, String indexName) throws InterruptedException { ListSearchIndexesIterable<Document> searchIndexes = collection.listSearchIndexes(); while (true) { try (MongoCursor<Document> cursor = searchIndexes.iterator()) { if (!cursor.hasNext()) { break; } Document current = cursor.next(); String name = current.getString("name"); boolean queryable = current.getBoolean("queryable"); if (name.equals(indexName) && queryable) { System.out.println(indexName + " index is ready to query"); return; } else { Thread.sleep(500); } } } } }
Criar o índice do Atlas Vector Search.
Salve e execute o arquivo. A saída se assemelha a:
Successfully created a vector index named: [vector_index] Polling to confirm the index has completed building. It may take up to a minute for the index to build before you can query using it. vector_index index is ready to query
Para criar um índice do Atlas Vector Search para uma coleção usando o driver do MongoDB Node v6.6.0 ou posterior, execute as seguintes etapas:
Defina o índice do Atlas Vector Search.
Crie um arquivo chamado vector-index.js
e cole o seguinte código no arquivo:
import { MongoClient } from 'mongodb'; // Connect to your Atlas deployment const client = new MongoClient(process.env.ATLAS_CONNECTION_STRING); async function run() { try { const database = client.db("sample_airbnb"); const collection = database.collection("listingsAndReviews"); // Define your Atlas Vector Search index const index = { name: "vector_index", type: "vectorSearch", definition: { "fields": [ { "type": "vector", "numDimensions": 1024, "path": "embeddings", "similarity": "cosine" } ] } } // Call the method to create the index const result = await collection.createSearchIndex(index); console.log(result); } finally { await client.close(); } } run().catch(console.dir);
Essa definição de índice indexa o campo embeddings
em um índice do tipo vectorSearch para a coleção sample_airbnb.listingsAndReviews
. Esse campo contém as incorporações criadas utilizando o modelo de incorporação. A definição de índice especifica 1024
dimensões vetoriais e mede a similaridade usando cosine
.
Para criar um índice do Atlas Vector Search para uma coleção usando o driver PyMongo v4.7 ou posterior, execute as seguintes etapas:
Você pode criar o índice diretamente pelo aplicativo com o driver PyMongo. Cole e execute o seguinte código no seu notebook:
from pymongo.operations import SearchIndexModel # Create your index model, then create the search index search_index_model = SearchIndexModel( definition = { "fields": [ { "type": "vector", "numDimensions": 1024, "path": "embeddings", "similarity": "cosine" } ] }, name = "vector_index", type = "vectorSearch" ) collection.create_search_index(model=search_index_model)
Essa definição de índice indexa o campo embeddings
em um índice do tipo vectorSearch para a coleção sample_airbnb.listingsAndReviews
. Esse campo contém as incorporações criadas utilizando o modelo de incorporação. A definição de índice especifica 1024
dimensões vetoriais e mede a similaridade usando cosine
.
Para criar um índice do Atlas Vector Search utilizando o Atlas CLI, execute as seguintes etapas:
Defina o índice do Atlas Vector Search.
Crie um arquivo denominado vector-index.json
e cole a seguinte definição de índice no arquivo:
{ "database": "sample_airbnb", "collectionName": "listingsAndReviews", "type": "vectorSearch", "name": "vector_index", "fields": [ { "type": "vector", "path": "embeddings", "numDimensions": 768, "similarity": "cosine" } ] }
Esta definição de índice especifica o seguinte:
Indexe o
embeddings
campo em um tipo de índice vectorSearch para asample_airbnb.listingsAndReviews
coleção. Este campo contém as incorporações criadas utilizando o modelo de incorporação.Aplique
768
dimensões vetoriais e meça a similaridade entre vetores usandocosine
.
Criar o índice do Atlas Vector Search.
Salve o arquivo no diretório do seu projeto e execute o seguinte comando no terminal, substituindo <path-to-file>
pelo caminho para o arquivo vector-index.json
que você criou.
atlas deployments search indexes create --file <path-to-file>
Por exemplo, seu caminho pode se assemelhar a: /Users/<username>/local-rag-mongodb/vector-index.json
.
Defina o índice do Atlas Vector Search.
Crie um arquivo denominado vector-index.json
e cole a seguinte definição de índice no arquivo:
{ "database": "sample_airbnb", "collectionName": "listingsAndReviews", "type": "vectorSearch", "name": "vector_index", "fields": [ { "type": "vector", "path": "embeddings", "numDimensions": 768, "similarity": "cosine" } ] }
Esta definição de índice especifica o seguinte:
Indexe o
embeddings
campo em um tipo de índice vectorSearch para asample_airbnb.listingsAndReviews
coleção. Este campo contém as incorporações criadas utilizando o modelo de incorporação.Aplique
768
dimensões vetoriais e meça a similaridade entre vetores usandocosine
.
Criar o índice do Atlas Vector Search.
Salve o arquivo no diretório do seu projeto e execute o seguinte comando no terminal, substituindo <path-to-file>
pelo caminho para o arquivo vector-index.json
que você criou.
atlas deployments search indexes create --file <path-to-file>
Por exemplo, seu caminho pode se assemelhar a: /Users/<username>/local-rag-mongodb/vector-index.json
.
Defina o índice do Atlas Vector Search.
Crie um arquivo denominado vector-index.json
e cole a seguinte definição de índice no arquivo:
{ "database": "sample_airbnb", "collectionName": "listingsAndReviews", "type": "vectorSearch", "name": "vector_index", "fields": [ { "type": "vector", "path": "embeddings", "numDimensions": 768, "similarity": "cosine" } ] }
Esta definição de índice especifica o seguinte:
Indexe o
embeddings
campo em um tipo de índice vectorSearch para asample_airbnb.listingsAndReviews
coleção. Este campo contém as incorporações criadas utilizando o modelo de incorporação.Aplique
768
dimensões vetoriais e meça a similaridade entre vetores usandocosine
.
Criar o índice do Atlas Vector Search.
Salve o arquivo no diretório do seu projeto e execute o seguinte comando no terminal, substituindo <path-to-file>
pelo caminho para o arquivo vector-index.json
que você criou.
atlas deployments search indexes create --file <path-to-file>
Por exemplo, seu caminho pode se assemelhar a: /Users/<username>/local-rag-mongodb/vector-index.json
.
Defina o índice do Atlas Vector Search.
Crie um arquivo chamado vector-index.json
e cole a seguinte definição de índice no arquivo.
Essa definição de índice indexa o campo embeddings
em um índice do tipo vectorSearch para a coleção sample_airbnb.listingsAndReviews
. Esse campo contém as incorporações criadas utilizando o modelo de incorporação. A definição de índice especifica 1024
dimensões vetoriais e mede a similaridade usando cosine
.
{ "database": "sample_airbnb", "collectionName": "listingsAndReviews", "type": "vectorSearch", "name": "vector_index", "fields": [ { "type": "vector", "path": "embeddings", "numDimensions": 1024, "similarity": "cosine" } ] }
Criar o índice do Atlas Vector Search.
Salve o arquivo no diretório do seu projeto e execute o seguinte comando no terminal, substituindo <path-to-file>
pelo caminho para o arquivo vector-index.json
que você criou.
atlas deployments search indexes create --file <path-to-file>
Este caminho deve ser semelhante a: /Users/<username>/local-rag-mongodb/vector-index.json
.
Defina o índice do Atlas Vector Search.
Crie um arquivo chamado vector-index.json
e cole a seguinte definição de índice no arquivo.
Essa definição de índice indexa o campo embeddings
em um índice do tipo vectorSearch para a coleção sample_airbnb.listingsAndReviews
. Esse campo contém as incorporações criadas utilizando o modelo de incorporação. A definição de índice especifica 1024
dimensões vetoriais e mede a similaridade usando cosine
.
{ "database": "sample_airbnb", "collectionName": "listingsAndReviews", "type": "vectorSearch", "name": "vector_index", "fields": [ { "type": "vector", "path": "embeddings", "numDimensions": 1024, "similarity": "cosine" } ] }
Criar o índice do Atlas Vector Search.
Salve o arquivo no diretório do seu projeto e execute o seguinte comando no terminal, substituindo <path-to-file>
pelo caminho para o arquivo vector-index.json
que você criou.
atlas deployments search indexes create --file <path-to-file>
Este caminho deve ser semelhante a: /Users/<username>/local-rag-mongodb/vector-index.json
.
Responda a perguntas com o LLM local
Esta seção demonstra uma implementação de RAG de amostra que você pode executar localmente usando o Atlas Vector Search e o Ollama.
Consulte o banco de dados para obter documentos relevantes.
Adicione um novo método
PerformVectorQuery()
no arquivo chamadoMongoDBDataService.cs
:MongoDBDataService.csnamespace MyCompany.RAG.Local; using MongoDB.Driver; using MongoDB.Bson; public class MongoDBDataService { private static readonly string? ConnectionString = Environment.GetEnvironmentVariable("ATLAS_CONNECTION_STRING"); private static readonly MongoClient Client = new MongoClient(ConnectionString); private static readonly IMongoDatabase Database = Client.GetDatabase("sample_airbnb"); private static readonly IMongoCollection<BsonDocument> Collection = Database.GetCollection<BsonDocument>("listingsAndReviews"); public List<BsonDocument>? GetDocuments() { // Method details... } public async Task<string> UpdateDocuments(Dictionary<string, float[]> embeddings) { // Method details... } public string CreateVectorIndex() { // Method details... } public List<BsonDocument>? PerformVectorQuery(float[] vector) { var vectorSearchStage = new BsonDocument { { "$vectorSearch", new BsonDocument { { "index", "vector_index" }, { "path", "embeddings" }, { "queryVector", new BsonArray(vector) }, { "exact", true }, { "limit", 5 } } } }; var projectStage = new BsonDocument { { "$project", new BsonDocument { { "_id", 0 }, { "summary", 1 }, { "listing_url", 1 }, { "score", new BsonDocument { { "$meta", "vectorSearchScore"} } } } } }; var pipeline = new[] { vectorSearchStage, projectStage }; return Collection.Aggregate<BsonDocument>(pipeline).ToList(); } } Este código executa uma consulta vetorial na implantação local do Atlas ou no cluster do Atlas .
Crie outro arquivo denominado
PerformTestQuery.cs
e cole o seguinte código nele:PerformTestQuery.cs1 namespace MyCompany.RAG.Local; 2 3 public class PerformTestQuery 4 { 5 private readonly MongoDBDataService _dataService = new(); 6 private readonly OllamaAIService _ollamaAiService = new(); 7 8 public async Task<string> GetQueryResults(string question) 9 { 10 // Get the vector embedding for the query 11 var query = question; 12 var queryEmbedding = await _ollamaAiService.GetEmbedding(query); 13 // Query the vector database for applicable query results 14 var matchingDocuments = _dataService.PerformVectorQuery(queryEmbedding); 15 // Construct a string from the query results for performing QA with the LLM 16 var sb = new System.Text.StringBuilder(); 17 if (matchingDocuments != null) 18 { 19 foreach (var doc in matchingDocuments) 20 { 21 sb.AppendLine($"Summary: {doc.GetValue("summary").ToString()}"); 22 sb.AppendLine($"Listing URL: {doc.GetValue("listing_url").ToString()}"); 23 } 24 } 25 else 26 { 27 return "No matching documents found."; 28 } 29 return sb.ToString(); 30 } 31 } Este código contém a lógica para:
Defina uma incorporação para a query.
Recupere documentos correspondentes do
MongoDBDataService
.Construa uma string contendo o "Resumo" e o "URL de Listagem" de cada documento para passar para o LLM para resumir.
Execute uma query de teste para confirmar se você está obtendo os resultados esperados.
Substitua o código em
Program.cs
pelo código a seguir:Program.cs1 using MyCompany.RAG.Local; 2 3 var query = "beach house"; 4 var queryCoordinator = new PerformTestQuery(); 5 var result = await queryCoordinator.GetQueryResults(query); 6 Console.WriteLine(result); Salve o arquivo e, em seguida, compile e execute seu projeto para testar se você obtém os resultados esperados da query:
dotnet run MyCompany.RAG.Local.csproj Summary: "Lani Beach House" Aloha - Please do not reserve until reading about the State Tax in "Other Things to Note" section. Please do not reserve unless you agree to pay taxes to Hawaii Beach Homes directly. If you have questions, please inquire before booking. The home has been completely redecorated in a luxurious island style: vaulted ceilings, skylights, granite counter tops, stainless steel appliances and a gourmet kitchen are just some of the the features. All bedrooms have ocean views Listing URL: https://www.airbnb.com/rooms/11553333 Summary: This peaceful house in North Bondi is 300m to the beach and a minute's walk to cafes and bars. With 3 bedrooms, (can sleep up to 8) it is perfect for families, friends and pets. The kitchen was recently renovated and a new lounge and chairs installed. The house has a peaceful, airy, laidback vibe - a perfect beach retreat. Longer-term bookings encouraged. Parking for one car. A parking permit for a second car can also be obtained on request. Listing URL: https://www.airbnb.com/rooms/10423504 Summary: There are 2 bedrooms and a living room in the house. 1 Bathroom. 1 Kitchen. Friendly neighbourhood. Close to sea side and Historical places. Listing URL: https://www.airbnb.com/rooms/10488837 Summary: 4 Bedroom Country Beach House w/ option to add a separate studio unit- total of 5 bedrooms/2.5 baths at an additional cost. 27 girl steps to white sand beach & infamous Alligator Pond. Private road, NO highway to cross! Safe beach for children & seniors. Convenient! For pricing to add on additional Studio unit, click on our profile pic and input your dates for quote and details! Listing URL: https://www.airbnb.com/rooms/12906000 Summary: Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! This spacious 4 Bedroom and 4 Bath house has all you need for your family or group. Perfect for Family Vacations and executive retreats. We are in a gated beachfront estate, with lots of space for your activities. Listing URL: https://www.airbnb.com/rooms/10317142
Responda perguntas sobre seus dados.
Adicione alguns novos membros estáticos à sua classe
OllamaAIService.cs
, para uso em uma nova tarefa assíncronaSummarizeAnswer
:OllamaAIService.csnamespace MyCompany.RAG.Local; using Microsoft.Extensions.AI; public class OllamaAIService { private static readonly System.Uri OllamaUri = new Uri("http://localhost:11434/"); private static readonly Uri OllamaUri = new("http://localhost:11434/"); private static readonly string EmbeddingModelName = "nomic-embed-text"; private static readonly OllamaEmbeddingGenerator EmbeddingGenerator = new OllamaEmbeddingGenerator(OllamaUri, EmbeddingModelName); private static readonly string ChatModelName = "mistral"; private static readonly OllamaChatClient ChatClient = new OllamaChatClient(OllamaUri, ChatModelName); public async Task<float[]> GetEmbedding(string text) { // Method details... } public async Task<string> SummarizeAnswer(string context) { string question = "Can you recommend me a few AirBnBs that are beach houses? Include a link to the listings."; string prompt = $""" Use the following pieces of context to answer the question at the end. Context: {context} Question: {question} """; ChatCompletion response = await ChatClient.CompleteAsync(prompt, new ChatOptions { MaxOutputTokens = 400 }); return response.ToString(); } } Isso solicita o LLM e retorna a resposta. A resposta gerada pode variar.
Defina uma nova classe
PerformQuestionAnswer
para:Defina uma incorporação para a query.
Recupere documentos correspondentes do
MongoDBDataService
.Utilize o LLM para resumir a resposta.
AIService.csnamespace MyCompany.RAG.Local; public class PerformQuestionAnswer { private readonly MongoDBDataService _dataService = new(); private readonly OllamaAIService _ollamaAiService = new(); public async Task<string> SummarizeResults(string question) { // Get the vector embedding for the query var query = question; var queryEmbedding = await _ollamaAiService.GetEmbedding(query); // Query the vector database for applicable query results var matchingDocuments = _dataService.PerformVectorQuery(queryEmbedding); // Construct a string from the query results for performing QA with the LLM var sb = new System.Text.StringBuilder(); if (matchingDocuments != null) { foreach (var doc in matchingDocuments) { sb.AppendLine($"Summary: {doc.GetValue("summary").ToString()}"); sb.AppendLine($"Listing URL: {doc.GetValue("listing_url").ToString()}"); } } else { return "No matching documents found."; } return await _ollamaAiService.SummarizeAnswer(sb.ToString()); } } Substitua o conteúdo de
Program.cs
por um novo bloco para realizar a tarefa:Program.csusing MyCompany.RAG.Local; var qaTaskCoordinator = new PerformQuestionAnswer(); const string query = "beach house"; var results = await qaTaskCoordinator.SummarizeResults(query); Console.WriteLine(results); Salve o arquivo e, em seguida, compile e execute seu projeto para concluir sua implementação de RAG:
dotnet run MyCompany.RAG.Local.csproj Based on the context provided, here are some Airbnb listings for beach houses that you might find interesting: 1. Lani Beach House (Hawaii) - [Link](https://www.airbnb.com/rooms/11553333) 2. Peaceful North Bondi House (Australia) - [Link](https://www.airbnb.com/rooms/10423504) 3. Ocean Living! Secluded Secret Beach! (Florida, USA) - [Link](https://www.airbnb.com/rooms/10317142) 4. Gorgeous Home just off the main road (California, USA) - [Link](https://www.airbnb.com/rooms/11719579)
Esta seção demonstra uma implementação de RAG de amostra que você pode executar localmente usando o Atlas Vector Search e o Ollama.
Consulte o banco de dados para obter documentos relevantes.
Navegue até o diretório
common
.cd common Crie um arquivo chamado
retrieve-documents.go
e cole o seguinte código nele:retrieve-documents.gopackage common import ( "context" "log" "os" "github.com/joho/godotenv" "go.mongodb.org/mongo-driver/bson" "go.mongodb.org/mongo-driver/mongo" "go.mongodb.org/mongo-driver/mongo/options" ) type Document struct { Summary string `bson:"summary"` ListingURL string `bson:"listing_url"` Score float64 `bson:"score"` } func RetrieveDocuments(query string) []Document { ctx := context.Background() if err := godotenv.Load(); err != nil { log.Println("no .env file found") } // Connect to your Atlas cluster uri := os.Getenv("ATLAS_CONNECTION_STRING") if uri == "" { log.Fatal("set your 'ATLAS_CONNECTION_STRING' environment variable.") } clientOptions := options.Client().ApplyURI(uri) client, err := mongo.Connect(ctx, clientOptions) if err != nil { log.Fatalf("failed to connect to the server: %v", err) } defer func() { _ = client.Disconnect(ctx) }() // Set the namespace coll := client.Database("sample_airbnb").Collection("listingsAndReviews") var array []string array = append(array, query) queryEmbedding := GetEmbeddings(array) vectorSearchStage := bson.D{ {"$vectorSearch", bson.D{ {"index", "vector_index"}, {"path", "embeddings"}, {"queryVector", queryEmbedding[0]}, {"exact", true}, {"limit", 5}, }}} projectStage := bson.D{ {"$project", bson.D{ {"_id", 0}, {"summary", 1}, {"listing_url", 1}, {"score", bson.D{{"$meta", "vectorSearchScore"}}}, }}} cursor, err := coll.Aggregate(ctx, mongo.Pipeline{vectorSearchStage, projectStage}) if err != nil { log.Fatalf("failed to retrieve data from the server: %v", err) } var results []Document if err = cursor.All(ctx, &results); err != nil { log.Fatalf("failed to unmarshal retrieved docs to model objects: %v", err) } return results } Este código executa uma consulta vetorial na implantação local do Atlas ou no cluster do Atlas .
Execute uma query de teste para confirmar se você está obtendo os resultados esperados. Volte para o diretório raiz do projeto.
cd ../ Crie um novo arquivo chamado
test-query.go
e cole o seguinte código nele:test-query.gopackage main import ( "fmt" "local-rag-mongodb/common" // Module that contains the RetrieveDocuments function "log" "strings" ) func main() { query := "beach house" matchingDocuments := common.RetrieveDocuments(query) if matchingDocuments == nil { log.Fatal("No documents matched the query.\n") } var textDocuments strings.Builder for _, doc := range matchingDocuments { // Print the contents of the matching documents for verification fmt.Printf("Summary: %v\n", doc.Summary) fmt.Printf("Listing URL: %v\n", doc.ListingURL) fmt.Printf("Score: %v\n", doc.Score) // Build a single text string to use as the context for the QA textDocuments.WriteString("Summary: ") textDocuments.WriteString(doc.Summary) textDocuments.WriteString("\n") textDocuments.WriteString("Listing URL: ") textDocuments.WriteString(doc.ListingURL) textDocuments.WriteString("\n") } fmt.Printf("\nThe constructed context for the QA follows:\n\n") fmt.Printf(textDocuments.String()) } Execute o código a seguir para executar a consulta:
go run test-query.go Summary: "Lani Beach House" Aloha - Please do not reserve until reading about the State Tax in "Other Things to Note" section. Please do not reserve unless you agree to pay taxes to Hawaii Beach Homes directly. If you have questions, please inquire before booking. The home has been completely redecorated in a luxurious island style: vaulted ceilings, skylights, granite counter tops, stainless steel appliances and a gourmet kitchen are just some of the the features. All bedrooms have ocean views Listing URL: https://www.airbnb.com/rooms/11553333 Score: 0.85715651512146 Summary: This peaceful house in North Bondi is 300m to the beach and a minute's walk to cafes and bars. With 3 bedrooms, (can sleep up to 8) it is perfect for families, friends and pets. The kitchen was recently renovated and a new lounge and chairs installed. The house has a peaceful, airy, laidback vibe - a perfect beach retreat. Longer-term bookings encouraged. Parking for one car. A parking permit for a second car can also be obtained on request. Listing URL: https://www.airbnb.com/rooms/10423504 Score: 0.8425835371017456 Summary: There are 2 bedrooms and a living room in the house. 1 Bathroom. 1 Kitchen. Friendly neighbourhood. Close to sea side and Historical places. Listing URL: https://www.airbnb.com/rooms/10488837 Score: 0.8403302431106567 Summary: Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! This spacious 4 Bedroom and 4 Bath house has all you need for your family or group. Perfect for Family Vacations and executive retreats. We are in a gated beachfront estate, with lots of space for your activities. Listing URL: https://www.airbnb.com/rooms/10317142 Score: 0.8367050886154175 Summary: This is a gorgeous home just off the main rd, with lots of sun and new amenities. room has own entrance with small deck, close proximity to the beach , bus to the junction , around the corner form all the cafes, bars and restaurants (2 mins). Listing URL: https://www.airbnb.com/rooms/11719579 Score: 0.8262639045715332 The constructed context for the QA follows: Summary: "Lani Beach House" Aloha - Please do not reserve until reading about the State Tax in "Other Things to Note" section. Please do not reserve unless you agree to pay taxes to Hawaii Beach Homes directly. If you have questions, please inquire before booking. The home has been completely redecorated in a luxurious island style: vaulted ceilings, skylights, granite counter tops, stainless steel appliances and a gourmet kitchen are just some of the the features. All bedrooms have ocean views Listing URL: https://www.airbnb.com/rooms/11553333 Summary: This peaceful house in North Bondi is 300m to the beach and a minute's walk to cafes and bars. With 3 bedrooms, (can sleep up to 8) it is perfect for families, friends and pets. The kitchen was recently renovated and a new lounge and chairs installed. The house has a peaceful, airy, laidback vibe - a perfect beach retreat. Longer-term bookings encouraged. Parking for one car. A parking permit for a second car can also be obtained on request. Listing URL: https://www.airbnb.com/rooms/10423504 Summary: There are 2 bedrooms and a living room in the house. 1 Bathroom. 1 Kitchen. Friendly neighbourhood. Close to sea side and Historical places. Listing URL: https://www.airbnb.com/rooms/10488837 Summary: Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! This spacious 4 Bedroom and 4 Bath house has all you need for your family or group. Perfect for Family Vacations and executive retreats. We are in a gated beachfront estate, with lots of space for your activities. Listing URL: https://www.airbnb.com/rooms/10317142 Summary: This is a gorgeous home just off the main rd, with lots of sun and new amenities. room has own entrance with small deck, close proximity to the beach , bus to the junction , around the corner form all the cafes, bars and restaurants (2 mins). Listing URL: https://www.airbnb.com/rooms/11719579
Responda perguntas sobre seus dados.
Crie um arquivo chamado local-llm.go
e cole o seguinte código:
package main import ( "context" "local-rag-mongodb/common" // Module that contains the RetrieveDocuments function "log" "strings" "github.com/tmc/langchaingo/llms" "github.com/tmc/langchaingo/llms/ollama" "github.com/tmc/langchaingo/prompts" ) func main() { // Retrieve documents from the collection that match the query const query = "beach house" matchingDocuments := common.RetrieveDocuments(query) if matchingDocuments == nil { log.Fatalf("no documents matched the query %q", query) } // Generate the text string from the matching documents to pass to the // LLM as context to answer the question var textDocuments strings.Builder for _, doc := range matchingDocuments { textDocuments.WriteString("Summary: ") textDocuments.WriteString(doc.Summary) textDocuments.WriteString("\n") textDocuments.WriteString("Listing URL: ") textDocuments.WriteString(doc.ListingURL) textDocuments.WriteString("\n") } // Have the LLM answer the question using the provided context llm, err := ollama.New(ollama.WithModel("mistral")) if err != nil { log.Fatalf("failed to initialize the Ollama Mistral model client: %v", err) } const question = `Can you recommend me a few AirBnBs that are beach houses? Include a link to the listings.` template := prompts.NewPromptTemplate( `Use the following pieces of context to answer the question at the end. Context: {{.context}} Question: {{.question}}`, []string{"context", "question"}, ) prompt, err := template.Format(map[string]any{ "context": textDocuments.String(), "question": question, }) ctx := context.Background() completion, err := llms.GenerateFromSinglePrompt(ctx, llm, prompt) if err != nil { log.Fatalf("failed to generate a response from the given prompt: %q", prompt) } log.Println("Response: ", completion) }
Este código faz o seguinte:
cria uma incorporação para a string de consulta.
Faz query de documentos relevantes.
Solicita o LLM e retorna a resposta. A resposta gerada pode variar.
Execute o seguinte código para concluir a implementação da RAG:
go run local-llm.go
2024/10/09 10:34:02 Response: Based on the context provided, here are some Airbnb listings for beach houses that you might find interesting: 1. Lani Beach House (Hawaii) - [Link](https://www.airbnb.com/rooms/11553333) 2. Peaceful North Bondi House (Australia) - [Link](https://www.airbnb.com/rooms/10423504) 3. Ocean Living! Secluded Secret Beach! (Florida, USA) - [Link](https://www.airbnb.com/rooms/10317142) 4. Gorgeous Home just off the main road (California, USA) - [Link](https://www.airbnb.com/rooms/11719579)
Esta seção demonstra uma implementação de RAG de amostra que você pode executar localmente usando o Atlas Vector Search e o Ollama.
Defina o código para executar o LLM local.
Crie um novo arquivo chamado LocalLLM.java
e cole o seguinte código.
Este código utiliza os métodos getEmbedding
e retrieveDocuments
e o Ollama chatmodel
para fazer o seguinte:
Conecte-se à sua implantação local do Atlas ou ao seu cluster Atlas
Gere uma incorporação para a string de consulta utilizando o método
getEmbedding
definido anteriormente.Faça a query da coleção para documentos relevantes usando o método
retrieveDocuments
.Nossa consulta inclui um pipeline de agregação com um estágio de projeção para retornar somente os campos
listing_url
,summary
e vetorscore
. Você pode modificar ou remover esse pipeline para melhor se adequar aos seus dados e ao seu caso de uso.Crie um contexto concatenando uma pergunta com os documentos recuperados usando o método
createPrompt
.Alimente o prompt criado para o LLM
chatmodel
que você definiu anteriormente para gerar uma resposta.Imprima a pergunta e a resposta gerada para o console.
Observação
Para fins de demonstração, também imprimimos a solicitação preenchida com informações de contexto. Remova esta linha em um ambiente de produção.
import com.mongodb.MongoException; import com.mongodb.client.MongoClient; import com.mongodb.client.MongoClients; import com.mongodb.client.MongoCollection; import com.mongodb.client.MongoDatabase; import com.mongodb.client.model.search.FieldSearchPath; import dev.langchain4j.data.message.AiMessage; import dev.langchain4j.model.input.Prompt; import dev.langchain4j.model.input.PromptTemplate; import dev.langchain4j.model.ollama.OllamaChatModel; import org.bson.BsonArray; import org.bson.BsonValue; import org.bson.Document; import org.bson.conversions.Bson; import java.util.ArrayList; import java.util.HashMap; import java.util.List; import java.util.Map; import static com.mongodb.client.model.Aggregates.project; import static com.mongodb.client.model.Aggregates.vectorSearch; import static com.mongodb.client.model.Projections.exclude; import static com.mongodb.client.model.Projections.fields; import static com.mongodb.client.model.Projections.include; import static com.mongodb.client.model.Projections.metaVectorSearchScore; import static com.mongodb.client.model.search.SearchPath.fieldPath; import static com.mongodb.client.model.search.VectorSearchOptions.exactVectorSearchOptions; import static java.util.Arrays.asList; public class LocalLLM { // User input: the question to answer static String question = "Can you recommend me a few AirBnBs that are beach houses? Include a link to the listings."; public static void main(String[] args) { String uri = System.getenv("ATLAS_CONNECTION_STRING"); if (uri == null || uri.isEmpty()) { throw new IllegalStateException("ATLAS_CONNECTION_STRING env variable is not set or is empty."); } // establish connection and set namespace try (MongoClient mongoClient = MongoClients.create(uri)) { MongoDatabase database = mongoClient.getDatabase("sample_airbnb"); MongoCollection<Document> collection = database.getCollection("listingsAndReviews"); // generate a response to the user question System.out.println("Question: " + question); try { createPrompt(question, collection); } catch (Exception e) { throw new RuntimeException("An error occurred while generating the response: ", e); } } catch (MongoException me) { throw new RuntimeException("Failed to connect to MongoDB ", me); } catch (Exception e) { throw new RuntimeException("Operation failed: ", e); } } /** * Returns a list of documents from the specified MongoDB collection that * match the user's question. * NOTE: Update or omit the projection stage to change the desired fields in the response */ public static List<Document> retrieveDocuments(String question, MongoCollection<Document> collection) { try { // generate the query embedding to use in the vector search BsonArray queryEmbeddingBsonArray = OllamaModels.getEmbedding(question); List<Double> queryEmbedding = new ArrayList<>(); for (BsonValue value : queryEmbeddingBsonArray.stream().toList()) { queryEmbedding.add(value.asDouble().getValue()); } // define the pipeline stages for the vector search index String indexName = "vector_index"; FieldSearchPath fieldSearchPath = fieldPath("embeddings"); int limit = 5; List<Bson> pipeline = asList( vectorSearch( fieldSearchPath, queryEmbedding, indexName, limit, exactVectorSearchOptions()), project( fields( exclude("_id"), include("listing_url"), include("summary"), metaVectorSearchScore("score")))); // run the query and return the matching documents List<Document> matchingDocuments = new ArrayList<>(); collection.aggregate(pipeline).forEach(matchingDocuments::add); return matchingDocuments; } catch (Exception e) { System.err.println("Error occurred while retrieving documents: " + e.getMessage()); return new ArrayList<>(); } } /** * Creates a templated prompt using the question and retrieved documents, then generates * a response using the local Ollama chat model. */ public static void createPrompt(String question, MongoCollection<Document> collection) { // Retrieve documents matching the user's question List<Document> retrievedDocuments = retrieveDocuments(question, collection); if (retrievedDocuments.isEmpty()) { System.out.println("No relevant documents found. Unable to generate a response."); return; } else System.out.println("Generating a response from the retrieved documents. This may take a few moments."); // Create a prompt template OllamaChatModel ollamaChatModel = OllamaModels.getChatModel(); PromptTemplate promptBuilder = PromptTemplate.from(""" Use the following pieces of context to answer the question at the end: {{information}} --------------- {{question}} """); // build the information string from the retrieved documents StringBuilder informationBuilder = new StringBuilder(); for (int i = 0; i < retrievedDocuments.size(); i++) { Document doc = retrievedDocuments.get(i); String listingUrl = doc.getString("listing_url"); String summary = doc.getString("summary"); informationBuilder.append("Listing URL: ").append(listingUrl) .append("\nSummary: ").append(summary) .append("\n\n"); } String information = informationBuilder.toString(); Map<String, Object> variables = new HashMap<>(); variables.put("question", question); variables.put("information", information); // generate and output the response from the chat model Prompt prompt = promptBuilder.apply(variables); AiMessage response = ollamaChatModel.generate(prompt.toUserMessage()).content(); System.out.println("Answer: " + response.text()); // display the filled-in prompt and context information // NOTE: included for demonstration purposes only System.out.println("______________________"); System.out.println("Final Prompt Sent to LLM:"); System.out.println(prompt.text()); System.out.println("______________________"); System.out.println("Number of documents in context: " + retrievedDocuments.size()); } }
Gere uma resposta para uma pergunta sobre seus dados.
Salve e execute o arquivo para concluir sua implementação de RAG. A saída se assemelha ao seguinte, embora sua resposta gerada possa variar:
Question: Can you recommend me a few AirBnBs that are beach houses? Include a link to the listings. Generating a response from the retrieved documents. This may take a few moments. Answer: Based on the context provided, here are some beach house Airbnb listings that might suit your needs: 1. Lani Beach House - Aloha: This luxurious beach house offers ocean views from all bedrooms and features vaulted ceilings, skylights, granite countertops, stainless steel appliances, and a gourmet kitchen. You can find it at this link: https://www.airbnb.com/rooms/11553333 2. Ocean Living! Secluded Secret Beach!: This spacious 4-bedroom, 4-bath beach house is perfect for families or groups and is less than 20 steps from the ocean. It's located in a gated beachfront estate with lots of space for activities. You can find it at this link: https://www.airbnb.com/rooms/10317142 3. A beautiful and comfortable 1-Bedroom Condo in Makaha Valley: This condo offers stunning ocean and mountain views, a full kitchen, large bathroom, and is suited for longer stays. The famous Makaha Surfing Beach is not even a mile away. You can find it at this link: https://www.airbnb.com/rooms/10266175 4. There are 2 bedrooms and a living room in the house: This listing does not provide much information about the beach, but it mentions that the house is close to the sea side and historical places. You can find it at this link: https://www.airbnb.com/rooms/10488837 5. The Apartment on Copacabana beach block: This apartment is well-located, a 5-minute walk from Ipanema beach, and offers all the amenities of home, including a kitchen, washing machine, and several utensils for use. You can find it at this link: https://www.airbnb.com/rooms/10038496 ______________________ Final Prompt Sent to LLM: Use the following pieces of context to answer the question at the end: Listing URL: https://www.airbnb.com/rooms/11553333 Summary: "Lani Beach House" Aloha - Please do not reserve until reading about the State Tax in "Other Things to Note" section. Please do not reserve unless you agree to pay taxes to Hawaii Beach Homes directly. If you have questions, please inquire before booking. The home has been completely redecorated in a luxurious island style: vaulted ceilings, skylights, granite counter tops, stainless steel appliances and a gourmet kitchen are just some of the the features. All bedrooms have ocean views Listing URL: https://www.airbnb.com/rooms/10317142 Summary: Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! This spacious 4 Bedroom and 4 Bath house has all you need for your family or group. Perfect for Family Vacations and executive retreats. We are in a gated beachfront estate, with lots of space for your activities. Listing URL: https://www.airbnb.com/rooms/10266175 Summary: A beautiful and comfortable 1 Bedroom Air Conditioned Condo in Makaha Valley - stunning Ocean & Mountain views All the amenities of home, suited for longer stays. Full kitchen & large bathroom. Several gas BBQ's for all guests to use & a large heated pool surrounded by reclining chairs to sunbathe. The Ocean you see in the pictures is not even a mile away, known as the famous Makaha Surfing Beach. Golfing, hiking,snorkeling paddle boarding, surfing are all just minutes from the front door. Listing URL: https://www.airbnb.com/rooms/10488837 Summary: There are 2 bedrooms and a living room in the house. 1 Bathroom. 1 Kitchen. Friendly neighbourhood. Close to sea side and Historical places. Listing URL: https://www.airbnb.com/rooms/10038496 Summary: The Apartment has a living room, toilet, bedroom (suite) and American kitchen. Well located, on the Copacabana beach block a 05 Min. walk from Ipanema beach (Arpoador). Internet wifi, cable tv, air conditioning in the bedroom, ceiling fans in the bedroom and living room, kitchen with microwave, cooker, Blender, dishes, cutlery and service area with fridge, washing machine, clothesline for drying clothes and closet with several utensils for use. The property boasts 45 m2. --------------- Can you recommend me a few AirBnBs that are beach houses? Include a link to the listings. ______________________ Number of documents in context: 5
Esta seção demonstra um exemplo de implementação de RAG que você pode executar localmente usando Atlas Vector Search e GPT 4All.
Consulte o banco de dados para obter documentos relevantes.
Crie um arquivo chamado retrieve-documents.js
e cole o seguinte código nele:
import { MongoClient } from 'mongodb'; import { getEmbedding } from './get-embeddings.js'; // Function to get the results of a vector query export async function getQueryResults(query) { // Connect to your Atlas cluster const client = new MongoClient(process.env.ATLAS_CONNECTION_STRING); try { // Get embedding for a query const queryEmbedding = await getEmbedding(query); await client.connect(); const db = client.db("sample_airbnb"); const collection = db.collection("listingsAndReviews"); const pipeline = [ { $vectorSearch: { index: "vector_index", queryVector: queryEmbedding, path: "embeddings", exact: true, limit: 5 } }, { $project: { _id: 0, summary: 1, listing_url: 1, score: { $meta: "vectorSearchScore" } } } ]; // Retrieve documents from Atlas using this Vector Search query const result = collection.aggregate(pipeline); const arrayOfQueryDocs = []; for await (const doc of result) { arrayOfQueryDocs.push(doc); } return arrayOfQueryDocs; } catch (err) { console.log(err.stack); } finally { await client.close(); } }
Este código executa uma consulta vetorial na implantação local do Atlas ou no cluster do Atlas .
Execute uma query de teste para confirmar se você está obtendo os resultados esperados. Crie um novo arquivo chamado test-query.js
e cole o seguinte código nele:
Execute o código a seguir para executar a consulta:
node --env-file=.env test-query.js
{ listing_url: 'https://www.airbnb.com/rooms/10317142', summary: 'Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! This spacious 4 Bedroom and 4 Bath house has all you need for your family or group. Perfect for Family Vacations and executive retreats. We are in a gated beachfront estate, with lots of space for your activities.', score: 0.8703486323356628 } { listing_url: 'https://www.airbnb.com/rooms/10488837', summary: 'There are 2 bedrooms and a living room in the house. 1 Bathroom. 1 Kitchen. Friendly neighbourhood. Close to sea side and Historical places.', score: 0.861828088760376 } { listing_url: 'https://www.airbnb.com/rooms/11719579', summary: 'This is a gorgeous home just off the main rd, with lots of sun and new amenities. room has own entrance with small deck, close proximity to the beach , bus to the junction , around the corner form all the cafes, bars and restaurants (2 mins).', score: 0.8616757392883301 } { listing_url: 'https://www.airbnb.com/rooms/12657285', summary: 'This favourite home offers a huge balcony, lots of space, easy life, all the comfort you need and a fantastic location! The beach is only 3 minutes away. Metro is 2 blocks away (starting august 2016).', score: 0.8583258986473083 } { listing_url: 'https://www.airbnb.com/rooms/10985735', summary: '5 minutes to seaside where you can swim, and 5 minutes to the woods, this two floors single house contains a cultivated garden with fruit trees, two large bedrooms and a big living room with a large sea view.', score: 0.8573609590530396 }
Baixe o LLM local e o mapeamento de informações do modelo.
Clique no botão a seguir para baixar o modelo Mistral 7B do GPT4All. Para explorar outros modelos, consulte o website do GPT4All.
DownloadMova esse modelo para o diretório do seu projeto
local-rag-mongodb
.No diretório do seu projeto, baixe o arquivo que contém as informações do modelo.
curl -L https://gpt4all.io/models/models3.json -o ./models3.json
Responda perguntas sobre seus dados.
Crie um arquivo chamado local-llm.js
e cole o seguinte código:
import { loadModel, createCompletionStream } from "gpt4all"; import { getQueryResults } from './retrieve-documents.js'; async function run() { try { const query = "beach house"; const documents = await getQueryResults(query); let textDocuments = ""; documents.forEach(doc => { const summary = doc.summary; const link = doc.listing_url; const string = `Summary: ${summary} Link: ${link}. \n` textDocuments += string; }); const model = await loadModel( "mistral-7b-openorca.gguf2.Q4_0.gguf", { verbose: true, allowDownload: false, modelConfigFile: "./models3.json" } ); const question = "Can you recommend me a few AirBnBs that are beach houses? Include a link to the listings."; const prompt = `Use the following pieces of context to answer the question at the end. {${textDocuments}} Question: {${question}}`; process.stdout.write("Output: "); const stream = createCompletionStream(model, prompt); stream.tokens.on("data", (data) => { process.stdout.write(data); }); //wait till stream finishes. await stream.result; process.stdout.write("\n"); model.dispose(); console.log("\n Source documents: \n"); console.log(textDocuments); } catch (err) { console.log(err.stack); } } run().catch(console.dir);
Este código faz o seguinte:
cria uma incorporação para a string de consulta.
Faz query de documentos relevantes.
Solicita o LLM e retorna a resposta. A resposta gerada pode variar.
Execute o seguinte código para concluir a implementação da RAG:
node --env-file=.env local-llm.js
Found mistral-7b-openorca.gguf2.Q4_0.gguf at /Users/dachary.carey/.cache/gpt4all/mistral-7b-openorca.gguf2.Q4_0.gguf Creating LLModel: { llmOptions: { model_name: 'mistral-7b-openorca.gguf2.Q4_0.gguf', model_path: '/Users/dachary.carey/.cache/gpt4all', library_path: '/Users/dachary.carey/temp/local-rag-mongodb/node_modules/gpt4all/runtimes/darwin/native;/Users/dachary.carey/temp/local-rag-mongodb', device: 'cpu', nCtx: 2048, ngl: 100 }, modelConfig: { systemPrompt: '<|im_start|>system\n' + 'You are MistralOrca, a large language model trained by Alignment Lab AI.\n' + '<|im_end|>', promptTemplate: '<|im_start|>user\n%1<|im_end|>\n<|im_start|>assistant\n%2<|im_end|>\n', order: 'e', md5sum: 'f692417a22405d80573ac10cb0cd6c6a', name: 'Mistral OpenOrca', filename: 'mistral-7b-openorca.gguf2.Q4_0.gguf', filesize: '4108928128', requires: '2.7.1', ramrequired: '8', parameters: '7 billion', quant: 'q4_0', type: 'Mistral', description: '<strong>Strong overall fast chat model</strong><br><ul><li>Fast responses</li><li>Chat based model</li><li>Trained by Mistral AI<li>Finetuned on OpenOrca dataset curated via <a href="https://atlas.nomic.ai/">Nomic Atlas</a><li>Licensed for commercial use</ul>', url: 'https://gpt4all.io/models/gguf/mistral-7b-openorca.gguf2.Q4_0.gguf', path: '/Users/dachary.carey/.cache/gpt4all/mistral-7b-openorca.gguf2.Q4_0.gguf' } } Output: Yes, here are a few AirBnB beach houses with links to the listings: 1. Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! - https://www.airbnb.com/rooms/10317142 2. 2 Bedrooms and a living room in the house. 1 Bathroom. 1 Kitchen. Friendly neighbourhood. Close to sea side and Historical places - https://www.airbnb.com/rooms/10488837 3. Gorgeous home just off the main rd, with lots of sun and new amenities. Room has own entrance with small deck, close proximity to the beach - https://www.airbnb.com/rooms/11719579 4. This favourite home offers a huge balcony, lots of space, easy life, all the comfort you need and a fantastic location! The beach is only 3 minutes away. Metro is 2 blocks away (starting august 2016) - https://www.airbnb.com/rooms/12657285 5. 5 minutes to seaside where you can swim, and 5 minutes to the woods, this two floors single house contains a cultivated garden with fruit trees, two large bedrooms and a big living room with a large sea view - https://www.airbnb.com/rooms/10985735 Source documents: Summary: Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! This spacious 4 Bedroom and 4 Bath house has all you need for your family or group. Perfect for Family Vacations and executive retreats. We are in a gated beachfront estate, with lots of space for your activities. Link: https://www.airbnb.com/rooms/10317142. Summary: There are 2 bedrooms and a living room in the house. 1 Bathroom. 1 Kitchen. Friendly neighbourhood. Close to sea side and Historical places. Link: https://www.airbnb.com/rooms/10488837. Summary: This is a gorgeous home just off the main rd, with lots of sun and new amenities. room has own entrance with small deck, close proximity to the beach , bus to the junction , around the corner form all the cafes, bars and restaurants (2 mins). Link: https://www.airbnb.com/rooms/11719579. Summary: This favourite home offers a huge balcony, lots of space, easy life, all the comfort you need and a fantastic location! The beach is only 3 minutes away. Metro is 2 blocks away (starting august 2016). Link: https://www.airbnb.com/rooms/12657285. Summary: 5 minutes to seaside where you can swim, and 5 minutes to the woods, this two floors single house contains a cultivated garden with fruit trees, two large bedrooms and a big living room with a large sea view. Link: https://www.airbnb.com/rooms/10985735.
Esta seção demonstra um exemplo de implementação de RAG que você pode executar localmente usando Atlas Vector Search e GPT 4All.
Em seu notebook, execute os seguintes snippets de código:
Use o Atlas Vector Search para recuperar documentos relevantes.
Nesta etapa, você cria uma função de recuperação chamada get_query_results
que executa uma query de pesquisa vetorial de amostra. Ele usa a função get_embedding
para criar incorporações a partir da query de pesquisa. Em seguida, ele executa a query para retornar documentos semanticamente semelhantes.
Para saber mais, consulte Executar queries de pesquisa vetorial.
# Function to get the results of a vector search query def get_query_results(query): query_embedding = get_embedding(query) pipeline = [ { "$vectorSearch": { "index": "vector_index", "queryVector": query_embedding, "path": "embeddings", "exact": True, "limit": 5 } }, { "$project": { "_id": 0, "summary": 1, "listing_url": 1, "score": { "$meta": "vectorSearchScore" } } } ] results = collection.aggregate(pipeline) array_of_results = [] for doc in results: array_of_results.append(doc) return array_of_results
Para verificar se a função retorna documentos relevantes, execute o seguinte código para consultar o termo de pesquisa beach house
:
Observação
O resultado pode variar, pois as diferenças ambientais podem introduzir pequenas variações nas incorporações.
import pprint pprint.pprint(get_query_results("beach house"))
[{'listing_url': 'https://www.airbnb.com/rooms/10317142', 'score': 0.84868323802948, 'summary': 'Ocean Living! Secluded Secret Beach! Less than 20 steps to the ' 'Ocean! This spacious 4 Bedroom and 4 Bath house has all you need ' 'for your family or group. Perfect for Family Vacations and ' 'executive retreats. We are in a gated beachfront estate, with ' 'lots of space for your activities.'}, {'listing_url': 'https://www.airbnb.com/rooms/10488837', 'score': 0.8457906246185303, 'summary': 'There are 2 bedrooms and a living room in the house. 1 Bathroom. ' '1 Kitchen. Friendly neighbourhood. Close to sea side and ' 'Historical places.'}, {'listing_url': 'https://www.airbnb.com/rooms/10423504', 'score': 0.830578088760376, 'summary': 'This peaceful house in North Bondi is 300m to the beach and a ' "minute's walk to cafes and bars. With 3 bedrooms, (can sleep up " 'to 8) it is perfect for families, friends and pets. The kitchen ' 'was recently renovated and a new lounge and chairs installed. ' 'The house has a peaceful, airy, laidback vibe - a perfect beach ' 'retreat. Longer-term bookings encouraged. Parking for one car. A ' 'parking permit for a second car can also be obtained on ' 'request.'}, {'listing_url': 'https://www.airbnb.com/rooms/10548991', 'score': 0.8174338340759277, 'summary': 'Newly furnished two story home. The upstairs features a full ' ... {'listing_url': 'https://www.airbnb.com/rooms/10186755', 'score': 0.8083034157752991, 'summary': 'Near to underground metro station. Walking distance to seaside. ' '2 floors 1 entry. Husband, wife, girl and boy is living.'}]
Carregue o LLM local.
Clique no botão a seguir para baixar o modelo Mistral 7B do GPT4All. Para explorar outros modelos, consulte o website do GPT4All.
DownloadMova esse modelo para o diretório do seu projeto
local-rag-mongodb
.Em seu notebook, execute o seguinte código para carregar o LLM local .
from gpt4all import GPT4All local_llm_path = "./mistral-7b-openorca.gguf2.Q4_0.gguf" local_llm = GPT4All(local_llm_path)
Responda perguntas sobre seus dados.
Execute o código a seguir para concluir sua implementação de RAG . Este código faz o seguinte:
Consulta sua coleção de documentos relevantes usando a função que você acabou de definir.
Solicita o LLM usando os documentos recuperados como contexto. A resposta gerada pode variar.
question = "Can you recommend a few AirBnBs that are beach houses? Include a link to the listing." documents = get_query_results(question) text_documents = "" for doc in documents: summary = doc.get("summary", "") link = doc.get("listing_url", "") string = f"Summary: {summary} Link: {link}. \n" text_documents += string prompt = f"""Use the following pieces of context to answer the question at the end. {text_documents} Question: {question} """ response = local_llm.generate(prompt) cleaned_response = response.replace('\\n', '\n') print(cleaned_response)
Answer: Yes, I can recommend a few AirBnB listings that are beach houses. Here they are with their respective links: 1. Ocean Living! Secluded Secret Beach! Less than 20 steps to the Ocean! (https://www.airbnb.com/rooms/10317142) 2. Beautiful and comfortable 1 Bedroom Air Conditioned Condo in Makaha Valley - stunning Ocean & Mountain views (https://www.airbnb.com/rooms/10266175) 3. Peaceful house in North Bondi, close to the beach and cafes (https://www.airbnb.com/rooms/10423504)