Orientações para a escalabilidade do Atlas
Nesta página
Recursos para Escalabilidade do Atlas
O auto-scaling permite que os clusters ajustem automaticamente seu nível, capacidade de armazenamento ou ambos, em resposta ao uso em tempo real. O Atlas analisa a utilização da CPU e da memória para determinar quando e se a camada do cluster deve ser dimensionada para cima e para baixo. Consulte Dimensionamento da camada do cluster para saber mais sobre as condições em que o Atlas aumenta ou diminui os nós do cluster. Você também pode especificar uma faixa de tamanhos máximos e mínimos de cluster para os quais seu cluster pode escalar automaticamente para garantir o desempenho mínimo ou os custos de controle. O Atlas não escalará um cluster se a nova camada estiver fora da faixa de tamanho especificada ou se o uso da memória exceder a capacidade da nova camada. O auto-scaling é limitado com um atraso para escalar uma camada do cluster para cima ou para baixo para garantir que o auto-scaling não cause nenhum impacto no aplicação . Portanto, ele é mais adequado para uma carga de aplicação em crescimento oucrescente constante, não para picos súbitos em que o banco de dados está sendo afundado pelo uso. Se sua carga de trabalho sofrer picos frequentes ou se você estiver esperando um grande aumento no tráfego devido a um evento ou um lançamento, o MongoDB recomenda que você faça a pré-escala programaticamente.
Os modelos de implementação do Atlas , conforme referenciados nas Topologias de implementação recomendadas, fornecem opções de dimensionamento horizontal e vertical. Especificamente, a fragmentação distribui dados entre várias máquinas, o que é útil quando nenhum servidor único pode lidar com suas cargas de trabalho. A fragmentação segue uma arquitetura de nada compartilhado, uma arquitetura de computação distribuída em que nenhum dos nós compartilha recursos entre si.Consulte Escolher uma chave de shard para saber mais sobre a escolha ideal de uma chave de shard que permite ao MongoDB distribuir documentos uniformemente em todo o cluster e, ao mesmo tempo, facilitar padrões de query comuns. Além disso, consulte Práticas recomendadas de desempenho: fragmentação para saber mais sobre as principais estratégias de fragmentação, como fragmentação à distância, fragmentação com hash e fragmentação por zonas.
A atualização de um Atlas cluster para a próxima camada disponível do Atlas está disponível por meio da GUI do plano de controle do Atlas, da API de administração do Atlas ou por meio de ferramentas do IaC, como o Atlas Kubernetes Operator, o MongoDB & HashiCorp Terraform ou o Atlas CLI. Consulte Orientação para o provisionamento automatizado de infraestrutura do Atlas para saber mais. Alterar uma camada do Atlas, seja para upscaling ou downscaling, permite zero tempo de inatividade. O nível muda de forma contínua, o que envolve a eleição de um membro secundário como substituto, a promoção desse membro secundário a se tornar o novo primário e, em seguida, a restauração ou a substituição do membro com falha para garantir que o cluster retorne à configuração de destino o mais rápido possível. O dimensionamento horizontal ocorre após a implantação com base na ação do administrador, que pode ser acionada a partir de um script programático. Alguns modelos de cluster exigem clusters fragmentados. Começando com o MongoDB versão 8.0, você pode fazer uso de servidores de configuração incorporados para reduzir os custos associados aos servidores de configuração em pequenos clusters fragmentados.
A opção de baixa CPU no Atlas auxilia aplicativos que necessitam de mais memória, mas não tanto poder de processamento. Esta opção oferece instâncias com metade das vCPUs em comparação com o nível Geral do mesmo tamanho de cluster, reduzindo os custos para cargas de trabalho que são intensivas em memória, mas não dependem da CPU.
A hierarquização de dados e o arquivamento permitem que você arquive dados em armazenamento de baixo custo, enquanto ainda possibilita consultas junto com dados ativos do cluster, o que é particularmente útil para a retenção de registros a longo prazo. Para otimizar esse processo, o MongoDB recomenda que você automatize o arquivo de dados com regras simples e configuráveis. Consulte Arquivar dados para saber mais sobre os critérios que você pode especificar em uma regra de arquivamento. Para cenários em que a retenção de dados não é uma prioridade, o Atlas oferece a opção de excluir automaticamente dados não utilizados com base em critérios de data. Para dados acessados com pouca frequência, os índices TTL são índices especiais de campo único que removem automaticamente documentos de uma coleção após um período especificado ou em um horário determinado. Isso é especialmente útil para dados como logs, informações de sessão ou dados de eventos que só precisam ser mantidos por um tempo limitado. Para criar um índice TTL, é possível definir um índice em um campo que armazena valores de data e especificar uma duração de tempo de vida em segundos.
O Atlas também oferece ferramentas automatizadas, como o Performance Advisor, para identificar e otimizar consultas ineficientes, adicionando ou removendo um índice ou alterando a estrutura da consulta do cliente. Você pode reduzir o tempo de computação desnecessário e o consumo de recursos seguindo as recomendações práticas para melhorar o desempenho da sua consulta. Além disso, pode utilizar as recomendações inteligentes de índices fornecidas pelo Atlas para aumentar a eficiência da recuperação de dados e reduzir os recursos necessários para operações de banco de dados.
Recomendações para a escalabilidade do Atlas
Para ambientes de desenvolvimento e teste, não ative a computação de escalonamento automático nem o armazenamento de escalonamento automático. Isso economiza custos em seus ambientes de não produção.
Para ambientes de preparação e produção, recomendamos que você:
Habilite o autoescalonamento para computação e armazenamento em instâncias onde seu aplicativo cresce organicamente de pequeno para médio porte.
Se você usar ferramentas de IaC, aproveite as configurações para ignorar o desvio de recursos causado pelo dimensionamento automático. Por exemplo, no Terraform, se
disk_gb_enabled
for verdadeiro, o Atlas escalará automaticamente o tamanho do disco para cima e para baixo. Isso fará com que o valor dedisk_size_gb
retornado seja potencialmente diferente do especificado na configuração do Terraform e, se for aplicado um plano, sem observar isso, o Terraform escalará o tamanho do disco do cluster de volta ao valordisk_size_gb
original. Para evitar isso, deve ser usada uma personalização do ciclo de vida, ou seja,lifecycle { ignore_changes = [disk_size_gb] }
.Da mesma forma, no Terraform, se
compute_enabled
for verdadeiro, o Atlas será automaticamente dimensionado até o máximo fornecido e reduzido ao mínimo, se fornecido. Isso fará com que o valor deprovider_instance_size_name
retornado possa ser diferente do especificado na configuração do Terraform e, se alguém aplicar um plano sem perceber isso, o Terraform redimensionará o cluster para o valorinstanceSizeName
original. Para evitar isso, uma customização do ciclo de vida deve ser utilizada, ou seja:lifecycle { ignore_changes = [provider_instance_size_name] }
.
Exemplos de Automação: Escalabilidade do Atlas
Veja exemplos do Terraform para aplicar nossas recomendações de Staging/Prod em todos os pilares em um só lugar no Github.
Os exemplos a seguir habilitam o dimensionamento automático de computação e de armazenamento usando as ferramentas do Atlas para automação.
Esses exemplos também incluem outras configurações recomendadas, tais como:
Camada do cluster configurada para
M10
em um ambiente de desenvolvimento/teste. Use o guia de tamanho do cluster para saber qual a camada do cluster recomendada para o tamanho do seu aplicativo.Região única, 3-Conjunto de réplicas de nós/Topologia de implantação de fragmento.
Nossos exemplos usam Amazon Web Services, Azure e Google Cloud Platform de forma intercambiável. Você pode usar qualquer um desses três provedores de nuvem, mas deve alterar o nome da região para corresponder ao provedor de nuvem. Para saber mais sobre os fornecedores de nuvem e suas regiões, consulte Fornecedores de nuvem.
Camada do cluster definida como
M30
para um aplicativo de porte médio. Use o guia de tamanho do cluster para saber qual a camada do cluster recomendada para o tamanho do seu aplicativo.Região única, 3-Conjunto de réplicas de nós/Topologia de implantação de fragmento.
Nossos exemplos usam Amazon Web Services, Azure e Google Cloud Platform de forma intercambiável. Você pode usar qualquer um desses três provedores de nuvem, mas deve alterar o nome da região para corresponder ao provedor de nuvem. Para saber mais sobre os fornecedores de nuvem e suas regiões, consulte Fornecedores de nuvem.
Observação
Antes de criar recursos com o Atlas CLI, você deve:
Crie sua organização pagadora e crie uma chave de API para a organização pagadora.
Conecte a partir do Atlas CLI utilizando as etapas Programmatic Use para.
Criar uma implantação por projeto
Para seus ambientes de desenvolvimento e teste, o dimensionamento automático de computação e de armazenamento está desativado para a economia de gastos.
Para os seus ambientes de preparação e produção, crie o seguinte arquivo cluster.json
para cada projeto. Altere os IDs e nomes para usar os seus valores:
{ "clusterType": "REPLICASET", "links": [], "name": "CustomerPortalProd", "mongoDBMajorVersion": "8.0", "replicationSpecs": [ { "numShards": 1, "regionConfigs": [ { "electableSpecs": { "instanceSize": "M30", "nodeCount": 3 }, "priority": 7, "providerName": "GCP", "regionName": "EASTERN_US", "analyticsSpecs": { "nodeCount": 0, "instanceSize": "M30" }, "autoScaling": { "compute": { "enabled": true, "scaleDownEnabled": true }, "diskGB": { "enabled": true } }, "readOnlySpecs": { "nodeCount": 0, "instanceSize": "M30" } } ], "zoneName": "Zone 1" } ] }
Após criar o arquivo cluster.json
, execute o seguinte comando para cada projeto. O comando utiliza o arquivo cluster.json
para criar um cluster.
atlas cluster create --projectId 5e2211c17a3e5a48f5497de3 --file cluster.json
Para mais opções de configuração e informações sobre este exemplo, consulte criar clusters do Atlas.
Observação
Antes de criar recursos com o Terraform, você deve:
Crie sua organização pagadora e crie uma chave de API para a organização pagadora. Armazene sua chave de API como variáveis de ambiente ao executar o seguinte comando no terminal:
export MONGODB_ATLAS_PUBLIC_KEY="<insert your public key here>" export MONGODB_ATLAS_PRIVATE_KEY="<insert your private key here>"
Criar os projetos e as implantações
Para seus ambientes de desenvolvimento e teste, o dimensionamento automático de computação e de armazenamento está desativado para a economia de gastos.
Para seus ambientes de teste e produção, crie os seguintes arquivos para cada par de aplicativo e ambiente. Coloque os arquivos de cada par de aplicativo e ambiente em seus respectivos diretórios. Altere os IDs, nomes e o tamanho do disco para usar seus valores.
main.tf
# Create a Group to Assign to Project resource "mongodbatlas_team" "project_group" { org_id = var.atlas_org_id name = var.atlas_group_name usernames = [ "user1@example.com", "user2@example.com" ] } # Create a Project resource "mongodbatlas_project" "atlas-project" { org_id = var.atlas_org_id name = var.atlas_project_name # Assign the Project the Group with Specific Roles team_id = mongodbatlas_team.project_group.team_id role_names = ["GROUP_READ_ONLY", "GROUP_CLUSTER_MANAGER"] } # Create an Atlas Advanced Cluster resource "mongodbatlas_advanced_cluster" "atlas-cluster" { project_id = mongodbatlas_project.atlas-project.id name = "ClusterPortalProd" cluster_type = "REPLICASET" mongo_db_major_version = var.mongodb_version replication_specs { region_configs { electable_specs { instance_size = var.cluster_instance_size_name node_count = 3 } priority = 7 provider_name = var.cloud_provider region_name = var.atlas_region } } tags { key = "BU" value = "ConsumerProducts" } tags { key = "TeamName" value = "TeamA" } tags { key = "AppName" value = "ProductManagementApp" } tags { key = "Env" value = "Production" } tags { key = "Version" value = "8.0" } tags { key = "Email" value = "marissa@acme.com" } } # Outputs to Display output "atlas_cluster_connection_string" { value = mongodbatlas_advanced_cluster.atlas-cluster.connection_strings.0.standard_srv } output "project_name" { value = mongodbatlas_project.atlas-project.name }
variables.tf
# Atlas Organization ID variable "atlas_org_id" { type = string description = "Atlas Organization ID" } # Atlas Project Name variable "atlas_project_name" { type = string description = "Atlas Project Name" } # Atlas Project Environment variable "environment" { type = string description = "The environment to be built" } # Cluster Instance Size Name variable "cluster_instance_size_name" { type = string description = "Cluster instance size name" } # Cloud Provider to Host Atlas Cluster variable "cloud_provider" { type = string description = "AWS or GCP or Azure" } # Atlas Region variable "atlas_region" { type = string description = "Atlas region where resources will be created" } # MongoDB Version variable "mongodb_version" { type = string description = "MongoDB Version" } # Storage Auto-scaling Enablement Flag variable "auto_scaling_disk_gb" { type = boolean description = "Flag that specifies whether disk auto-scaling is enabled" } # Compute Auto-scaling Enablement Flag variable "auto_scaling_compute" { type = boolean description = "Flag that specifies whether cluster tier auto-scaling is enabled" } # Disk Size in GB variable "disk_size_gb" { type = int description = "Disk Size in GB" }
terraform.tfvars
atlas_org_id = "32b6e34b3d91647abb20e7b8" atlas_project_name = "Customer Portal - Prod" environment = "prod" cluster_instance_size_name = "M30" cloud_provider = "AWS" atlas_region = "US_WEST_2" mongodb_version = "8.0" auto_scaling_disk_gb_enabled = "true" auto_scaling_compute_enabled = "true" disk_size_gb = "40000"
provider.tf
# Define the MongoDB Atlas Provider terraform { required_providers { mongodbatlas = { source = "mongodb/mongodbatlas" } } required_version = ">= 0.13" }
Após criar os arquivos, acesse o diretório correspondente a cada par de aplicativo e ambiente e execute o seguinte comando para inicializar o Terraform:
terraform init
Execute o seguinte comando para visualizar o plano do Terraform:
terraform plan
Após adicionar o bloco lifecycle
para alterar explicitamente disk_size_gb
e instant_size
, comente o bloco lifecycle
e execute terraform apply
. Certifique-se de descomentar o bloco lifecycle
assim que terminar para evitar alterações acidentais.
Execute o seguinte comando para criar um projeto e uma implantação para o par de aplicativo e ambiente. O comando utiliza os arquivos e o MongoDB & HashiCorp Terraform para criar os projetos e clusters:
terraform apply
Quando solicitado, digite yes
e pressione Enter
para aplicar a configuração.
Para mais opções de configuração e informações sobre este exemplo, veja MongoDB & HashiCorp Terraform e a publicação no blog MongoDB Terraform.