Explore o novo chatbot do Developer Center! O MongoDB AI chatbot pode ser acessado na parte superior da sua navegação para responder a todas as suas perguntas sobre o MongoDB .

Junte-se a nós no Amazon Web Services re:Invent 2024! Saiba como usar o MongoDB para casos de uso de AI .
Desenvolvedor do MongoDB
Central de desenvolvedor do MongoDBchevron-right
Produtoschevron-right
Conectoreschevron-right

Saiba como aproveitar os dados do MongoDB dentro do Kafka com novos tutoriais!

Robert Walters1 min read • Published Jun 06, 2022 • Updated Sep 17, 2024
KafkaConectores
Ícone do FacebookÍcone do Twitterícone do linkedin
Avalie esse Artigo
star-empty
star-empty
star-empty
star-empty
star-empty
A documentação do MongoDB connector para Apache Kafka agora inclui novos tutoriais! Esses tutoriais apresentam os principais conceitos por trás do connector e, no final, você entenderá como mover dados entre o MongoDB e o Apache Kafka. Os tutoriais são os seguintes:
Change stream é um MongoDB Server que fornece recursos de captura de dados de alteração (CDC) para collection do MongoDB. O connector depende de change stream para mover dados do MongoDB para um tópico do Kafka. Neste tutorial, você explorará a criação de um change stream e a leitura de eventos de change stream por meio de um aplicativo Python.
Neste tutorial, você configurará um connector para ler dados de uma MongoDB collection em um tópico Apache Kafka e examinará o conteúdo das mensagens de evento.
Neste tutorial, você configurará um conector de coletor para copiar dados de um tópico do Kafka para um cluster MongoDB e, em seguida, escreverá um aplicativo Python para gravar dados no tópico.
Configure uma origem MongoDB e um connector de pia para replicar dados entre duas coleções usando o manipulador MongoDB CDC.
As coleções de séries temporais armazenam eficientemente sequências de medições ao longo de um período de tempo, aumentando drasticamente o desempenho dos dados baseados no tempo. Neste tutorial, você configurará um connector de origem e um coletor para replicar os dados de uma collection em uma coleção de séries temporais.
Esses tutoriais são executados localmente em um ambiente Docker Compose que inclui Apache Kafka, Kafka Connect e MongoDB. Antes de iniciá-los, siga e conclua a configuração do tutorial. Você seguirá as etapas usando um shell de tutorial e containers disponíveis no Docker Hub. O shell do tutorial inclui ferramentas como o novo shell do Mongo, o KafkaCat e scripts auxiliares que facilitam a configuração do Kafka Connect a partir da linha de comando.
Se você tiver alguma dúvida ou feedback sobre os tutoriais, poste-os nos MongoDB Community.

Ícone do FacebookÍcone do Twitterícone do linkedin
Avalie esse Artigo
star-empty
star-empty
star-empty
star-empty
star-empty
Relacionado
Tutorial

Usando a autenticação AWS IAM com o conector MongoDB para Apache Kafka


Jul 01, 2024 | 4 min read
Artigo

Transmitindo dados com Apache Spark e MongoDB


Aug 28, 2024 | 7 min read
Tutorial

Implantando o MongoDB em vários clusters do Kubernetes com o MongoDBMulti


Sep 05, 2023 | 11 min read
Tutorial

Dominando o MongoDB Ops Manager no Kubernetes


Jan 13, 2023 | 7 min read