Saiba como aproveitar os dados do MongoDB dentro do Kafka com novos tutoriais!
Avalie esse Artigo
A documentação do MongoDB connector para Apache Kafka agora inclui novos tutoriais! Esses tutoriais apresentam os principais conceitos por trás do connector e, no final, você entenderá como mover dados entre o MongoDB e o Apache Kafka. Os tutoriais são os seguintes:
Change stream é um MongoDB Server que fornece recursos de captura de dados de alteração (CDC) para collection do MongoDB. O connector depende de change stream para mover dados do MongoDB para um tópico do Kafka. Neste tutorial, você explorará a criação de um change stream e a leitura de eventos de change stream por meio de um aplicativo Python.
Neste tutorial, você configurará um connector para ler dados de uma MongoDB collection em um tópico Apache Kafka e examinará o conteúdo das mensagens de evento.
Neste tutorial, você configurará um conector de coletor para copiar dados de um tópico do Kafka para um cluster MongoDB e, em seguida, escreverá um aplicativo Python para gravar dados no tópico.
Configure uma origem MongoDB e um connector de pia para replicar dados entre duas coleções usando o manipulador MongoDB CDC.
As coleções de séries temporais armazenam eficientemente sequências de medições ao longo de um período de tempo, aumentando drasticamente o desempenho dos dados baseados no tempo. Neste tutorial, você configurará um connector de origem e um coletor para replicar os dados de uma collection em uma coleção de séries temporais.
Esses tutoriais são executados localmente em um ambiente Docker Compose que inclui Apache Kafka, Kafka Connect e MongoDB. Antes de iniciá-los, siga e conclua a configuração do tutorial. Você seguirá as etapas usando um shell de tutorial e containers disponíveis no Docker Hub. O shell do tutorial inclui ferramentas como o novo shell do Mongo, o KafkaCat e scripts auxiliares que facilitam a configuração do Kafka Connect a partir da linha de comando.