Conectores
MongoDB Connector para Apache Kafka
Integre de forma nativa os dados do MongoDB ao ecossistema do Kafka.
Configurar sua conexão
O MongoDB Connector for Apache® Kafka® oficial é desenvolvido e tem suporte oferecido pelo MongoDB e é validado pelo Confluente. O Connector permite que o MongoDB seja configurado como um coletor e uma fonte para o Apache Kafka.
Crie facilmente pipelines de dados robustos e reativos que transmitem eventos entre aplicativos e serviços em quase tempo real.
Por que usar o MongoDB e o Apache Kafka?
O MongoDB e o Kafka sã a base das arquiteturas de dados modernas. O Kafka foi projetado para fluxos de dados ilimitados que gravam eventos sequencialmente em logs de confirmações, permitindo uma movimentação de dados de baixa latência entre seus serviços.
Configurar como coletor
Mapeie e mantenha eventos de tópicos do Kafka diretamente em coleções do MongoDB com facilidade. Faça a ingestão de eventos dos tópicos do Kafka diretamente nas coleções do MongoDB, expondo os dados aos seus serviços para garantir consultas, enriquecimento e análises eficientes.
Configurar como fonte
Publique alterações de dados do MongoDB nos tópicos do Kafka para fazer streaming para os aplicativos que utilizam esses dados. Os dados são captados por meio de Change Streams (fluxos de alterações) dentro do cluster do MongoDB e publicados em tópicos do Kafka. Assim, os respectivos aplicativos podem reagir às alterações de dados em tempo real usando um estilo de programação orientado a eventos.
Por que usar o MongoDB?
Os clientes do MongoDB tiveram sucesso com o Kafka Connector em muitos setores e empresas para diversos casos de uso.
Comércio eletrônico e visão única do cliente
A ao.com, uma das principais varejistas de produtos elétricos on-line, usa o Kafka para enviar todas as alterações de dados a partir de seus bancos de dados de origem para o MongoDB Atlas. Isso cria uma única fonte de confiança para todos os dados de clientes para garantir aplicativos e processos de negócios novos e aprimorados, inclusive atendimento ao cliente, detecção de fraudes e conformidade com o GDPR. Funcionários com as devidas permissões podem acessar os dados dos clientes a partir de uma camada de dados operacional fácil de usar.
IoT
A Josh Software, parte de um projeto na Índia para abrigar mais de 100.000 pessoas em casas inteligentes acessíveis, envia dados de milhões de sensores para o Kafka, processa no Apache Spark e grava os resultados no MongoDB, que conecta os conjuntos de dados operacionais e analíticos. Ao fazer streaming de dados de milhões de sensores quase em tempo real, o projeto está criando casas realmente inteligentes, e as pessoas podem acessar dados por meio de um aplicativo móvel para gerenciar melhor suas casas.
Serviços financeiros
A AHL, subsidiária do The Man Group, que é uma das maiores empresas de investimento em hedge fund do mundo, usou o MongoDB para criar uma única plataforma para todos os seus dados financeiros. O sistema recebe dados de até 150.000 ticks por segundo de várias fontes financeiras e grava no Kafka. O Kafka fornece consolidação e buffering de eventos antes de serem armazenados no MongoDB, onde os dados podem ser analisados.
Opinião e enquetes
A State, uma rede de opinião inteligente que conecta pessoas com crenças semelhantes, grava dados de pesquisa no MongoDB e aproveita o MongoDB Change Streams para publicar alterações de banco de dados nos tópicos do Kafka, onde eles são utilizados por seu mecanismo de recomendação de usuário. Esse mecanismo sugere usuários potencialmente interessantes e atualiza instantaneamente assim que um usuário contribui com uma nova opinião.