Connettori
Connettore MongoDB per Apache Kafka
Integra in modo nativo i dati MongoDB all'interno dell'ecosistema Kafka.
Configurazione del collegamento
Il connettore MongoDB ufficiale per Apache® Kafka® è sviluppato e supportato da MongoDB e verificato da Confluent. Il connettore consente di configurare MongoDB sia come sink che come origine per Apache Kafka.
Crea facilmente pipeline di dati solide e reattive che trasmettono eventi in streaming tra applicazioni e servizi in tempo quasi reale.
Perché MongoDB e Apache Kafka?
MongoDB e Kafka sono al centro delle moderne architetture di dati. Kafka è progettato per flussi illimitati di dati che scrivono eventi in sequenza nei log di commit, consentendo lo spostamento dei dati a bassa latenza tra i tuoi servizi.
Configurazione come sink
Mappa e assicura la persistenza degli eventi dagli argomenti Kafka direttamente alle collection MongoDB, in tutta semplicità. Inserisci eventi dai tuoi argomenti di Kafka direttamente nelle collection MongoDB, mettendo i dati a disposizione dei tuoi servizi per interrogazioni, arricchimenti e analytics efficienti.
Configurazione come sorgente
Trasmetti le modifiche ai dati da MongoDB agli argomenti Kafka per consentire lo streaming alle app che li utilizzano. I dati vengono acquisiti tramite Change Streams all'interno del cluster MongoDB e pubblicati in argomenti Kafka. Ciò consente alle app che utilizzano i dati di reagire alle modifiche in tempo reale, attraverso uno stile di programmazione basato sugli eventi.
Perché MongoDB?
I clienti di MongoDB hanno già sperimentato il successo del connettore Kafka in un'ampia gamma di settori e aziende per più casi d'uso.
eCommerce e visualizzazione singola del cliente
ao.com, un importante rivenditore online di materiale elettrico, utilizza Kafka per inviare tutte le modifiche ai dati dai database di origine a MongoDB Atlas. In questo modo crea un'unica fonte di informazioni attendibili per tutti i dati dei clienti, a partire dalla quale sviluppare applicazioni e processi aziendali nuovi e migliorati, ad esempio per servizio clienti, rilevamento delle frodi e conformità al GDPR. I dipendenti con le opportune autorizzazioni possono accedere ai dati dei clienti da un layer dati operativo di facile utilizzo.
IoT
In India, nell'ambito di un'iniziativa volta a ospitare più di 100.000 persone in case intelligenti a prezzi convenienti, Josh Software invia i dati raccolti da milioni di sensori a Kafka, li elabora in Apache Spark e scrive i risultati su MongoDB, che collega i set di dati operativi e analitici. Trasmettendo in streaming i dati provenienti da milioni di sensori, in tempo quasi reale, il progetto sta dando vita a case veramente intelligenti, mentre i cittadini possono accedere ai dati tramite un'app mobile per gestire meglio le loro abitazioni.
Servizi Finanziari
AHL, controllata di The Man Group, una delle più grandi società di investimenti in hedge fund al mondo, ha utilizzato MongoDB al fine di creare un'unica piattaforma per tutti i suoi dati finanziari. Il sistema riceve dati per un massimo di 150.000 tick al secondo da più fonti di informazioni finanziarie e li scrive su Kafka. Kafka fornisce sia il consolidamento che il buffering degli eventi, dopodiché i dati sono archiviati in MongoDB, dove possono essere analizzati.
Opinioni e sondaggi
State, una rete di opinioni intelligente che mette in contatto persone con convinzioni simili, scrive i dati dei sondaggi su MongoDB e ne sfrutta i Change Stream per inviare le modifiche dei database agli argomenti di Kafka, dove vengono utilizzate dal motore di raccomandazione degli utenti. Il motore suggerisce utenti potenzialmente interessanti e si aggiorna istantaneamente non appena un utente contribuisce con una nuova opinione.