Connettori

Connettore MongoDB per Apache Kafka

Integra in modo nativo i dati MongoDB all'interno dell'ecosistema Kafka.

Atlas Stream Processing in Public Preview

Atlas Stream Processing è la soluzione nativa di MongoDB per elaborare i dati in streaming utilizzando il document model e l'API Query.
Grafici di dati, immagini e documenti con una lente d'ingrandimento raggruppati intorno a 3 livelli verdi per rappresentare le proprietà di dati semplificate.

Configurazione del collegamento

Il connettore MongoDB ufficiale per Apache® Kafka® è sviluppato e supportato da MongoDB e verificato da Confluent. Il connettore consente di configurare MongoDB sia come sink che come origine per Apache Kafka.

Crea facilmente pipeline di dati solide e reattive che trasmettono eventi in streaming tra applicazioni e servizi in tempo quasi reale.

Diagramma del connettore Apache Kafka configurato come sink o come sorgente durante l'integrazione con MongoDB.

Perché MongoDB e Apache Kafka?

MongoDB e Kafka sono al centro delle moderne architetture di dati. Kafka è progettato per flussi illimitati di dati che scrivono eventi in sequenza nei log di commit, consentendo lo spostamento dei dati a bassa latenza tra i tuoi servizi.
connectors_kafka_sink

Configurazione come sink

Mappa e assicura la persistenza degli eventi dagli argomenti Kafka direttamente alle collection MongoDB, in tutta semplicità. Inserisci eventi dai tuoi argomenti di Kafka direttamente nelle collection MongoDB, mettendo i dati a disposizione dei tuoi servizi per interrogazioni, arricchimenti e analytics efficienti.

connectors_kafka_source

Configurazione come sorgente

Trasmetti le modifiche ai dati da MongoDB agli argomenti Kafka per consentire lo streaming alle app che li utilizzano. I dati vengono acquisiti tramite Change Streams all'interno del cluster MongoDB e pubblicati in argomenti Kafka. Ciò consente alle app che utilizzano i dati di reagire alle modifiche in tempo reale, attraverso uno stile di programmazione basato sugli eventi.

Perché MongoDB?

I clienti di MongoDB hanno già sperimentato il successo del connettore Kafka in un'ampia gamma di settori e aziende per più casi d'uso.
industry_retail

eCommerce e visualizzazione singola del cliente

ao.com, un importante rivenditore online di materiale elettrico, utilizza Kafka per inviare tutte le modifiche ai dati dai database di origine a MongoDB Atlas. In questo modo crea un'unica fonte di informazioni attendibili per tutti i dati dei clienti, a partire dalla quale sviluppare applicazioni e processi aziendali nuovi e migliorati, ad esempio per servizio clienti, rilevamento delle frodi e conformità al GDPR. I dipendenti con le opportune autorizzazioni possono accedere ai dati dei clienti da un layer dati operativo di facile utilizzo.
industry_enterprise

IoT

In India, nell'ambito di un'iniziativa volta a ospitare più di 100.000 persone in case intelligenti a prezzi convenienti, Josh Software invia i dati raccolti da milioni di sensori a Kafka, li elabora in Apache Spark e scrive i risultati su MongoDB, che collega i set di dati operativi e analitici. Trasmettendo in streaming i dati provenienti da milioni di sensori, in tempo quasi reale, il progetto sta dando vita a case veramente intelligenti, mentre i cittadini possono accedere ai dati tramite un'app mobile per gestire meglio le loro abitazioni.
industry_finance

Servizi Finanziari

AHL, controllata di The Man Group, una delle più grandi società di investimenti in hedge fund al mondo, ha utilizzato MongoDB al fine di creare un'unica piattaforma per tutti i suoi dati finanziari. Il sistema riceve dati per un massimo di 150.000 tick al secondo da più fonti di informazioni finanziarie e li scrive su Kafka. Kafka fornisce sia il consolidamento che il buffering degli eventi, dopodiché i dati sono archiviati in MongoDB, dove possono essere analizzati.
general_events_breakout

Opinioni e sondaggi

State, una rete di opinioni intelligente che mette in contatto persone con convinzioni simili, scrive i dati dei sondaggi su MongoDB e ne sfrutta i Change Stream per inviare le modifiche dei database agli argomenti di Kafka, dove vengono utilizzate dal motore di raccomandazione degli utenti. Il motore suggerisce utenti potenzialmente interessanti e si aggiorna istantaneamente non appena un utente contribuisce con una nuova opinione.

Risorse disponibili

connectors_kafka_connector

Download del connettore MongoDB per Apache Kafka

Scaricalo direttamente dal sito web Confluent.

Scarica ora
general_action_download

Connettore MongoDB per repository GitHub Apache Kafka

Questo connettore è open source e può essere scaricato dal nostro repository GitHub.

Scarica ora
general_content_tutorial

Esempio end-to-end di MongoDB e Apache Kafka con Docker

Scopri come funziona l'architettura basata sugli eventi e come MongoDB può aiutarti a realizzarla.

Provala subito
general_features_realtime

L'architettura basata su eventi consente dati in tempo reale

MongoDB e il suo connettore per Apache Kafka sono fondamentali per l'architettura basata sugli eventi, che ti aiuta a gestire la tua attività in tempo reale.

Ulteriori informazioni
general_content_blog

MongoDB e IIoT: streaming dei dati con Kafka

Sposta i dati senza problemi dal protocollo MQTT alle collection time-series di MongoDB utilizzando Apache Kafka.

Ulteriori informazioni

Pronto per iniziare?

Scarica il connettore MongoDB per Apache Kafka.
An illustration of MongoDB connector