Conectores

MongoDB Connector for Apache Kafka

Integre de forma nativa datos de MongoDB dentro del ecosistema Kafka.

Procesamiento de Atlas Stream en vista previa pública

Atlas Stream Processing es la forma nativa de MongoDB de procesar datos de streaming mediante el modelo de documento y la API de consulta.
Gráficos de datos, imágenes y papeles con una lupa agrupada alrededor de 3 niveles verdes para representar valores de datos simplificados.

Configure su conexión

El conector oficial de MongoDB para Apache® Kafka® ha sido desarrollado y respaldado por MongoDB y verificado por Confluent. El conector permite que MongoDB se configure como un sumidero y una fuente de Apache Kafka.

Cree fácilmente pipelines de datos reactivos y sólidos en tiempo real entre aplicaciones y servicios.

Diagrama del conector para Apache Kafka que se configura como un sumidero o una fuente al integrarse con MongoDB.

¿Por qué MongoDB y Apache Kafka?

MongoDB y Kafka están en el corazón de las arquitecturas de datos modernas. Kafka está diseñado para flujos ilimitados de datos que escriben eventos secuencialmente en registros de confirmación, lo que permite un movimiento de datos de baja latencia entre sus servicios.
connectors_kafka_sink

Configure como sumidero

Asigne y mantenga fácilmente eventos de los temas de Kafka directamente a las colecciones de MongoDB. Incorpore eventos de sus temas de Kafka directamente en colecciones de MongoDB, exponiendo los datos a sus servicios para consultas, enriquecimiento y análisis eficientes.

connectors_kafka_source

Configure como fuente

Publique los cambios de datos de MongoDB en los temas de Kafka para transmitirlos a las aplicaciones de consumo. Los datos se capturan a través de Change Streams dentro del clúster de MongoDB y se publican en Kafka Topics. Esto permite que las aplicaciones consumidoras reaccionen a los cambios de datos en tiempo real mediante un estilo de programación basado en eventos.

¿Por qué MongoDB?

Los clientes de MongoDB han tenido éxito con el conector para Kafka en una amplia gama de sectores y empresas para diversos casos de uso.
industry_retail

Vista única del cliente y el comercio electrónico

ao.com, un minorista eléctrico en línea líder, utiliza Kafka para enviar todos los cambios de datos de sus bases de datos de origen a MongoDB Atlas. Esto crea una única fuente de información confiable para que todos los datos de los clientes impulsen aplicaciones y procesos empresariales nuevos y mejorados, incluyendo el servicio al cliente, la detección de fraudes y el cumplimiento del RGPD. Los empleados con los permisos adecuados pueden acceder a los datos de los clientes desde una capa de datos operativos fácil de consumir.
industry_enterprise

IoT

Josh Software, parte de un proyecto en India para alojar a más de 100,000 personas en hogares inteligentes asequibles, envía datos de millones de sensores a Kafka, los procesa en Apache Spark y escribe los resultados en MongoDB, que conecta los conjuntos de datos operativos y analíticos. Al transmitir datos de millones de sensores casi en tiempo real, el proyecto está creando hogares verdaderamente inteligentes, y los ciudadanos pueden acceder a los datos a través de una aplicación móvil para administrar mejor sus hogares.

industry_finance

Servicios financieros

AHL, una subsidiaria de The Man Group, que es una de las empresas de inversión de fondos de cobertura más grandes del mundo, utilizó MongoDB para crear una única plataforma para todos sus datos financieros. El sistema recibe datos de hasta 150,000 marcas por segundo de múltiples fuentes financieras y los escribe en Kafka. Kafka permite consolidar y almacenar en búfer los eventos antes de almacenarlos en MongoDB, donde se pueden analizar los datos.
general_events_breakout

Opinión y encuestas

State, una red de opinión inteligente que conecta a personas con creencias similares, escribe datos de encuestas en MongoDB y aprovecha MongoDB Change Streams para enviar los cambios de la base de datos a temas de Kafka, donde son consumidos por su motor de recomendación de usuarios. Este motor sugiere usuarios potencialmente interesantes y se actualiza instantáneamente en cuanto un usuario aporta una nueva opinión.

Recursos destacados

connectors_kafka_connector

Descarga de MongoDB Connector for Apache Kafka

Descárguelo directamente desde el sitio web de Confluent.

Descargue ahora
general_action_download

MongoDB Connector para Apache Kafka GitHub Repo

Este conector es de código abierto y se puede descargar desde nuestro repositorio de GitHub.

Descargue ahora
general_content_tutorial

Ejemplo de extremo a extremo de MongoDB y Apache Kafka con Docker

Conozca la arquitectura basada en eventos y cómo MongoDB puede ayudarle a llegar allí.

Experiméntelo hoy
general_features_realtime

La arquitectura basada en eventos permite datos en tiempo real

MongoDB y su conector para Apache Kafka son fundamentales para la arquitectura basada en eventos, que le ayuda a gestionar su negocio en tiempo real.

Más información
general_content_blog

MongoDB e IIoT: transmisión de datos con Kafka

Mueva datos sin problemas desde el protocolo MQTT a colecciones de series temporales de MongoDB mediante Apache Kafka.

Más información

¿Listo para empezar?

Obtenga el conector de MongoDB para Apache Kafka.
An illustration of MongoDB connector