A totalmente gestionado Atlas service with modelo de documento flexibilidad.
Use el marco de agregación y API de consulta, una interfaz familiar y eficaz, para tratar el procesamiento de transmisión.
Disponible en 11 regiones de AWS en EE. UU., Europa y APAC, y pronto habrá más proveedores y regiones.
Cree ventanas basadas en el tiempo y otras operaciones para el procesamiento complejo y de eventos múltiples.
Conectar fácilmente a sus fuentes/sumideros de transmisión clave en Kafka y Atlas, y combine datos de forma continua.
Asistencia técnica incorporada para la validación para garantizar la exactitud de los datos y el manejo intuitivo de errores. Emplee Atlas collection como una cola de mensajes fallidos (DLQ).
En caso de falla, los puntos de control reinician automáticamente los procesadores de transmisión y evitan el reprocesamiento innecesario de datos.
El procesamiento de datos de streaming puede ser opaco. Usa .process() para explorar de forma iterativa a medida que compilas.
xxxxxxxxxx
xxxxxxxxxx
xxxxxxxxxx
Definir un origen desde el registro de conexiones
var fuente = { $source: {
connectionName: 'kafkaprod',
topic: 'stocks'
} }
Crear algunas otras etapas
var match = { $match: { 'exchange':'NYSE'} }
Crear un lavaplatos
var sumidero = { $merge: {
en: {
connectionName: 'mongoprod',
db: 'StockDB',
col: 'TransactionHistory'
} }
¡Pruébalo!
var myProcessor = [fuente, coincidencia, sumidero]
sp.process(miProcesador)
Empiece con el servicio de base de datos multicloud construido para la resiliencia, la escala y los más altos niveles de privacidad y seguridad de los datos.
Ejecute código automáticamente en respuesta a cambios en la base de datos o a eventos del usuario, o en intervalos preestablecidos.
Integre de forma nativa los datos de MongoDB dentro del ecosistema de Kafka.
Los datos de transmisión se encuentran dentro de plataformas de transmisión de eventos (como Apache Kafka), y estos sistemas son esencialmente un registro distributed inmutable. Los datos de eventos se publican y consumen desde plataformas de transmisión de eventos mediante API.
Los desarrolladores necesitan utilizar un procesador de transmisión para realizar procesamientos más avanzados, como agregaciones con estado, operaciones de ventanas, mutaciones y creación de vistas materializadas. Son similares a las operaciones que se realizan cuando se ejecutan consultas en una base de datos, excepto que el procesamiento de transmisión consulta continuamente una transmisión interminable de datos. Esta área del streaming es más incipiente; sin embargo, tecnologías como Apache Flink y Spark Streaming están ganando terreno rápidamente.
Con Atlas Stream Processing, MongoDB ofrece a los desarrolladores una mejor manera de procesar flujos para usar en sus aplicaciones, aprovechando el marco de agregación.
El procesamiento de flujo ocurre continuamente. En el contexto de la creación de aplicaciones basadas en eventos, el procesamiento de flujos permite experiencias reactivas y convincentes como notificaciones en tiempo real, personalización, planificación de rutas o mantenimiento predictivo.
El procesamiento por lotes no funciona con datos que se producen continuamente. En cambio, el procesamiento por lotes funciona recopilando datos durante un período de tiempo específico y luego procesando esos datos estáticos según sea necesario. Un ejemplo de procesamiento por lotes es un negocio minorista que recopila ventas al cierre del negocio cada día con fines de presentar informes y/o actualiza los niveles de inventario.