BLOGAtlas Stream Process ahora está en vista previa pública. Obtén más información

ATLAS (VISTA PREVIA)

Atlas Stream Processing. Unifique datos en movimiento y datos en reposo.

Transforme la creación de aplicaciones basadas en eventos procesando continuamente la transmisión de datos con una experiencia de desarrollador familiar.
Explore el tutorial
Imagen explicada de Atlas Stream Processing
Procesamiento Atlas transmitir explicado en 3 minutos
Descubra cómo Atlas Stream Processing combina el modelo de documento, los esquemas flexibles y el rico marco de agregación para proporcionar potencia y conveniencia al crear aplicaciones que requieren procesar datos de eventos complejos en escala.Ver video
Ilustración de una pipeline que representa Atlas Stream Processing.

Transmitir procesamiento como nunca antes

Cuando se trabaja con datos en streaming, la gestión de esquemas es fundamental para la corrección de los datos y la productividad del desarrollador. El modelo de documento de MongoDB y el marco de agregación brindan a los desarrolladores capacidades poderosas y ganancias de productividad que no encontrará en ningún otro lugar del procesamiento de transmisión.
Una ilustración de figuras y gráficos de datos entrando en un cuadro verde.

Unificar datos en movimiento y datos en reposo

Por primera vez, los desarrolladores pueden utilizar una plataforma (a través de API, lenguaje de consulta y modelo de datos) para procesar continuamente datos en streaming junto con los datos críticos de las aplicaciones almacenados en su base de datos.
Ilustración de una base de datos, una interfaz y un cubo de datos.

Totalmente gestionado en Atlas

Atlas Stream Processing se basa en nuestra sólida e integrada plataforma de datos para desarrolladores. Con sólo unas pocas llamadas a la API y líneas de código, un desarrollador puede montar un procesador de flujos, una base de datos y una capa de servicio de API, todo ello totalmente gestionado en Atlas.

Atlas Stream Processing

¿Cómo unifica la experiencia de trabajar con datos en movimiento y datos en reposo?
Atlas Stream Processing diagram

Capacidades
misc_grow

Procesamiento continuo

Cree aggregation pipeline para consultar, analizar y React continuamente a la transmisión de datos sin los retrasos inherentes al procesamiento por lotes.

general_features_complexity

Validación continua

Realice una validación continua del esquema para verificar que los eventos se formen correctamente antes del procesamiento, detectar daños en los mensajes y detectar datos que llegan tarde y que han perdido una ventana de procesamiento.

general_features_build_faster

Fusionamiento continuo

Materialice continuamente vistas en sistemas de transmisión o collection de bases de datos Atlas como Apache Kafka para mantener vistas analíticas frescas de los datos que respaldan la toma de decisiones y la acción.

INFORMACIÓN CONTINUA
“En Acoustic, nuestro enfoque clave es empoderar a las marcas con información conductual que les permita crear experiencias atractivas y personalizadas para los clientes. Con Atlas Stream Processing, nuestros ingenieros pueden aprovechar las habilidades que ya tienen, desde trabajar con datos en Atlas para procesar nuevos datos de forma continua, asegurando así que nuestros clientes tengan acceso a información sobre los clientes en tiempo real”.
John Riewerts
EVP de ingeniería, Acoustic
Manos escribiendo en la computadora portátil.
Aplicaciones basadas en eventos
Pavimentando el camino hacia un negocio en tiempo real reactivo y receptivoDownload del Documento Técnico

Experimente la simplicidad y el poder del procesamiento Atlas Stream

Utilice Atlas Stream Processing para procesar y validar fácilmente datos de eventos complejos, combinándolos para usarlos exactamente donde los necesite.
Consulta la Documentación
Cómo consultar los flujos de datos de Apache Kafka
El procesamiento Atlas Stream hace que consultar datos de Apache Kafka sea tan fácil como consultar MongoDB. Simplemente defina una fuente, las etapas de agregación deseadas y un enlace para procesar rápidamente sus flujos de datos de Apache Kafka.
Analíticas avanzadas con funciones de ventana
Los operadores de Windows en Atlas Stream Processing le permiten analizar y procesar ventanas de datos específicas de tamaño fijo dentro de un flujo de datos continuo, lo que facilita el descubrimiento de patrones y tendencias.
Validación de esquemas de eventos complejos
La validación continua es esencial para garantizar que los eventos se formen correctamente antes del procesamiento, para detectar la corrupción del mensaje y si los datos tardíos han perdido un período de procesamiento.
Cómo consultar los flujos de datos de Apache Kafka
El procesamiento Atlas Stream hace que consultar datos de Apache Kafka sea tan fácil como consultar MongoDB. Simplemente defina una fuente, las etapas de agregación deseadas y un enlace para procesar rápidamente sus flujos de datos de Apache Kafka.
API de consultas de MongoDB
Analíticas avanzadas con funciones de ventana
Los operadores de Windows en Atlas Stream Processing le permiten analizar y procesar ventanas de datos específicas de tamaño fijo dentro de un flujo de datos continuo, lo que facilita el descubrimiento de patrones y tendencias.
API de consultas de MongoDB
Validación de esquemas de eventos complejos
La validación continua es esencial para garantizar que los eventos se formen correctamente antes del procesamiento, para detectar la corrupción del mensaje y si los datos tardíos han perdido un período de procesamiento.
API de consultas de MongoDB
API de consultas de MongoDB

Aproveche al máximo el Atlas

Impulse más experiencias y conocimientos basados en datos con el resto de nuestra plataforma de datos para desarrolladores.
atlas_database

Base de Datos

Empiece con el servicio de base de datos multicloud construido para la resiliencia, la escala y los más altos niveles de privacidad y seguridad de los datos.

atlas_triggers

Triggers

Ejecute código automáticamente en respuesta a cambios en la base de datos o a eventos del usuario, o en intervalos preestablecidos.

connectors_kafka

Conector Kafka

Integre de forma nativa los datos de MongoDB dentro del ecosistema de Kafka.


Preguntas frecuentes

¿Quiere saber más sobre el procesamiento de transmisiones?
Ver más recursos
¿Qué son los datos de streaming?
Los datos de streaming se generan continuamente a partir de una amplia gama de fuentes. Los sensores, microservices y dispositivos móviles de IoT son fuentes comunes de transmisión de gran volumen. La naturaleza continua de los datos de streaming, así como su inmutabilidad, los hacen únicos a partir de datos estáticos en reposo en una base de datos.
¿Qué es el procesamiento de transmisión?
El procesamiento de transmisión consiste en ingerir y transformar continuamente datos de eventos desde una plataforma de mensajería de eventos (como Apache Kafka) para realizar diversas funciones. Esto podría significar crear filtros simples para eliminar datos innecesarios, realizar agregaciones para contar o sumar datos según sea necesario, crear Windows con estado y más. El procesamiento de transmisión puede ser una característica diferenciadora en aplicaciones basadas en eventos, permitiendo una experiencia del cliente más reactiva y responsiva.
¿En qué se diferencia la transmisión de eventos del procesamiento de transmisión?

Los datos de transmisión se encuentran dentro de plataformas de transmisión de eventos (como Apache Kafka), y estos sistemas son esencialmente un registro distributed inmutable. Los datos de eventos se publican y consumen desde plataformas de transmisión de eventos mediante API.

Los desarrolladores necesitan utilizar un procesador de transmisión para realizar procesamientos más avanzados, como agregaciones con estado, operaciones de ventanas, mutaciones y creación de vistas materializadas. Son similares a las operaciones que se realizan cuando se ejecutan consultas en una base de datos, excepto que el procesamiento de transmisión consulta continuamente una transmisión interminable de datos. Esta área del streaming es más incipiente; sin embargo, tecnologías como Apache Flink y Spark Streaming están ganando terreno rápidamente.

Con Atlas Stream Processing, MongoDB ofrece a los desarrolladores una mejor manera de procesar flujos para usar en sus aplicaciones, aprovechando el marco de agregación.

¿Por qué MongoDB creó Atlas Stream Processing?
El procesamiento de transmisión es un componente cada vez más crítico para crear aplicaciones responsivas basadas en eventos. Al agregar la funcionalidad de procesamiento de transmisión como una capacidad nativa en Atlas, estamos ayudando a más desarrolladores a crear aplicaciones innovadoras aprovechando nuestra plataforma de datos para desarrolladores de multi cloud, MongoDB Atlas.
¿Cómo puedo comenzar con la vista previa pública de Atlas Stream Processing?
Atlas Stream Processing ya está disponible para todos los usuarios de Atlas. Simplemente inicie sesión y haga clic en la pestaña Stream Processing para comenzar.
¿En qué se diferencia el procesamiento de transmisión del procesamiento por lotes?

El procesamiento de flujo ocurre continuamente. En el contexto de la creación de aplicaciones basadas en eventos, el procesamiento de flujos permite experiencias reactivas y convincentes como notificaciones en tiempo real, personalización, planificación de rutas o mantenimiento predictivo.

El procesamiento por lotes no funciona con datos que se producen continuamente. En cambio, el procesamiento por lotes funciona recopilando datos durante un período de tiempo específico y luego procesando esos datos estáticos según sea necesario. Un ejemplo de procesamiento por lotes es un negocio minorista que recopila ventas al cierre del negocio cada día con fines de presentar informes y/o actualiza los niveles de inventario.

Empiece a usar Atlas hoy mismo

Atlas Stream Processing ya está disponible en vista previa pública.
Iniciar Sesión
Ilustración de una pipeline que representa Atlas Stream Processing.