ATLAS

Atlas Stream Processing. Unifique los datos en movimiento y en reposo.

Transforme la creación de aplicaciones basadas en eventos procesando continuamente la transmisión de datos con una experiencia de desarrollador familiar.
Imagen explicada de Atlas Stream Processing
Procesamiento Atlas transmitir explicado en 3 minutos
Descubra cómo Atlas Stream Processing combina el modelo de documento, los esquemas flexibles y el rico marco de agregación para proporcionar potencia y conveniencia al crear aplicaciones que requieren procesar datos de eventos complejos en escala.Ver video
Ilustración de una pipeline que representa Atlas Stream Processing.

Transmitir procesamiento como nunca antes

Cuando se trabaja con datos en streaming, la gestión de esquemas es fundamental para la corrección de los datos y la productividad del desarrollador. El modelo de documento de MongoDB y el marco de agregación brindan a los desarrolladores capacidades poderosas y ganancias de productividad que no encontrará en ningún otro lugar del procesamiento de transmisión.
Una ilustración de figuras y gráficos de datos entrando en un cuadro verde.

Procese y managed todos sus datos en una sola plataforma

Por primera vez, los desarrolladores pueden usar una plataforma, a través de la API, el lenguaje de consulta y el modelo de datos, para procesar continuamente los datos de transmisión junto con los datos críticos de la aplicación almacenados en su base de datos.
Ilustración de una base de datos, una interfaz y un cubo de datos.

Totalmente gestionado en Atlas

Atlas Stream Processing se basa en nuestra sólida e integrada plataforma de datos para desarrolladores. Con sólo unas pocas llamadas a la API y líneas de código, un desarrollador puede montar un procesador de flujos, una base de datos y una capa de servicio de API, todo ello totalmente gestionado en Atlas.

Atlas Stream Processing

¿Cómo unifica la experiencia de trabajar con datos en movimiento y datos en reposo?
Diagrama de Atlas Stream Processing

Características
atlas_dataapi

Integrado en Atlas

A totalmente gestionado Atlas service with modelo de documento flexibilidad.

atlas_query_api

Basado en la API de consulta

Use el marco de agregación y API de consulta, una interfaz familiar y eficaz, para tratar el procesamiento de transmisión.

atlas_global_deployments

Disponible globalmente

Disponible en 11 regiones de AWS en EE. UU., Europa y APAC, y pronto habrá más proveedores y regiones.

general_features_build_faster

Procesamiento con estado

Cree ventanas basadas en el tiempo y otras operaciones para el procesamiento complejo y de eventos múltiples.

connectors_kafka_connector

asistencia técnica Kafka y MongoDB

Conectar fácilmente a sus fuentes/sumideros de transmisión clave en Kafka y Atlas, y combine datos de forma continua.

atlas_keyword_highlighting

Validación continua

Asistencia técnica incorporada para la validación para garantizar la exactitud de los datos y el manejo intuitivo de errores. Emplee Atlas collection como una cola de mensajes fallidos (DLQ).

general_action_checkmark

Punto de control

En caso de falla, los puntos de control reinician automáticamente los procesadores de transmisión y evitan el reprocesamiento innecesario de datos.

atlas_stream_processing

Desarrollar de forma interactiva

El procesamiento de datos de streaming puede ser opaco. Usa .process() para explorar de forma iterativa a medida que compilas.

INFORMACIÓN CONTINUA
"En Acoustic, nuestro enfoque clave es empoderar a las marcas con información sobre el comportamiento que les permita crear una experiencia atractiva y personalizada. Con Atlas Stream Processing, nuestros ingenieros pueden aprovechar las habilidades que ya tienen al trabajar con datos en Atlas para procesar nuevos datos de forma continua, lo que garantiza que nuestros clientes tengan acceso a información sobre los clientes en tiempo real".
John Riewerts
EVP de ingeniería, Acoustic
APLICACIONES BASADAS EN EVENTOS
Atlas procesamiento de transmisión nos permite procesar, validar y transformar datos antes de enviarlos a nuestra arquitectura de mensajería en AWS impulsando actualizaciones basadas en eventos en toda nuestra plataforma. La confiabilidad y el rendimiento de Atlas Stream Processing aumentaron nuestra productividad, mejorado la experiencia de los desarrolladores y reducido los costos de infraestructura".
Cody Perry
Ingeniero de software, Meltwater
Manos escribiendo en la computadora portátil.
Aplicaciones basadas en eventos
Allanando el camino hacia un negocio en tiempo real reactivo y con capacidad de respuesta.Download del Documento Técnico

Procesamiento de transmisión nativo en MongoDB Atlas

Utilice Atlas Stream Processing para procesar y validar fácilmente datos de eventos complejos, combinándolos para usarlos exactamente donde los necesite.
Consulta la Documentación
Cómo consultar los flujos de datos de Apache Kafka
El procesamiento Atlas Stream hace que consultar datos de Apache Kafka sea tan fácil como consultar MongoDB. Simplemente defina una fuente, las etapas de agregación deseadas y un enlace para procesar rápidamente sus flujos de datos de Apache Kafka.
Analíticas avanzadas con funciones de ventana
Los operadores de Windows en Atlas Stream Processing le permiten analizar y procesar ventanas de datos específicas de tamaño fijo dentro de un flujo de datos continuo, lo que facilita el descubrimiento de patrones y tendencias.
Validación de esquemas de eventos complejos
La validación continua es esencial para garantizar que los eventos se formen correctamente antes del procesamiento, para detectar la corrupción del mensaje y si los datos tardíos han perdido un período de procesamiento.
Cómo consultar los flujos de datos de Apache Kafka
El procesamiento Atlas Stream hace que consultar datos de Apache Kafka sea tan fácil como consultar MongoDB. Simplemente defina una fuente, las etapas de agregación deseadas y un enlace para procesar rápidamente sus flujos de datos de Apache Kafka.
API de consultas de MongoDB
Analíticas avanzadas con funciones de ventana
Los operadores de Windows en Atlas Stream Processing le permiten analizar y procesar ventanas de datos específicas de tamaño fijo dentro de un flujo de datos continuo, lo que facilita el descubrimiento de patrones y tendencias.
API de consultas de MongoDB
Validación de esquemas de eventos complejos
La validación continua es esencial para garantizar que los eventos se formen correctamente antes del procesamiento, para detectar la corrupción del mensaje y si los datos tardíos han perdido un período de procesamiento.
API de consultas de MongoDB
API de consultas de MongoDB

Aproveche al máximo el Atlas

Impulse más experiencias y conocimientos basados en datos con el resto de nuestra plataforma de datos para desarrolladores.

Preguntas frecuentes

¿Quiere saber más sobre el procesamiento de transmisiones?
¿Qué son los datos de streaming?
Los datos de streaming se generan continuamente a partir de una amplia gama de fuentes. Los sensores, microservices y dispositivos móviles de IoT son fuentes comunes de transmisión de gran volumen. La naturaleza continua de los datos de streaming, así como su inmutabilidad, los hacen únicos a partir de datos estáticos en reposo en una base de datos.
¿Qué es el procesamiento de transmisión?
El procesamiento de transmisión consiste en ingerir y transformar continuamente datos de eventos desde una plataforma de mensajería de eventos (como Apache Kafka) para realizar diversas funciones. Esto podría significar crear filtros simples para eliminar datos innecesarios, realizar agregaciones para contar o sumar datos según sea necesario, crear Windows con estado y más. El procesamiento de transmisión puede ser una característica diferenciadora en aplicaciones basadas en eventos, permitiendo una experiencia del cliente más reactiva y responsiva.
¿En qué se diferencia la transmisión de eventos del procesamiento de transmisión?

Los datos de transmisión se encuentran dentro de plataformas de transmisión de eventos (como Apache Kafka), y estos sistemas son esencialmente un registro distributed inmutable. Los datos de eventos se publican y consumen desde plataformas de transmisión de eventos mediante API.

Los desarrolladores necesitan utilizar un procesador de transmisión para realizar procesamientos más avanzados, como agregaciones con estado, operaciones de ventanas, mutaciones y creación de vistas materializadas. Son similares a las operaciones que se realizan cuando se ejecutan consultas en una base de datos, excepto que el procesamiento de transmisión consulta continuamente una transmisión interminable de datos. Esta área del streaming es más incipiente; sin embargo, tecnologías como Apache Flink y Spark Streaming están ganando terreno rápidamente.

Con Atlas Stream Processing, MongoDB ofrece a los desarrolladores una mejor manera de procesar flujos para usar en sus aplicaciones, aprovechando el marco de agregación.

¿Por qué MongoDB creó Atlas Stream Processing?
El procesamiento de transmisión es un componente cada vez más crítico para crear aplicaciones responsivas basadas en eventos. Al agregar la funcionalidad de procesamiento de transmisión como una capacidad nativa en Atlas, estamos ayudando a más desarrolladores a crear aplicaciones innovadoras aprovechando nuestra plataforma de datos para desarrolladores de multi cloud, MongoDB Atlas.
¿Cómo puedo empezar a emplear Atlas Stream Processing?
Atlas Stream Processing ya está disponible para todos los usuarios de Atlas. Simplemente inicie sesión y haga clic en la pestaña Stream Processing para comenzar.
¿En qué se diferencia el procesamiento de transmisión del procesamiento por lotes?

El procesamiento de flujo ocurre continuamente. En el contexto de la creación de aplicaciones basadas en eventos, el procesamiento de flujos permite experiencias reactivas y convincentes como notificaciones en tiempo real, personalización, planificación de rutas o mantenimiento predictivo.

El procesamiento por lotes no funciona con datos que se producen continuamente. En cambio, el procesamiento por lotes funciona recopilando datos durante un período de tiempo específico y luego procesando esos datos estáticos según sea necesario. Un ejemplo de procesamiento por lotes es un negocio minorista que recopila ventas al cierre del negocio cada día con fines de presentar informes y/o actualiza los niveles de inventario.

¿Hay algún costo asociado con Atlas Stream Processing?
Sí, hay un costo asociado con el uso de Atlas Stream Processing. Puede encontrar detalles en nuestra documentación.
¿Cuál es la diferencia entre una tubería de procesamiento de transmisión y una aggregation pipeline?
Atlas Stream Processing amplía el aggregation pipeline con etapas para el procesamiento continuo de la transmisión de datos. Estas etapas se combinan con las etapas de agregación existentes integradas en el proceso mongod predeterminado, lo que le permite realizar muchas de las mismas operaciones en datos continuos que puede realizar en datos en reposo.
Obtén más información

¿Listo para empezar?

Echa un vistazo a nuestro tutorial para ver cómo puedes crear rápidamente un procesador de flujo para procesar continuamente tus datos hoy mismo.
Ilustración de una pipeline que representa Atlas Stream Processing.