BLOGAtlas Stream Processing prend désormais en charge des régions AWS supplémentaires, l’appairage VPC et bien plus encore ! En savoir plus >

ATLAS

Atlas Stream Processing. Unifiez les données en mouvement et au repos.

Transformez la création d'applications event-driven en traitant continuellement des flux de données avec une expérience de développement familière.
Voir le tutoriel
Image d'explication d'Atlas Stream Processing
Atlas Stream Processing expliqué en 3 minutes
Découvrez comment Atlas Stream Processing allie le modèle documentaire, les schémas flexibles et un framework d'agrégation riche pour optimiser la puissance et la convivialité lorsque vous devez créer des applications qui nécessitent de traiter des données d'événement complexes et évolutives.Regarder la vidéo
Illustration d'un pipeline représentant Atlas Stream Processing

Le stream processing d'aujourd'hui

Lorsque l'on travaille avec des données de streaming, la gestion des schémas constitue un élément essentiel afin d'obtenir des données précises et accroître la productivité des développeurs. Le modèle documentaire et le framework d'agrégation de MongoDB offrent aux développeurs de puissantes fonctionnalités et des gains de productivité inégalés.
Illustration de formes et de graphiques de données dans une boîte verte.

Traitez et gérez toutes vos données sur une seule plateforme

Pour la première fois, les développeurs peuvent utiliser une plateforme unique (API, langage de requête et modèle de données) pour traiter en continu des données de flux parallèlement aux données d’application critiques stockées dans leur base de données.
Illustration d'une base de données, d'une interface et d'un dépôt de données

Entièrement géré dans l'Atlas

Atlas Stream Processing s'appuie sur notre developer data platform, une plateforme robuste et intégrée. Quelques appels d'API et lignes de code suffisent à mettre en place un stream processor, une base de données et une couche de service d’API, le tout entièrement géré sur Atlas.

Atlas Stream Processing

Comment cela unifie l'expérience du travail avec des données en mouvement et des données au repos ?
Diagramme de traitement du flux Atlas Stream Processing

Fonctionnalités
atlas_dataapi

Intégré dans Atlas

Un service Atlas entièrement géré avec flexibilité du document model.

atlas_query_api

Construit sur l’API Query

Utilisez l’API de requête et le framework d’agrégation, une interface familière et puissante, pour gérer le traitement des flux.

atlas_global_deployments

Disponible dans le monde entier

Disponible dans 11 régions AWS aux États-Unis, en Europe et en Asie-Pacifique, avec d’autres fournisseurs et régions à venir prochainement.

general_features_build_faster

Traitement avec état

Créez des fenêtres temporelles et d’autres opérations pour un traitement complexe et multi-événements.

connectors_kafka_connector

Prend en charge Kafka et MongoDB

Connectez-vous facilement à vos principales sources/récepteurs de flux dans Kafka et Atlas, et fusionnez les données en continu.

atlas_keyword_highlighting

Valider en continu

Prise en charge intégrée de la validation pour garantir l’exactitude des données et une gestion intuitive des erreurs. Utilisez les collections Atlas comme file d’attente de lettres mortes (DLQ).

general_action_checkmark

Points de contrôle

En cas de défaillance, les points de contrôle redémarrent automatiquement les processeurs de flux tout en évitant le retraitement inutile des données.

atlas_stream_processing

Développez de manière intéractive

Le traitement des données par flux peut être opaque. Utilisez .process() pour explorer de manière intéractive au fur et à mesure que vous construisez.

INFORMATIONS CONTINUES
« Chez Acoustic, notre objectif principal est de fournir aux marques des informations comportementales qui leur permettent de créer des expériences client attrayantes et personnalisées. Avec Atlas Stream Processing, nos ingénieurs peuvent tirer parti des compétences déjà acquises en travaillant avec des données dans Atlas pour traiter de nouvelles données en continu, garantissant ainsi à nos clients un accès à des informations client en temps réel. »
John Riewerts
Vice-président exécutif de l'ingénierie chez Acoustic
En savoir plus
APPLICATIONS BASÉES SUR LES ÉVÉNEMENTS
« Atlas Stream Processing nous permet de traiter, de valider et de transformer les données avant de les envoyer à notre architecture de messagerie dans AWS, alimentant les mises à jour basées sur les événements de l’ensemble de notre plateforme. La fiabilité et les performances d’Atlas Stream Processing ont permis d’accroître notre productivité, d’améliorer l’expérience des développeurs et de réduire les coûts d’infrastructure. »
Cody Perry
Ingénieur logiciel, Meltwater
Mains tapant sur un ordinateur portable
Applications 'event-driven'
Tracer la voie vers une entreprise réactive et proactive en temps réel.Télécharger le livre blanc

Traitement natif des flux dans MongoDB Atlas

Utilisez Atlas Stream Processing pour traiter et valider facilement des données d'événements complexes, en les fusionnant pour les utiliser exactement là où vous en avez besoin.
Voir la documentation
Requête de flux de données Apache Kafka
Atlas Stream Processing permet d’interroger des données depuis Apache Kafka aussi facilement que d’interroger MongoDB. Il suffit de définir une source, les étapes d’agrégation souhaitées et un récepteur pour traiter rapidement vos flux de données Apache Kafka.
Analyses avancées avec fonctions de fenêtrage
Les opérateurs de fenêtre d’Atlas Stream Processing vous permettent d’analyser et de traiter des fenêtres de données spécifiques et d'une certaine taille au sein d’un flux de données continu. Vous identifiez ainsi plus facilement les modèles et les tendances.
Validation du schéma des événements complexes
La validation continue est essentielle pour s’assurer que les événements sont correctement formés avant le traitement, détecter les messages corrompus et connaître les données arrivées tardivement qui ont manqué une fenêtre de traitement.
Requête de flux de données Apache Kafka
Atlas Stream Processing permet d’interroger des données depuis Apache Kafka aussi facilement que d’interroger MongoDB. Il suffit de définir une source, les étapes d’agrégation souhaitées et un récepteur pour traiter rapidement vos flux de données Apache Kafka.
API de requête MongoDB
Analyses avancées avec fonctions de fenêtrage
Les opérateurs de fenêtre d’Atlas Stream Processing vous permettent d’analyser et de traiter des fenêtres de données spécifiques et d'une certaine taille au sein d’un flux de données continu. Vous identifiez ainsi plus facilement les modèles et les tendances.
API de requête MongoDB
Validation du schéma des événements complexes
La validation continue est essentielle pour s’assurer que les événements sont correctement formés avant le traitement, détecter les messages corrompus et connaître les données arrivées tardivement qui ont manqué une fenêtre de traitement.
API de requête MongoDB
API de requête MongoDB

Tirez le meilleur parti d'Atlas

Offrez plus d'expériences et d'informations basées sur les données grâce au reste de notre Developer Data Platform.
atlas_database

Base de données

Commencez par le service de base de données multi-cloud conçu pour la résilience, l'évolutivité et les plus hauts niveaux de confidentialité et de sécurité des données.

atlas_triggers

Triggers

Exécutez automatiquement du code en réponse à des modifications de la base de données, des événements utilisateur ou des intervalles prédéfinis.

connectors_kafka

Connecteur Kafka

Intégrez nativement les données MongoDB dans l’écosystème Kafka.


FAQ

Vous souhaitez en savoir plus sur le stream processing?
Afficher plus de ressources
Qu'est-ce que le streaming de données ?
Les données de streaming sont continuellement générées à partir d'un large éventail de sources. Les capteurs IoT, les microservices et les appareils mobiles sont tous des sources courantes de flux de données à haut volume. La nature continue des données de streaming et leur immuabilité les distinguent des données statiques au repos dans une base de données.
Qu'est-ce que le stream processing ?
Le stream processing consiste à ingérer et à transformer en continu des données d'événements à partir d'une plateforme d'événements (comme Apache Kafka) afin d'exécuter diverses fonctions. Il peut s'agir de MEAN, de créer des filtres simples pour supprimer les données inutiles, d'effectuer des agrégations pour compter ou additionner les données selon les besoins, de créer Windows, et bien d'autres choses encore. Le stream processing peut être une caractéristique différenciatrice dans les applications event-driven, permettant une expérience client plus réactive et plus sensible.
Quelle est la différence entre l'event streaming et le stream processing ?

Les données streamning sont stockées dans des plateformes d'event streaming (comme Apache Kafka), et ces systèmes sont essentiellement des journaux distribués immuables. Les données d'événements sont publiées et consommées à partir de plateformes d'event streaming à l'aide d'API.

Les développeurs doivent utiliser un stream processor pour effectuer des traitements plus avancés, tels que les agrégations avec état, les opérations sur les fenêtres, les mutations et la création de vues matérialisées. Ces opérations sont similaires à celles effectuées lors de l'exécution de requêtes sur une base de données, sauf que le traitement en continu interroge en permanence un flux infini de données. Ce domaine de la diffusion en continu est plus récent ; cependant, des technologies telles que Apache Flink et Spark Streaming gagnent rapidement du terrain.

Avec Atlas Stream Processing, MongoDB offre aux développeurs un meilleur moyen de traiter les flux à utiliser dans leurs applications, en tirant parti du framework d'agrégation.

Pourquoi MongoDB a conçu Atlas Stream Processing ?
Le stream processing est un élément de plus en plus important pour la création d'applications réactives et axées sur les données. En ajoutant le stream processing en tant que fonctionnalité native dans Atlas, nous aidons davantage de développeurs à créer des applications innovantes en tirant parti de MongoDB Atlas, notre developer data platform multi-cloud.
Comment puis-je commencer à utiliser Atlas Stream Processing ?
Atlas Stream Processing est désormais disponible pour tous les utilisateurs d'Atlas. Il suffit de se connecter et de cliquer sur l'onglet « Stream Processing » pour commencer.
Quelle est la différence entre le stream processing et le batch processing?

Le stream processing est un processus continu. Dans le cadre de la création d'applications axées sur les événements, il offre des fonctionnalités réactives et attrayantes telles que les notifications en temps réel, la personnalisation, la planification du routage et la maintenance prédictive.

Veuillez noter que le batch processing ne fonctionne pas sur les données générées en continu. Il collecte des données sur une période précise, puis traite ces données statiques si besoin. Il peut s'agir par exemple d'une entreprise de vente au détail qui collecte quotidiennement les données relatives aux ventes à la fin de la journée à des fins de reporting et/ou de mise à jour des niveaux de stock.

Quelle est la différence entre un pipeline de traitement de flux et un pipeline d’agrégation ?
Atlas Stream Processing étend le pipeline d’agrégation en y ajoutant des étapes pour le traitement de flux de données continus. Ces étapes se combinent avec les étapes d’agrégation existantes intégrées au processus MongoDB par défaut, vous permettant d’effectuer de nombreuses opérations identiques sur des données continues comme celles que vous pouvez effectuer sur des données au repos.
En savoir plus

Prêt à démarrer

Démarrez gratuitement
Illustration d'un pipeline représentant Atlas Stream Processing