Un service Atlas entièrement géré avec flexibilité du document model.
Utilisez l’API de requête et le framework d’agrégation, une interface familière et puissante, pour gérer le traitement des flux.
Disponible dans 11 régions AWS aux États-Unis, en Europe et en Asie-Pacifique, avec d’autres fournisseurs et régions à venir prochainement.
Créez des fenêtres temporelles et d’autres opérations pour un traitement complexe et multi-événements.
Connectez-vous facilement à vos principales sources/récepteurs de flux dans Kafka et Atlas, et fusionnez les données en continu.
Prise en charge intégrée de la validation pour garantir l’exactitude des données et une gestion intuitive des erreurs. Utilisez les collections Atlas comme file d’attente de lettres mortes (DLQ).
En cas de défaillance, les points de contrôle redémarrent automatiquement les processeurs de flux tout en évitant le retraitement inutile des données.
Le traitement des données par flux peut être opaque. Utilisez .process() pour explorer de manière intéractive au fur et à mesure que vous construisez.
Commencez par le service de base de données multi-cloud conçu pour la résilience, l'évolutivité et les plus hauts niveaux de confidentialité et de sécurité des données.
Exécutez automatiquement du code en réponse à des modifications de la base de données, des événements utilisateur ou des intervalles prédéfinis.
Intégrez nativement les données MongoDB dans l’écosystème Kafka.
Les données streamning sont stockées dans des plateformes d'event streaming (comme Apache Kafka), et ces systèmes sont essentiellement des journaux distribués immuables. Les données d'événements sont publiées et consommées à partir de plateformes d'event streaming à l'aide d'API.
Les développeurs doivent utiliser un stream processor pour effectuer des traitements plus avancés, tels que les agrégations avec état, les opérations sur les fenêtres, les mutations et la création de vues matérialisées. Ces opérations sont similaires à celles effectuées lors de l'exécution de requêtes sur une base de données, sauf que le traitement en continu interroge en permanence un flux infini de données. Ce domaine de la diffusion en continu est plus récent ; cependant, des technologies telles que Apache Flink et Spark Streaming gagnent rapidement du terrain.
Avec Atlas Stream Processing, MongoDB offre aux développeurs un meilleur moyen de traiter les flux à utiliser dans leurs applications, en tirant parti du framework d'agrégation.
Le stream processing est un processus continu. Dans le cadre de la création d'applications axées sur les événements, il offre des fonctionnalités réactives et attrayantes telles que les notifications en temps réel, la personnalisation, la planification du routage et la maintenance prédictive.
Veuillez noter que le batch processing ne fonctionne pas sur les données générées en continu. Il collecte des données sur une période précise, puis traite ces données statiques si besoin. Il peut s'agir par exemple d'une entreprise de vente au détail qui collecte quotidiennement les données relatives aux ventes à la fin de la journée à des fins de reporting et/ou de mise à jour des niveaux de stock.