Erstellen Sie aggregation pipeline , um Streaming-Daten kontinuierlich abzufragen, zu analysieren und darauf React , ohne die mit der Stapelverarbeitung verbundenen Verzögerungen.
Führen Sie eine kontinuierliche Schema durch, um vor der Verarbeitung zu überprüfen, ob Ereignisse ordnungsgemäß gebildet werden, Nachrichtenbeschädigungen zu erkennen und verspätete Daten zu erkennen, die ein Verarbeitungsfenster verpasst haben.
Materialisieren Sie kontinuierlich Ansichten in Atlas- collection oder Streaming-Systemen wie Apache Kafka, um aktuelle analytische Ansichten der Daten zu erhalten, die Entscheidungsfindung und Maßnahmen unterstützen.
Nutzen Sie unseren Multi-Cloud-Datenbank-Service, der für Ausfallsicherheit, Skalierung und ein Höchstmaß an Datenschutz und Sicherheit entworfen wurde.
Führen Sie Code bei Datenbankänderungen, Benutzerereignissen oder in voreingestellten Intervallen automatisch aus.
Native Integration von MongoDB Daten in das Kafka-Ökosystem.
Streaming-Daten befinden sich innerhalb von Ereignis-Streaming-Plattformen (wie Apache Kafka) und diese Systeme sind im Wesentlichen ein unveränderlich verteiltes Protokoll. Ereignisdaten werden mithilfe von API von Ereignis-Streaming-Plattformen veröffentlicht und genutzt.
Entwickler benötigen für fortschrittlichere Verarbeitungsvorgänge einen Streaming-Prozessor, z. B. für zustandsorientierte Aggregationen, Window Operations, Mutationen und die Erstellung materialisierter Ansichten. Diese ähneln den Vorgängen, die bei Abfragen in einer Datenbank ausgeführt werden, mit der Ausnahme, dass die Stream-Verarbeitung einen endlosen Datenstrom kontinuierlich abfragt. Dieser Bereich des Streamings ist noch im Entstehen; Technologien wie Apache Flink und Spark Streaming nehmen jedoch rasch Fahrt auf.
Mit Atlas Stream Processing bietet MongoDB Entwicklern eine bessere Möglichkeit, Streams mithilfe des Aggregationsframeworks in ihren Anwendungen zu verarbeiten.
Die Stream-Verarbeitung erfolgt kontinuierlich. Im Zusammenhang mit der Entwicklung ereignisgesteuerter Anwendungen ermöglicht die Stream-Verarbeitung reaktive und überzeugende Abläufe wie Echtzeit-Benachrichtigungen sowie die Personalisierung, Routenplanung oder vorausschauende Wartung.
Die Batch-Verarbeitung ist nicht auf kontinuierlich produzierte Daten anwendbar. Bei der Batch-Verarbeitung werden stattdessen Daten über einen bestimmten Zeitraum erhoben und dann nach Bedarf verarbeitet. Ein Beispiel für die Batch-Verarbeitung ist ein Einzelhandelsunternehmen, das jeden Tag zum Geschäftsschluss Verkäufe zu Berichtszwecken und/oder zur Aktualisierung der Lagerbestände erfasst.