Ein vollständig verwalteter Atlas-Dienst mit flexibler Dokumentmodellierung.
Verwenden Sie die Query API und das Aggregationsframework – eine vertraute und leistungsstarke Schnittstelle – zur Handhabung der Stream-Verarbeitung.
Verfügbar in 11 AWS-Regionen in den USA, Europa und APAC, weitere Anbieter und Regionen folgen in Kürze.
Erstellen Sie zeitbasierte Fenster und andere Vorgänge für die komplexe Verarbeitung mehrerer Ereignisse.
Stellen Sie einfach eine Verbindung zu Ihren wichtigsten Streaming-Quellen/-Senken in Kafka und Atlas her und führen Sie Daten kontinuierlich zusammen.
Integrierte Unterstützung für die Validierung, um die Datenkorrektheit und intuitive Fehlerbehandlung sicherzustellen. Verwenden Sie Atlas-Sammlungen als Dead Letter Queue (DLQ).
Im Falle eines Fehlers starten Checkpoints die Stream-Prozessoren automatisch neu und vermeiden unnötige Datenneuverarbeitung.
Die Verarbeitung von Streaming-Daten kann undurchsichtig sein. Verwenden Sie .process(), um während der Erstellung iterativ zu untersuchen.
Nutzen Sie unseren Multi-Cloud-Datenbank-Service, der für Ausfallsicherheit, Skalierung und ein Höchstmaß an Datenschutz und Sicherheit entworfen wurde.
Führen Sie Code bei Datenbankänderungen, Benutzerereignissen oder in voreingestellten Intervallen automatisch aus.
Native Integration von MongoDB Daten in das Kafka-Ökosystem.
Streaming-Daten befinden sich innerhalb von Ereignis-Streaming-Plattformen (wie Apache Kafka) und diese Systeme sind im Wesentlichen ein unveränderlich verteiltes Protokoll. Ereignisdaten werden mithilfe von API von Ereignis-Streaming-Plattformen veröffentlicht und genutzt.
Entwickler benötigen für fortschrittlichere Verarbeitungsvorgänge einen Streaming-Prozessor, z. B. für zustandsorientierte Aggregationen, Window Operations, Mutationen und die Erstellung materialisierter Ansichten. Diese ähneln den Vorgängen, die bei Abfragen in einer Datenbank ausgeführt werden, mit der Ausnahme, dass die Stream-Verarbeitung einen endlosen Datenstrom kontinuierlich abfragt. Dieser Bereich des Streamings ist noch im Entstehen; Technologien wie Apache Flink und Spark Streaming nehmen jedoch rasch Fahrt auf.
Mit Atlas Stream Processing bietet MongoDB Entwicklern eine bessere Möglichkeit, Streams mithilfe des Aggregationsframeworks in ihren Anwendungen zu verarbeiten.
Die Stream-Verarbeitung erfolgt kontinuierlich. Im Zusammenhang mit der Entwicklung ereignisgesteuerter Anwendungen ermöglicht die Stream-Verarbeitung reaktive und überzeugende Abläufe wie Echtzeit-Benachrichtigungen sowie die Personalisierung, Routenplanung oder vorausschauende Wartung.
Die Batch-Verarbeitung ist nicht auf kontinuierlich produzierte Daten anwendbar. Bei der Batch-Verarbeitung werden stattdessen Daten über einen bestimmten Zeitraum erhoben und dann nach Bedarf verarbeitet. Ein Beispiel für die Batch-Verarbeitung ist ein Einzelhandelsunternehmen, das jeden Tag zum Geschäftsschluss Verkäufe zu Berichtszwecken und/oder zur Aktualisierung der Lagerbestände erfasst.