BLOGAtlas Stream Processing unterstützt jetzt zusätzliche AWS-Regionen, VPC-Peering und mehr! Mehr erfahren >

ATLAS

Atlas Stream Processing. Vereinheitlichen Sie Daten bei der Übertragung und Speicherung.

Verwandeln Sie die Entwicklung ereignisgesteuerter Anwendungen durch die kontinuierliche Verarbeitung von Stream mit einer vertrauten Entwicklererfahrung.
Tutorial erkunden
Bild zur Erläuterung von Atlas Stream Processing
Atlas Stream Processing in 3 Minuten erklärt
Erfahren Sie, wie Atlas Stream Processing das Dokumentmodell, flexible Schemata und das umfangreiche Aggregationsframework kombiniert, um mit Leistung und Komfort beim Entwickeln von Anwendungen zu punkten, für die zum Zwecke der Skalierung komplexe Ereignisdaten verarbeitet werden müssen.Video ansehen
Abbildung einer Pipeline mit den Abläufen von Atlas Stream Processing.

Stream-Verarbeitung wie nie zuvor

Bei der Arbeit mit Streaming-Daten ist das Schema-Management von entscheidender Bedeutung für die Datenkorrektheit und Entwicklerproduktivität. Das Dokumentmodell und das Aggregationsframework von MongoDB bieten Entwicklern leistungsstarke Funktionen und Produktivitätssteigerungen, die Sie bei keiner anderen Stream-Verarbeitung finden.
Abbildung von Formen und Datendiagrammen, die in ein grünes Feld eingefügt werden.

Verarbeiten und verwalten Sie alle Ihre Daten auf einer Plattform

Zum ersten Mal können Entwickler eine Plattform – über API, Abfragesprache und Datenmodell hinweg – nutzen, um kontinuierlich Streaming-Daten zusammen mit den in ihrer Datenbank gespeicherten kritischen Anwendungsdaten zu verarbeiten.
Abbildung einer Datenbank, einer Schnittstelle und eines Daten-Buckets.

vollständig verwaltet in Atlas

Atlas Stream Processing basiert auf unserer robusten und integrierten Entwicklerdatenplattform. Mit nur wenigen API-Aufrufen und Codezeilen kann ein Entwickler einen Stream-Prozessor, eine Datenbank und eine API-Serviceschicht errichten – mit vollständiger Verwaltung durch Atlas.

Atlas Stream Processing

Wie vereinheitlicht es die Erfahrung der Arbeit mit Daten in Bewegung und Daten im Ruhezustand?
Atlas Stream Processing – Diagramm

Funktionen
atlas_dataapi

Integriert in Atlas

Ein vollständig verwalteter Atlas-Dienst mit flexibler Dokumentmodellierung.

atlas_query_api

Auf der Query API aufgebaut

Verwenden Sie die Query API und das Aggregationsframework – eine vertraute und leistungsstarke Schnittstelle – zur Handhabung der Stream-Verarbeitung.

atlas_global_deployments

Global verfügbar

Verfügbar in 11 AWS-Regionen in den USA, Europa und APAC, weitere Anbieter und Regionen folgen in Kürze.

general_features_build_faster

Zustandsbehaftete Verarbeitung

Erstellen Sie zeitbasierte Fenster und andere Vorgänge für die komplexe Verarbeitung mehrerer Ereignisse.

connectors_kafka_connector

Unterstützt Kafka und MongoDB

Stellen Sie einfach eine Verbindung zu Ihren wichtigsten Streaming-Quellen/-Senken in Kafka und Atlas her und führen Sie Daten kontinuierlich zusammen.

atlas_keyword_highlighting

Kontinuierliche Validierung

Integrierte Unterstützung für die Validierung, um die Datenkorrektheit und intuitive Fehlerbehandlung sicherzustellen. Verwenden Sie Atlas-Sammlungen als Dead Letter Queue (DLQ).

general_action_checkmark

Checkpointing

Im Falle eines Fehlers starten Checkpoints die Stream-Prozessoren automatisch neu und vermeiden unnötige Datenneuverarbeitung.

atlas_stream_processing

Interaktiv entwickeln

Die Verarbeitung von Streaming-Daten kann undurchsichtig sein. Verwenden Sie .process(), um während der Erstellung iterativ zu untersuchen.

KONTINUIERLICHE INSIGHTS
„Bei Acoustic liegt unser Hauptaugenmerk darauf, Marken mit Behavioral Insights zu versorgen, die es ihnen ermöglichen, ansprechende, personalisierte Kundenerfahrungen zu schaffen. Mit Atlas Stream Processing können unsere Entwickler die Funktionen, die sie bereits aus der Arbeit mit Daten in Atlas kennen, dazu nutzen, neue Daten kontinuierlich zu verarbeiten und so sicherzustellen, dass unsere Kunden Zugang zu Kundeneinblicken in Echtzeit haben.“
John Riewerts
EVP of Engineering, Acoustic
Weiterlesen
EREIGNISGESTEUERTE APPS
„Atlas Stream Processing ermöglicht es uns, Daten zu verarbeiten, zu validieren und zu transformieren, bevor wir sie an unsere Messaging-Architektur in AWS senden, wodurch ereignisgesteuerte Updates auf unserer gesamten Plattform ermöglicht werden. Die Zuverlässigkeit und Leistung von Atlas Stream Processing haben unsere Produktivität gesteigert, die Entwicklererfahrung verbessert und die Infrastrukturkosten gesenkt.“
Cody Perry
Softwareentwickler, Meltwater
Hände tippen auf dem Laptop.
Ereignisgesteuerte Anwendungen
Wir ebnen den Weg zu einem reaktionsfähigen und reaktiven Echtzeitgeschäft.Whitepaper herunterladen

Native Stream-Verarbeitung in MongoDB Atlas

Verwenden Sie Atlas Stream Processing, um komplexe Ereignisdaten einfach zu verarbeiten und zu validieren und sie für den Einsatz genau dort zusammenzuführen, wo Sie sie benötigen.
Dokumentation anzeigen
Abfragen von Apache Kafka Datenstreams
Atlas Stream Processing macht das Abfragen von Daten von Apache Kafka so einfach wie das Abfragen von MongoDB. Einfach eine Quelle, die gewünschten Aggregationsstufen und eine Senke definieren, um Ihre Apache-Kafka-Datenstreams schnell zu verarbeiten.
Erweiterte Analysen mit Window Functions
Mit den Window Operators in Atlas Stream Processing können Sie bestimmte Fenster fester Größe innerhalb eines kontinuierlichen Datenstroms analysieren und verarbeiten, wodurch sich Muster und Trends leicht erkennen lassen.
Schema-Validierung komplexer Ereignisse
Eine kontinuierliche Validierung ist unerlässlich, um sicherzustellen, dass Ereignisse vor der Verarbeitung die richtige Form haben, um Nachrichtenbeschädigungen zu erkennen und festzustellen, ob verspätet eintreffende Daten ein Verarbeitungsfenster verpasst haben.
Abfragen von Apache Kafka Datenstreams
Atlas Stream Processing macht das Abfragen von Daten von Apache Kafka so einfach wie das Abfragen von MongoDB. Einfach eine Quelle, die gewünschten Aggregationsstufen und eine Senke definieren, um Ihre Apache-Kafka-Datenstreams schnell zu verarbeiten.
MongoDB Query API
Erweiterte Analysen mit Window Functions
Mit den Window Operators in Atlas Stream Processing können Sie bestimmte Fenster fester Größe innerhalb eines kontinuierlichen Datenstroms analysieren und verarbeiten, wodurch sich Muster und Trends leicht erkennen lassen.
MongoDB Query API
Schema-Validierung komplexer Ereignisse
Eine kontinuierliche Validierung ist unerlässlich, um sicherzustellen, dass Ereignisse vor der Verarbeitung die richtige Form haben, um Nachrichtenbeschädigungen zu erkennen und festzustellen, ob verspätet eintreffende Daten ein Verarbeitungsfenster verpasst haben.
MongoDB Query API
MongoDB Query API

Atlas optimal nutzen

Mit den weiteren Komponenten unserer Entwicklerdatenplattform erhalten Sie noch mehr datengestützte Erlebnisse und Erkenntnisse.
atlas_database

Datenbank

Nutzen Sie unseren Multi-Cloud-Datenbank-Service, der für Ausfallsicherheit, Skalierung und ein Höchstmaß an Datenschutz und Sicherheit entworfen wurde.

atlas_triggers

Auslöser

Führen Sie Code bei Datenbankänderungen, Benutzerereignissen oder in voreingestellten Intervallen automatisch aus.

connectors_kafka

Kafka Connector

Native Integration von MongoDB Daten in das Kafka-Ökosystem.


Häufige Fragen

Möchten Sie mehr über die Stream-Verarbeitung erfahren?
Weitere Ressourcen anzeigen
Was sind Streaming-Daten?
Streaming-Daten werden kontinuierlich aus unterschiedlichsten Quellen generiert. IoT-Sensoren, Microservices und mobile Geräte sind allesamt gängige Quellen für große Datenströme. Da Streaming-Daten kontinuierlich eingehen und unveränderlich sind, unterscheiden sie sich von statischen, ruhenden Daten einer Datenbank.
Was ist Stream-Verarbeitung?
Bei der Stream-Verarbeitung werden kontinuierlich Ereignisdaten von einer Ereignis-Messaging-Plattform (wie Apache Kafka) erfasst und umgewandelt, um verschiedene Funktionen auszuführen. Dies könnte MEAN einfache Filter zu erstellen, um nicht benötigte Daten zu entfernen, Aggregationen durchzuführen, um Daten nach Bedarf zu zählen oder zu summieren, zustandsbehaftete Windows zu erstellen und vieles mehr. Die Stream-Verarbeitung kann ein Unterscheidungsmerkmal in ereignisgesteuerten Anwendungen sein und eine reaktivere, reaktionsfähigere Kundenerfahrung ermöglichen.
Wie unterscheidet sich Event-Streaming von der Stream-Verarbeitung?

Streaming-Daten befinden sich innerhalb von Ereignis-Streaming-Plattformen (wie Apache Kafka) und diese Systeme sind im Wesentlichen ein unveränderlich verteiltes Protokoll. Ereignisdaten werden mithilfe von API von Ereignis-Streaming-Plattformen veröffentlicht und genutzt.

Entwickler benötigen für fortschrittlichere Verarbeitungsvorgänge einen Streaming-Prozessor, z. B. für zustandsorientierte Aggregationen, Window Operations, Mutationen und die Erstellung materialisierter Ansichten. Diese ähneln den Vorgängen, die bei Abfragen in einer Datenbank ausgeführt werden, mit der Ausnahme, dass die Stream-Verarbeitung einen endlosen Datenstrom kontinuierlich abfragt. Dieser Bereich des Streamings ist noch im Entstehen; Technologien wie Apache Flink und Spark Streaming nehmen jedoch rasch Fahrt auf.

Mit Atlas Stream Processing bietet MongoDB Entwicklern eine bessere Möglichkeit, Streams mithilfe des Aggregationsframeworks in ihren Anwendungen zu verarbeiten.

Warum hat MongoDB Atlas Stream Processing entwickelt?
Für reaktionsfähige, ereignisgesteuerte Anwendungen wird die Stream-Verarbeitung immer wichtiger. Durch Hinzufügen der Stream-Verarbeitung als native Funktion in Atlas können Entwickler noch innovativere Anwendungen entwickeln und dabei unsere Multi-Cloud Entwicklerdatenplattform MongoDB Atlas nutzen.
Wie finde ich den Einstieg in Atlas Stream Processing?
Atlas Stream Processing ist jetzt für alle Atlas Benutzer verfügbar. Melden Sie sich einfach an und klicken Sie auf die Registerkarte Stream Processing, um loszulegen.
Wie unterscheidet sich die Stream-Verarbeitung von der Batch-Verarbeitung?

Die Stream-Verarbeitung erfolgt kontinuierlich. Im Zusammenhang mit der Entwicklung ereignisgesteuerter Anwendungen ermöglicht die Stream-Verarbeitung reaktive und überzeugende Abläufe wie Echtzeit-Benachrichtigungen sowie die Personalisierung, Routenplanung oder vorausschauende Wartung.

Die Batch-Verarbeitung ist nicht auf kontinuierlich produzierte Daten anwendbar. Bei der Batch-Verarbeitung werden stattdessen Daten über einen bestimmten Zeitraum erhoben und dann nach Bedarf verarbeitet. Ein Beispiel für die Batch-Verarbeitung ist ein Einzelhandelsunternehmen, das jeden Tag zum Geschäftsschluss Verkäufe zu Berichtszwecken und/oder zur Aktualisierung der Lagerbestände erfasst.

Was ist der Unterschied zwischen einer Stream-Verarbeitungspipeline und einer Aggregationspipeline?
Atlas Stream Processing erweitert die Aggregationspipeline um Phasen zur Verarbeitung kontinuierlicher Datenströme. Diese Phasen werden mit vorhandenen, in den Standardprozess von MongoDB integrierten Aggregationsphasen kombiniert. Dadurch können Sie viele der gleichen Vorgänge mit kontinuierlichen Daten durchführen, die Sie auch mit Daten bei der Speicherung durchführen können.
Weiterlesen

Sind Sie bereit loszulegen?

Zur Anmeldung
Abbildung einer Pipeline mit den Abläufen von Atlas Stream Processing.