블로그Atlas Stream Processing이 이제 AWS 리전, VPC 피어링 등을 추가로 지원합니다! 자세히 알아보기 >

ATLAS

Atlas Stream Processing. 이동 중인 데이터와 미사용 데이터를 통합합니다.

익숙한 개발자 경험을 통해 데이터 스트림을 지속적으로 처리하여 이벤트 기반 애플리케이션 구축을 혁신합니다.
튜토리얼 살펴보기
Atlas Stream Processing 소개 이미지
Atlas Stream Processing 소개 영상 (3분)
Atlas Stream Processing이 문서 모델, 유연한 스키마 및 풍부한 집계 프레임워크를 결합하여 복잡한 이벤트 데이터를 처리해야 하는 애플리케이션을 구축할 때 강력한 성능과 편의성을 제공하는 방법을 알아보세요.동영상 보기
Atlas Stream Processing을 나타내는 파이프라인 그림.

전에 없던 스트림 처리

스트리밍 데이터로 작업할 때 스키마 관리는 데이터 정확성과 개발자 생산성에 매우 중요합니다. MongoDB의 도큐먼트 모델과 집계 프레임워크는 개발자에게 강력한 기능과 생산성 향상을 제공합니다.
녹색 상자 안에 도형과 데이터 차트가 들어 있는 그림.

하나의 플랫폼에서 모든 데이터 처리 및 관리

개발자는 API, 쿼리 언어 및 데이터 모델 전반에 걸쳐 단일 플랫폼을 사용하여 데이터베이스에 저장된 중요한 애플리케이션 데이터와 함께 스트리밍 데이터를 지속적으로 처리할 수 있습니다.
데이터베이스, 인터페이스 및 데이터 버킷의 그림.

Atlas 기반 완전 관리형

Atlas Stream Processing은 강력하고 통합된 개발자 데이터 플랫폼을 기반으로 합니다. 개발자는 몇 번의 API 호출과 코드 몇 줄만으로 스트림 프로세서, 데이터베이스 및 API 서비스 계층을 구축할 수 있으며, 이 모든 기능은 Atlas에서 완전 관리형으로 제공됩니다.

Atlas Stream Processing

이동 중인 데이터와 미사용 데이터로 작업하는 환경을 어떻게 통합합니까?
Atlas Stream Processing 다이어그램

기능
atlas_dataapi

Atlas에 통합

문서 모델 유연성을 갖춘 완전 관리형 Atlas 서비스입니다.

atlas_query_api

Query API 기반 구축

친숙하고 강력한 인터페이스인 Query API 및 집계 프레임워크를 사용하여 스트림 처리를 처리합니다.

atlas_global_deployments

글로벌 지원

미국, 유럽, 아시아 태평양 지역의 11개 AWS 지역에서 사용 가능하며, 곧 더 많은 제공업체와 지역이 추가될 예정입니다.

general_features_build_faster

상태 저장 처리

복잡한 다중 이벤트 처리를 위한 시간 기반 창 및 기타 작업을 생성합니다.

connectors_kafka_connector

Kafka와 MongoDB 지원

Kafka 및 Atlas에서 주요 스트리밍 소스/싱크에 쉽게 연결하고 데이터를 지속적으로 병합할 수 있습니다.

atlas_keyword_highlighting

지속적인 검증

데이터 정확성과 직관적인 오류 처리를 보장하기 위한 검증 지원이 내장되어 있습니다. Atlas 컬렉션을 데드 레터 큐(DLQ)로 사용하세요.

general_action_checkmark

체크포인트

장애 발생 시 체크포인트는 불필요한 데이터 재처리를 피하면서 스트림 프로세서를 자동으로 재시작합니다.

atlas_stream_processing

대화형 개발

스트리밍 데이터 처리는 불투명할 수 있습니다. .process () 를 사용하여 빌드하면서 반복적으로 탐색할 수 있습니다.

지속적인 인사이트
"Acoustic의 주요 목표는 브랜드가 매력적인 개인 맞춤형 고객 경험을 창출할 수 있도록 각 브랜드에게 행동 인사이트를 제공하는 것입니다. Acoustic 엔지니어들은 Atlas 데이터 작업을 하면서 체득한 기술을 Atlas Stream Processing으로 활용하여 새로운 데이터를 끊임없이 처리함으로써 고객이 고객 인사이트를 실시간으로 얻을 수 있도록 지원합니다."
John Riewerts
Acoustic 엔지니어링 담당 부사장
자세히 알아보세요.
이벤트 중심 앱
"Atlas Stream Processing을 사용하면 데이터를 처리하고 검증하여 변환한 후, AWS의 메시지 송수신 아키텍처로 전송하여 플랫폼 전반에 걸친 이벤트 중심 업데이트를 실행시킬 수 있습니다. Atlas Stream Processing의 신뢰성과 성능 덕분에 생산성이 높아지고 개발자 경험이 향상되었으며 인프라 비용이 절감되었습니다."
Cody Perry
Meltwater 소프트웨어 엔지니어
노트북에 타이핑하는 손
이벤트 중심 애플리케이션
반응형 실시간 비즈니스를 실현하는 방법.백서 다운로드

MongoDB Atlas의 네이티브 스트림 처리

Atlas Stream Processing을 사용하여 복잡한 이벤트 데이터를 쉽게 처리하고 검증하여 필요한 곳에 정확하게 사용할 수 있도록 병합할 수 있습니다.
문서 보기
Apache Kafka 데이터 스트림 쿼리하기
Atlas Stream Processing을 사용하면 Apache Kafka에서 데이터를 쿼리하는 것이 MongoDB를 쿼리하는 것만큼이나 쉬워집니다. 소스, 원하는 집계 단계, 싱크만 정의하면 Apache Kafka 데이터 스트림을 빠르게 처리할 수 있습니다.
윈도우 기능을 통한 고급 분석
Atlas Stream Processing의 창 연산자를 사용하면 연속 데이터 스트림 내에서 특정 크기의 고정된 데이터 창을 분석하고 처리할 수 있으므로 패턴과 추세를 쉽게 발견할 수 있습니다.
복잡한 이벤트의 스키마 유효성 검사
처리 전에 이벤트가 제대로 구성되었는지 확인하고, 메시지 손상을 감지하고, 늦게 도착하는 데이터가 처리 기간을 놓쳤는지 여부를 감지하려면 지속적인 유효성 검사가 필수적입니다.
Apache Kafka 데이터 스트림 쿼리하기
Atlas Stream Processing을 사용하면 Apache Kafka에서 데이터를 쿼리하는 것이 MongoDB를 쿼리하는 것만큼이나 쉬워집니다. 소스, 원하는 집계 단계, 싱크만 정의하면 Apache Kafka 데이터 스트림을 빠르게 처리할 수 있습니다.
MongoDB Query API
윈도우 기능을 통한 고급 분석
Atlas Stream Processing의 창 연산자를 사용하면 연속 데이터 스트림 내에서 특정 크기의 고정된 데이터 창을 분석하고 처리할 수 있으므로 패턴과 추세를 쉽게 발견할 수 있습니다.
MongoDB Query API
복잡한 이벤트의 스키마 유효성 검사
처리 전에 이벤트가 제대로 구성되었는지 확인하고, 메시지 손상을 감지하고, 늦게 도착하는 데이터가 처리 기간을 놓쳤는지 여부를 감지하려면 지속적인 유효성 검사가 필수적입니다.
MongoDB Query API
MongoDB Query API

Atlas 활용 극대화

개발자 데이터 플랫폼을 구성하는 나머지 도구를 사용해 데이터 중심 경험과 인사이트를 강화합니다.
atlas_database

데이터베이스

탄력성과 확장성, 그리고 가장 강력한 데이터 개인정보보호와 보안을 고려해 개발된 멀티 클라우드 데이터베이스 서비스를 시작해보세요.

atlas_triggers

트리거

데이터베이스 변경, 사용자 이벤트, 사전 설정 주기에 따라 함수를 자동으로 실행합니다.

connectors_kafka

Kafka Connector

Kafka 에코시스템 내에서 MongoDB 데이터를 자연스럽게 통합하세요.


FAQ

스트림 처리에 대해 자세히 알고 싶으십니까?
리소스 더 보기
스트리밍 데이터란 무엇입니까?
스트리밍 데이터는 다양한 소스에서 지속적으로 생성됩니다. IoT 센서, 마이크로서비스, 모바일 디바이스는 모두 대용량 데이터 스트림의 일반적인 소스입니다. 스트리밍 데이터의 연속적인 특성과 불변성으로 인해 데이터베이스에 저장된 정적 데이터와 구별됩니다.
스트림 처리란 무엇입니까?
스트림 처리는 이벤트 메시징 플랫폼(예: Apache Kafka)에서 이벤트 데이터를 지속적으로 수집하고 변환하여 다양한 기능을 수행합니다. 여기에는 불필요한 데이터를 제거하는 간단한 필터를 만들고, 필요에 따라 데이터를 계산하거나 합산하는 집계를 수행하고, 스테이트풀 윈도우를 만드는 것이 포함됩니다.스트림 처리는 이벤트 기반 애플리케이션에서 차별화된 특성이 될 수 있으며, 이를 통해 보다 반응적이고 응답성이 뛰어난 고객 경험을 제공할 수 있습니다.
이벤트 스트리밍은 스트림 처리와 어떻게 다른가요?

스트리밍 데이터는 이벤트 스트리밍 플랫폼(예: Apache Kafka) 내부에 있으며 이러한 시스템은 본질적으로 변경할 수 없는 분산 로그입니다. 이벤트 데이터는 API를 사용하여 이벤트 스트리밍 플랫폼에서 게시되고 사용됩니다.

개발자는 스트림 프로세서를 사용하여 상태 저장 집계, 창 작업, 변형 및 구체화된 뷰 만들기와 같은 고급 처리를 수행해야 합니다. 이는 데이터베이스에서 쿼리를 실행할 때 수행하는 작업과 유사하지만 스트림 처리가 끝없는 데이터 스트림을 지속적으로 쿼리한다는 점이 다릅니다. 이 스트리밍 영역은 더 초기 단계입니다. 그러나 Apache Flink 및 Spark Streaming과 같은 기술이 빠르게 주목을 받고 있습니다.

Atlas Stream Processing을 통해 MongoDB는 개발자에게 집계 프레임워크를 활용하여 애플리케이션에서 사용할 스트림을 처리하는 더 나은 방법을 제공합니다.

MongoDB가 Atlas Stream Processing을 구축한 이유는 무엇입니까?
스트림 처리는 응답성이 뛰어난 이벤트 기반 애플리케이션을 빌드하는 데 있어서 핵심적인 구성 요소입니다. Atlas에 스트림 처리 기능을 기본 기능으로 추가함으로써 더 많은 개발자가 멀티 클라우드 개발자 데이터 플랫폼인 MongoDB Atlas를 활용하여 혁신적인 애플리케이션을 구축할 수 있도록 지원할 수 있습니다.
Atlas Stream Processing을 시작하려면 어떻게 해야 하나요?
이제 모든 Atlas 사용자가 Atlas Stream Processing을 사용할 수 있습니다. 로그인하고 Stream Processing 탭을 클릭하기만 하면 됩니다.
스트림 처리는 배치 처리와 어떻게 다른가요?

스트림 처리는 지속적으로 이루어집니다. 이벤트 기반 애플리케이션을 구축할 때 스트림 처리는 실시간 알림, 개인화, 경로 계획 또는 예측 유지 관리와 같은 매력적인 반응형 경험을 가능하게 합니다.

일괄 처리는 지속적으로 생성되는 데이터에는 작동하지 않습니다. 대신 일괄 처리는 지정된 기간 동안 데이터를 수집한 다음 필요에 따라 해당 정적 데이터를 처리하는 방식으로 작동합니다. 일괄 처리의 예로는 보고 목적 및/또는 재고 수준 업데이트를 위해 매일 영업이 종료될 때 매출을 수집하는 소매업을 들 수 있습니다.

스트림 처리 파이프라인과 집계 파이프라인의 차이점은 무엇인가요?
Atlas Stream Processing은 연속적인 데이터 스트림을 처리하기 위한 단계를 추가하여 집계 파이프라인을 확장합니다. 이러한 단계는 기본 mongod 프로세스에 내장된 기존 집계 단계와 결합되어, 정지 상태의 데이터에서 수행할 수 있는 것과 동일한 작업을 연속 데이터에 대해서도 수행할 수 있습니다.
자세히 알아보세요.

시작할 준비가 되셨나요?

시작하기
Atlas Stream Processing을 나타내는 파이프라인 그림.