커넥터
MongoDB Connector for Apache Spark
업계의 독보적인 데이터 처리 엔진인 Apache Spark와 업계에서 가장 빠르게 성장하는 데이터베이스인 MongoDB를 결합하여 새로운 차원의 정교한 실시간 분석을 구축하세요. MongoDB Connector for Apache Spark는 현재 일반적으로 사용 가능하며 인증을 받았고 프로덕션용으로 지원되고 있습니다.
지금 인사이트 활용하기
우리는 '빅 데이터'의 세계에 살고 있습니다. 하지만 데이터 자체만 가치 있는 것이 아니라 데이터에서 얻을 수 있는 인사이트도 중요합니다. 조직이 이러한 인사이트를 얼마나 빨리 확보하고 이를 바탕으로 조치를 취할 수 있는지가 경쟁 우위를 결정짓습니다. 운영 시스템에서 데이터를 수집한 다음 야간 일괄 추출, 변환, 로드(ETL) 프로세스에 의존하여 엔터프라이즈 데이터 웨어하우스(EDW)를 업데이트하는 것만으로는 더 이상 충분하지 않습니다.
Apache Spark의 강력한 기능 활용
MongoDB Connector for Apache Spark는 Scala, Java, Python 및 R을 포함한 Spark의 모든 라이브러리를 표시합니다. MongoDB 데이터는 머신 러닝, 그래프, 스트리밍 및 SQL API를 통한 분석이 가능하도록 데이터 프레임(DataFrames) 및 데이터 세트(Datasets) 형태로 구체화됩니다.
MongoDB의 힘을 활용하세요
MongoDB Connector for Apache Spark는 MongoDB의 집계 파이프라인과 풍부한 보조 인덱스를 활용해 필요한 데이터만 추출, 필터링 및 처리할 수 있습니다. 예를 들어 특정 지역에 위치한 모든 고객을 분석할 수 있습니다. 기존 NoSQL 데이터 저장소는 보조 인덱스나 데이터베이스 내 집계를 제공하지 않습니다. 이러한 경우 Spark 프로세스에 해당 데이터의 하위 집합만 필요한 경우에도 Spark는 단순한 기본 키를 기반으로 모든 데이터를 추출해야 합니다. MongoDB Connector for Apache Spark는 탄력적 분산 데이터 세트(RDD)를 소스 MongoDB 노드와 함께 배치하여 클러스터 전반에서 데이터 이동을 최소화하고 지연 시간을 줄입니다.오늘날의 데이터 사이언스 팀을 위한 작업을 수행하는 MongoDB와 Apache Spark
MongoDB는 기본적으로 풍부한 실시간 분석 기능을 제공하지만 Apache Spark 엔진을 통합하면 MongoDB에서 관리하는 운영 데이터 처리를 확장할 수 있는 사용 사례가 있습니다. 이를 통해 사용자는 MongoDB가 지원하는 실시간 비즈니스 프로세스 내에서 Spark에서 생성된 결과를 운영할 수 있습니다.