Docs Menu
Docs Home
/
Spark 커넥터

Spark 구성

이 페이지의 내용

  • 개요
  • 구성 지정

배치 모드와 스트리밍 모드 모두에서 읽기 및 쓰기 작업을 구성할 수 있습니다. 사용 가능한 구성 옵션에 대해 자세히 알아보려면 다음 페이지를 참조하세요:

  • 일괄 읽기 구성 옵션

  • 배치(Batch) 쓰기 구성 옵션

  • 스트리밍 읽기 구성 옵션

  • 스트리밍 쓰기 구성 옵션

다음 메서드 중 하나를 사용하여 SparkConf 로 구성 옵션을 지정할 수 있습니다:

  • 애플리케이션 의 SparkConf 생성자입니다. 학습내용은 Java SparkConf 문서를 참조하세요.

  • 애플리케이션 의 SparkConf 생성자입니다. Scala 학습내용은 SparkConf 문서를 참조하세요.

  • 런타임의 --conf 플래그입니다. 자세한 내용은 Spark 문서에서 동적으로 Spark 속성 로딩을 참조하세요.

  • $SPARK_HOME/conf/spark-default.conf 파일입니다.

MongoDB Spark Connector는 SparkConf의 설정을 기본값으로 사용합니다.

Spark API에서 DataFrameReader, DataFrameWriter, DataStreamReaderDataStreamWriter 클래스는 각각 option() 메서드를 포함합니다. 이 메서드를 사용하여 기본 읽기 또는 쓰기 작업에 대한 옵션을 지정할 수 있습니다.

참고

이러한 방식으로 지정된 옵션은 SparkConf 의 해당 설정을 재정의합니다.

옵션 맵은 짧은 형식의 구문을 지원합니다. 옵션 키 문자열을 지정할 때 접두사를 생략할 수 있습니다.

예시

다음 구문은 서로 동등한 구문입니다:

  • dfw.option("spark.mongodb.write.collection", "myCollection").save()

  • dfw.option("spark.mongodb.collection", "myCollection").save()

  • dfw.option("collection", "myCollection").save()

option() 메서드에 대해 자세히 알아보려면 다음 Spark 문서 페이지를 참조하세요:

Spark Connector는 SparkConf가 사용 가능해지기 전에 일부 구성 설정을 읽습니다. JVM 시스템 속성을 사용하여 이러한 설정을 지정해야 합니다.

Java 시스템 속성에 대한 자세한 내용은 Java 설명서를 참조하세요.

구성 예외

Spark Connector에서 ConfigException이 발생하면, SparkConf 는 옵션 맵이 올바른 구문을 사용하고 유효한 구성 옵션만 포함하고 있는지 확인해야 합니다.

돌아가기

Spark Connector 시작하기

이 페이지의 내용