Menu Docs
Página inicial do Docs
/
Conector do Spark

Configuração do Spark

Nesta página

  • Visão geral
  • Especificar configuração

Você pode configurar operações de leitura e gravação em modo lote e streaming. Para saber mais sobre as opções de configuração disponíveis, consulte as seguintes páginas:

  • Opções de configuração de leitura em lote

  • Opções de configuração de gravação em lote

  • Opções de configuração de leitura de streaming

  • Opções de configuração de gravação de streaming

Você pode especificar opções de configuração com SparkConf utilizando qualquer uma das seguintes abordagens:

  • O construtor do SparkConf em seu aplicação. Para saber mais, consulte a documentação do Java SparkConf.

O conector Spark MongoDB utilizará as configurações em SparkConf como padrões.

Na API Spark, as classes DataFrameReader, DataFrameWriter, DataStreamReader e DataStreamWriter contêm um método option(). Você pode utilizar este método para especificar opções para a operação de leitura ou gravação subjacente.

Observação

As opções especificadas desta forma substituem quaisquer configurações correspondentes no SparkConf.

Os mapas de opções suportam sintaxe de formato curto. Você pode omitir o prefixo ao especificar uma string de chave de opção.

Exemplo

As seguintes sintaxes são equivalentes entre si:

  • dfw.option("spark.mongodb.write.collection", "myCollection").save()

  • dfw.option("spark.mongodb.collection", "myCollection").save()

  • dfw.option("collection", "myCollection").save()

Para saber mais sobre o método do option(), consulte as seguintes páginas de documentação do Spark:

O conector Spark lê algumas definições de configuração antes de SparkConf estar disponível. Você deve especificar essas configurações usando uma propriedade do sistema JVM.

Para obter mais informações sobre propriedades do sistema Java, consulte a documentação Java.

Dica

Exceções de configuração

Se o conector Spark emitir um ConfigException, confirme se seu SparkConf ou mapa de opções usa a sintaxe correta e contém somente opções de configuração válidas.

Voltar

Primeiros passos com o Spark Connector