Menu Docs

Página inicial do DocsVisualizar & analisar dadosConector do Spark

Configuração do Spark

Nesta página

  • Visão geral
  • Especificar configuração

Você pode configurar operações de leitura e gravação em modo lote e streaming. Para saber mais sobre as opções de configuração disponíveis, consulte as seguintes páginas:

Você pode especificar opções de configuração com SparkConf utilizando qualquer uma das seguintes abordagens:

  • A bandeira --conf no tempo de execução. Para saber mais, consulte Carregar propriedades Spark dinamicamente na documentação do Spark.

  • O arquivo $SPARK_HOME/conf/spark-default.conf.

O conector Spark MongoDB utilizará as configurações em SparkConf como padrões.

Na API Spark, as classes DataFrameReader, DataFrameWriter, DataStreamReader e DataStreamWriter contêm um método option(). Você pode utilizar este método para especificar opções para a operação de leitura ou gravação subjacente.

Observação

As opções especificadas desta forma substituem quaisquer configurações correspondentes no SparkConf.

Os mapas de opções suportam sintaxe de formato curto. Você pode omitir o prefixo ao especificar uma string de chave de opção.

Exemplo

As seguintes sintaxes são equivalentes entre si:

  • dfw.option("spark.mongodb.write.collection", "myCollection").save()

  • dfw.option("spark.mongodb.collection", "myCollection").save()

  • dfw.option("collection", "myCollection").save()

Para saber mais sobre o método do option(), consulte as seguintes páginas de documentação do Spark:

O conector Spark lê algumas definições de configuração antes de SparkConf estar disponível. Você deve especificar essas configurações usando uma propriedade do sistema JVM.

Para obter mais informações sobre propriedades do sistema Java, consulte a documentação Java.

Dica

Exceções de configuração

Se o conector Spark emitir um ConfigException, confirme se seu SparkConf ou mapa de opções usa a sintaxe correta e contém somente opções de configuração válidas.

← Primeiros passos com o Spark Connector