Menu Docs
Página inicial do Docs
/
Conector do Spark

Notas de versão

Nesta página

  • MongoDB connector para Spark 10.4
  • MongoDB connector para Spark 10.3
  • MongoDB connector para Spark 10.2
  • MongoDB connector do para Spark 10.1.1
  • MongoDB connector do para Spark 10.1.0
  • MongoDB connector do para Spark 10.0.0

A versão do conector 10.4 inclui as seguintes alterações e novas funcionalidades:

  • Atualiza a versão do Java Sync Driver para v5.1.x.

A versão do connector 10.3 inclui as seguintes novas funcionalidades:

  • Adicionado suporte para Spark v3.3, v3.4 e v3.5.

  • Foi adicionado suporte para a leitura de várias collections ao usar modos de microlote ou streaming contínuo.

    Aviso

    alteração interruptiva

    O suporte para a leitura de várias collections introduz as seguintes alterações significativas:

    • Se o nome de uma collection usada na sua opção de configuração do collection contiver uma vírgula, o Spark Connector tratará como duas collections diferentes. Para evitar isso, você deve escapar da vírgula precedendo-a com uma barra invertida (\).

    • Se o nome de uma collection usada em sua opção de configuração collection for "*", o Spark Connector o interpretará como uma especificação para verificar todas as collections. Para evitar isso, você deve escapar do asterisco precedendo-o com uma barra invertida (\).

    • Se o nome de uma coleção usada em sua opção de configuração do collection contiver uma barra invertida (\), o Spark Connector tratará a barra invertida como um caractere de escape, o que pode alterar a forma como ele interpreta o valor. Para evitar isso, você deve escapar da barra invertida precedendo-a com outra barra invertida.

    Para saber mais sobre a verificação de múltiplas collections, consulte a descrição dapropriedade de configuração de collections .

A versão do connector 10.2 inclui os seguintes novos recursos:

  • Foi adicionada a propriedade de configuração de gravação ignoreNullValues, que permite controlar se o connector ignora valores nulos. Em versões anteriores, o connector sempre escreveu valores null para MongoDB.

  • Foram adicionadas opções para a propriedade de configuração de gravação convertJson .

  • Foi adicionada a propriedade de configuração de leitura change.stream.micro.batch.max.partition.count , que permite dividir microlotes em várias partições para processamento paralelo.

  • Inferência de esquema de fluxo de alteração aprimorada ao usar a propriedade de configuração de leitura change.stream.publish.full.document.only .

  • Foi adicionada a propriedade de configuração de leitura change.stream.startup.mode, que especifica como o connector processa eventos de alteração quando nenhum deslocamento está disponível.

  • Suporte para adicionar um comentário às operações.

  • Corrigido um bug no qual as agregações, incluindo o estágio de pipeline $collStats , não retornavam um campo de contagem para coleções de séries temporais.

  • Suporte para Scala 2.13.

  • Suporte para o modo de microlote com o Spark Structured Streaming.

  • Suporte para tipos de dados BSON.

  • Suporte aprimorado ao particionador para coleções vazias.

  • Opção para desabilitar a atualização automática em operações de gravação.

  • Inferência de esquema aprimorada para arrays vazias.

  • Suporte para valores nulos em arrays e listas. O connector agora grava esses valores no MongoDB em vez de lançar uma exceção.

Consulte esta publicação no MongoDB Blog para obter mais informações.

  • Suporte para Spark Structured Streaming.

Voltar

Perguntas frequentes