start.process()
Definição
Novidades na versão 7.0: Cria um efêmero na instância de processamento de fluxo atual .
Sintaxe
O método sp.process()
tem a seguinte sintaxe:
sp.process( [ <pipeline> ], { <options> } )
Campos de comando
sp.createStreamProcessor()
usa estes campos:
Campo | Tipo | necessidade | Descrição |
---|---|---|---|
name | string | Obrigatório | Nome lógico para o processador de fluxo. Isso deve ser exclusivo dentro da instância do Atlas Stream Processing. |
pipeline | array | Obrigatório | Transmita o pipeline de agregação que você deseja aplicar aos seus dados de streaming. |
options | objeto | Opcional | objeto que define várias configurações opcionais para o processador de fluxo. |
options.dlq | objeto | Condicional | Objeto que atribui uma dead letter queue (DLQ) para sua instância do Atlas Stream Processing . Este campo é necessário se você definir o campo options . |
options.dlq.connectionName | string | Condicional | Etiqueta que identifica uma conexão em seu registro de conexão. Esta conexão deve fazer referência a um cluster Atlas. Este campo é necessário se você definir o campo options.dlq . |
options.dlq.db | string | Condicional | Nome de um reconhecimento de data center Atlas no cluster especificado em options.dlq.connectionName . Este campo é necessário se você definir o campo options.dlq . |
options.dlq.coll | string | Condicional | Nome de uma collection no reconhecimento de data center especificado no options.dlq.db . Este campo é necessário se você definir o campo options.dlq . |
Comportamento
sp.process()
cria um processador de fluxo efêmero e sem nome na instância atual do Atlas Stream Processing e o inicializa imediatamente. Esse processador de fluxo só persiste enquanto for executado. Se você encerrar um processador de fluxo efêmero, deverá criá-lo novamente para usá-lo.
Controle de acesso
O usuário que executa sp.process()
deve ter a função atlasAdmin
.
Exemplo
O exemplo a seguir cria um processador de fluxo efêmero que ingere dados da conexão sample_stream_solar
. O processador exclui todos os documentos onde o valor do campo device_id
é device_8
, passando o restante para uma janela em cascata com duração 10segundos. Cada janela agrupa os documentos que recebe e, em seguida, retorna várias estatísticas úteis de cada grupo. Em seguida, o processador de fluxo mescla esses registros com solar_db.solar_coll
pela conexão mongodb1
.
sp.process( [ { $source: { connectionName: 'sample_stream_solar', timeField: { $dateFromString: { dateString: '$timestamp' } } } }, { $match: { $expr: { $ne: [ "$device_id", "device_8" ] } } }, { $tumblingWindow: { interval: { size: NumberInt(10), unit: "second" }, "pipeline": [ { $group: { "_id": { "device_id": "$device_id" }, "max_temp": { $max: "$obs.temp" }, "max_watts": { $max: "$obs.watts" }, "min_watts": { $min: "$obs.watts" }, "avg_watts": { $avg: "$obs.watts" }, "median_watts": { $median: { input: "$obs.watts", method: "approximate" } } } } ] } }, { $merge: { into: { connectionName: "mongodb1", db: "solar_db", coll: "solar_coll" }, on: ["_id"] } } ] )