すべての Sink Connector 構成プロパティ
項目一覧
Overview
このページでは、MongoDB Kafka シンク コネクタで利用可能なすべての構成プロパティを表示できます。 このページは、他の Sink Connector 構成プロパティ ページの内容を重複させます。
すべての Sink Connector 構成プロパティ ページの一覧を表示するには、 Sink Connector 構成プロパティページを参照してください。
MongoDB 接続
次の構成設定を使用して、MongoDB Kafka Sink Connector が MongoDBクラスターに接続して通信する方法を指定します。
MongoDB 接続の構成に関連するオプションのみを表示するには、「 MongoDB 接続構成のプロパティ」ページを参照してください。
名前 | 説明 |
---|---|
connection.uri | Required Type: string Description: The MongoDB connection URI string
to connect to your MongoDB instance or cluster. For more information, see the Connect to MongoDB guide 重要: Default: mongodb://localhost:27017 Accepted Values: A MongoDB connection URI string |
server.api.version | Type: string Description: The Stable API version you want to use with your MongoDB
server. For more information on the Stable API and versions of
the server that support it, see the Stable API
MongoDB server manual guide. Default: "" Accepted Values: An empty string or a valid Stable API version. |
server.api.deprecationErrors | Type: boolean Description: When set to true , if the connector calls a command on your
MongoDB instance that's deprecated in the declared Stable API
version, it raises an exception.You can set the API version with the server.api.version
configuration option. For more information on the Stable API, see
the MongoDB manual entry on the
Stable API.Default: false Accepted Values: true or false |
server.api.strict | Type: boolean Description: When set to true , if the connector calls a command on your
MongoDB instance that's not covered in the declared Stable API
version, it raises an exception.You can set the API version with the server.api.version
configuration option. For more information on the Stable API, see
the MongoDB manual entry on the
Stable API.Default: false Accepted Values: true or false |
MongoDB 名前空間
次の構成設定を使用して、MongoDB Kafka Sink Connector がデータを書き込む MongoDB database とコレクションを指定します。 デフォルトのDefaultNamespaceMapper
を使用することも、カスタム クラスを指定することもできます。
コネクタがデータを書き込む場所の指定に関連するオプションのみを表示するには、「 MongoDB 名前空間マッピング構成プロパティ」ページを参照してください。
名前 | 説明 | |
---|---|---|
namespace.mapper | Type: string Description: The fully-qualified class name of the class that specifies which
database or collection in which to sink the data. The default
DefaultNamespaceMapper uses values specified in the
database and collection properties.The connector includes an alternative class for specifying the database and collection called FieldPathNamespaceMapper . Seefor more information. Default:
Accepted Values: A fully qualified Java class name of a class that implements the NamespaceMapper interface. | |
database | Required Type: string Description: The name of the MongoDB database to which the sink connector writes. Accepted Values: A MongoDB database name | |
コレクション | Type: string Description: The name of the MongoDB collection to which the sink connector
writes. If your sink connector follows multiple topics, this
is the default collection for any writes that are not otherwise
specified. Default: The topic name. Accepted Values: A MongoDB collection name |
FieldPathNamespaceMapper の設定
FieldPathNamespaceMapper
を使用するように Sink Connector を構成すると、データの フィールド値に基づいて、ドキュメントを Sink するデータベースとコレクションを指定できます。
このマッピング動作を有効にするには、以下に示すように、Sink Connector namespace.mapper
構成プロパティを完全修飾クラス名に設定します。
namespace.mapper=com.mongodb.kafka.connect.sink.namespace.mapping.FieldPathNamespaceMapper
FieldPathNamespaceMapper
では、次の設定を指定する必要があります。
プロパティをデータベースとコレクションにマッピングする 1 つまたは両方
データベースへの
key
またはvalue
マッピングの 1 つコレクションへの マッピングまたは マッピングの 1 つ
key
value
FieldPathNamespaceMapper
の動作をカスタマイズするには、次の設定を使用します。
名前 | 説明 |
---|---|
namespace.mapper.key.database.field | Type: string Description: The name of the key document field that specifies the name of the
database in which to write. |
namespace.mapper.key.collection.field | Type: string Description: The name of the key document field that specifies the name of the
collection in which to write. |
namespace.mapper.value.database.field | Type: string Description: The name of the value document field that specifies the name of the
database in which to write. |
namespace.mapper.value.collection.field | Type: string Description: The name of the value document field that specifies the name of the
collection in which to write. |
namespace.mapper.error.if.invalid | Type: boolean Description: Whether to throw an exception when either the document is missing the
mapped field or it has an invalid BSON type. When set to true , the connector does not process documents
missing the mapped field or that contain an invalid BSON type.
The connector may halt or skip processing depending on the related
error-handling configuration settings.When set to false , if a document is missing the mapped field or
if it has an invalid BSON type, the connector defaults to
writing to the specified database and collection settings.Default: false Accepted Values: true or false |
Connectorトピック
次の構成設定を使用して、MongoDB Kafka Sink Connector がデータを監視する Kafka トピックを指定します。
Kafka トピックの指定に関連するオプションのみを表示するには、「 Kafka トピックのプロパティ」ページを参照してください。
名前 | 説明 | |
---|---|---|
topics | Required Type: list Description: A list of Kafka topics that the sink connector watches.
Accepted Values: A comma-separated list of valid Kafka topics | |
topics.regex | Required Type: string Description: A regular expression that matches the Kafka topics that the sink
connector watches. 例、次の正規表現は、"active.laning.clients" などのトピック名と一致します。 "active.support.client" は、 トピック名 および "active.client" は、
Accepted Values: A valid regular expression pattern using java.util.regex.Pattern . |
Connectorメッセージ処理
このページの設定を使用して、次のような MongoDB Kafka Sink Connector のメッセージ処理動作を構成します。
メッセージ バッチ サイズ
レート制限
並列タスクの数
変更データ キャプチャ ハンドラーに関連するオプションのみを表示するには、[ Connector Message Processing プロパティ ]ページを参照してください。
名前 | 説明 | ||
---|---|---|---|
max.batch.size | Type: int Description: Maximum number of sink records to batch together for processing. Consider the batch that contains the following records:
When set to 0 , the connector performs a single bulk write for
the entire batch.When set to 1 , the connector performs one bulk write for each
record in the batch, for a total of five bulk writes as shown in
the following example:
Default: 0 Accepted Values: An integer | ||
bulk.write.ordered | Type: boolean Description: Whether the connector writes a batch of records
as an ordered or unordered bulk write operation.
When set to true , the default value, the
connector writes a batch of records as an ordered bulk write
operation.To learn more about bulk write operations, see
Bulk Write Operations. Default: true Accepted Values: true or false | ||
rate.limiting.every.n | Type: int Description: Number of batches of records the sink connector processes in
order to trigger the rate limiting timeout. A value of 0 means no
rate limiting. Default: 0 Accepted Values: An integer | ||
rate.limiting.timeout | Type: int Description: How long (in milliseconds) to wait before the sink connector
should resume processing after reaching the rate limiting
threshold. Default: 0 Accepted Values: An integer | ||
tasks.max | Type: int Description: The maximum number of tasks to create for this connector. The
connector may create fewer than the maximum tasks specified if it
cannot handle the level of parallelism you specify. IMPORTANT: If you specify a value greater than 1 ,
the connector enables parallel processing of the tasks.
If your topic has multiple partition logs, which enables
the connector to read from the topic in parallel,
the tasks may process the messages out of order.Default: 1 Accepted Values: An integer |
Connectorエラー処理
MongoDB Kafka Sink Connector がエラーを処理する方法を指定し、デッド レター キューを構成するには、次の構成設定を使用します。
エラー処理に関連するオプションのみを表示するには、「 Connector エラー処理プロパティ」ページを参照してください。
名前 | 説明 |
---|---|
mongo.errors.tolerance | Type: string Description: Whether to continue processing messages if the connector encounters
an error. Allows the connector to override the errors.tolerance
Kafka cluster setting.When set to none , the connector reports any error and
blocks further processing of the rest of the messages.When set to all , the connector ignores any problematic messages.When set to data , the connector tolerates only data errors and
fails on all other errors.To learn more about error handling strategies, see the
Handle Errors page. This property overrides the errors.tolerance property of the Connect Framework. Default: Inherits the value from the errors.tolerance
setting.Accepted Values: "none" or "all" |
mongo.errors.log.enable | Type: boolean Description: Whether the connector should write details of errors including
failed operations to the log file. The connector classifies
errors as "tolerated" or "not tolerated" using the
errors.tolerance or mongo.errors.tolerance settings.When set to true , the connector logs both "tolerated" and
"not tolerated" errors.When set to false , the connector logs "not tolerated" errors.This property overrides the errors.log.enable property of the Connect Framework. Default: false Accepted Values: true or false |
errors.log.include.messages | Type: boolean Description: Whether the connector should include the invalid message when
logging an error. An invalid message includes data such as record
keys, values, and headers. Default: false Accepted Values: true or false |
errors.deadletterqueue.topic.name | Type: string Description: Name of topic to use as the dead letter queue. If blank, the
connector does not send any invalid messages to the dead letter
queue. To learn more about the dead letter queue, see the
Dead Letter Queue Configuration Example. Default: "" Accepted Values: A valid Kafka topic name |
errors.deadletterqueue.context.headers.enable | Type: boolean Description: Whether the connector should include context headers when it
writes messages to the dead letter queue. To learn more about the dead letter queue, see the
Dead Letter Queue Configuration Example. To learn about the exceptions the connector defines and
reports through context headers, see
Bulk Write Exceptions. Default: false Accepted Values: true or false |
errors.deadletterqueue.topic.replication.factor | Type: integer Description: The number of nodes on which to replicate the dead letter queue
topic. If you are running a single-node Kafka cluster, you must
set this to 1 .To learn more about the dead letter queue, see the
Dead Letter Queue Configuration Example. Default: 3 Accepted Values: A valid number of nodes |
ポストプロセッサ
次の構成設定を使用して、MongoDB Kafka Sink Connector が Kafka データを MongoDB に挿入する前に変換する方法を指定します。
ポストプロセッサに関連するオプションのみを表示するには、「 Sink Connector ポストプロセッサのプロパティ」ページを参照してください。
名前 | 説明 | |
---|---|---|
post.processor.link | Type: list Description: A list of post-processor classes the connector should apply to
process the data before saving it to MongoDB. To learn more about post-processors and see examples of their usage, see Default:
Accepted Values: A comma-separated list of fully qualified Java class names | |
field.renamer.mapping | Type: string Description: A list of field name mappings for key and value fields. Define
the mappings in an inline JSON array in the following format:
Default: [] Accepted Values: A valid JSON array | |
field.renamer.regexp | Type: string Description: A list of field name mappings for key and value fields using
regular expressions. Define the mappings in an inline JSON array
in the following format:
Default: [] Accepted Values: A valid JSON array | |
key.projection.list | Type: string Description: A list of field names the connector should include in the key
projection. Default: "" Accepted Values: A comma-separated list of field names | |
key.projection.type | Type: string Description: The key projection type the connector should use. Default: none Accepted Values: none , BlockList , or AllowList (Deprecated: blacklist, whitelist) | |
value.projection.list | Type: string Description: A list of field names the connector should include in the value
projection. Default: "" Accepted Values: A comma-separated list of field names | |
value.projection.type | Type: string Description: The type of value projection the connector should use. Default: none Accepted Values: none , BlockList , or AllowList (Deprecated: blacklist, whitelist) | |
writemodel.strategy | Type: string Description: The class that specifies the WriteModelStrategy the connector should
use for Bulk Writes.To learn more about how to create your own strategy, see Default:
Accepted Values: A fully qualified Java class name |
ID 戦略
次の構成設定を使用して、MongoDB Kafka Sink Connector が MongoDB に書込む各ドキュメントの_id
値を決定する方法を指定します。
ドキュメントの_id
フィールドの決定に関連するオプションのみを表示するには、「 Sink Connector ID 戦略のプロパティ」ページを参照してください。
名前 | 説明 | |
---|---|---|
document.id.strategy | Type: string Description: The class the connector should use to generate a unique _id field.Default:
Accepted Values: An empty string or a fully qualified Java class name | |
document.id.strategy.overwrite.existing | Type: boolean Description: Whether the connector should overwrite existing values in the _id
field when it applies the strategy defined by the
document.id.strategy property.Default: false Accepted Values: true or false | |
document.id.strategy.uuid.format | Type: string Description: Whether the connector should output the UUID in the _id field
in string format or in
BsonBinary
format.Default: string Accepted Values: string or binary | |
delete.on.null.values | Type: boolean Description: Whether the connector should delete documents when the key value
matches a document in MongoDB and the value field is null. This setting applies when you specify an id generation strategy that
operates on the key document such as FullKeyStrategy ,
PartialKeyStrategy , and ProvidedInKeyStrategy .Default: false Accepted Values: true or false |
モデル戦略の書込み
構成プロパティを設定して、MongoDB Kafka Sink Connector が MongoDB にデータを書込む方法を指定できます。 次のセクションでは、この動作をカスタマイズするために設定できる構成プロパティについて説明します。
書込みモデル
Sink Connector が Sink レコードを受信したときにデータを書込む方法を指定するには、 writemodel.strategy
構成プロパティを設定します。
writemodel.strategy
の値は、このページの「戦略」セクションで説明されている書込みモデル戦略の完全修飾クラス名のいずれかに設定できます。 次の構成を設定することで、戦略を指定できます。
writemodel.strategy=<a write model strategy>
書込みモデルの削除
Sink Connector がトゥームストーン イベントを受信したときにデータを書き込む方法を指定するには、 delete.writemodel.strategy
構成プロパティを設定します。 トゥームストーン イベントとは、キーを含むが値は含まないレコードであり、削除されたレコードを意味します。
delete.writemodel.strategy
の値は、このページの「戦略」セクションで説明されている書込みモデル戦略の完全修飾クラス名のいずれかに設定できます。 次の構成を設定することで、戦略を指定できます。
delete.writemodel.strategy=<a write model strategy>
書込みモデル戦略に関連するオプションのみを表示するには、「 Sink Connector 書込みモデル戦略」ページを参照してください。
名前 | 説明 | |
---|---|---|
DefaultWriteModelStrategy | Description: This strategy uses the ReplaceOneDefaultStrategy by
default, and the InsertOneDefaultStrategy if you set the
timeseries.timefield option.This is the default value value for the writemodel.strategy
configuration property. | |
InsertOneDefaultStrategy | Description: Insert each sink record into MongoDB as a document. To specify this strategy, set the configuration property to the
following class name:
| |
ReplaceOneDefaultStrategy | Description: Replaces at most one document in MongoDB that matches a sink
record by the _id field. If no documents match, the
connector inserts the sink record as a new document.To specify this strategy, set the configuration property to the
following class name:
| |
ReplaceOneBusinessKeyStrategy | Description: Replaces at most one document that matches a sink record by a
specified business key. If no documents match, the
connector inserts the sink record as a new document. To specify this strategy, set the configuration property to the
following class name:
To see an example showing how to use this strategy, see our
guide on write model strategies. | |
DeleteOneDefaultStrategy | Description: Deletes at most one document that matches your sink connector's
key structure by the _id field only when the document
contains a null value structure.This is the default value for the
delete.writemodel.strategy configuration property.This strategy is set as the default value of the
writemodel.strategy property when you set
mongodb.delete.on.null.values=true .To specify this strategy, set the configuration property to the
following class name:
| |
DeleteOneBusinessKeyStrategy | Description: Deletes at most one MongoDB document that matches a sink record by a business key. To specify this strategy, set the configuration property to the
following class name:
To see an example showing how to use this strategy, see our
guide on write model strategies. | |
UpdateOneDefaultStrategy | Description: Updates at most one document in MongoDB that matches a sink
record by the _id field. If no documents match, the
connector inserts the sink record as a new document.To specify this strategy, set the configuration property to the
following class name:
| |
UpdateOneTimestampsStrategy | Description: Add _insertedTS (inserted timestamp) and _modifiedTS (modified timestamp) fields into documents.To specify this strategy, set the configuration property to the
following class name:
To see an example showing how to use this strategy, see our
guide on write model strategies. | |
UpdateOneBusinessKeyTimestampStrategy | Description: Add _insertedTS (inserted timestamp) and _modifiedTS
(modified timestamp) fields into documents that match a business
key.To specify this strategy, set the configuration property to the
following class name:
|
トピックの上書き
次の MongoDB Kafka Sink Connector 構成設定を使用して、特定のトピックのグローバルまたはデフォルトのプロパティ設定をオーバーライドします。
トピック設定の上書きに関連するオプションのみを表示するには、「トピックの上書きプロパティ」ページを参照してください。
名前 | 説明 |
---|---|
topic.override.<topicName>.<propertyName> | Type: string Description: Specify a topic and property name to override the corresponding
global or default property setting. For example, the topic.override.foo.collection=bar setting instructsthe sink connector to store data from the foo topic in the bar collection. You can specify any valid configuration setting in the <propertyName> segment on a per-topic basis exceptconnection.uri and topics .Default: "" Accepted Values: Accepted values specific to the overridden property |
変更データのキャプチャ
次の構成設定を使用して、MongoDB Kafka シンク コネクタが 変更データ キャプチャ(CDC) イベントを処理するために使用するクラスを指定します。
Debezium および Qlik Replicate イベント プロデューサー用に組み込みのChangeStreamHandler
および ハンドラーを使用する例については、 Sink Connector 変更データ取得 のガイドを参照してください。
変更データ キャプチャ ハンドラーに関連するオプションのみを表示するには、「変更データ キャプチャ プロパティ」ページを参照してください。
名前 | 説明 |
---|---|
change.data.capture.handler | Type: string Description: The class name of the CDC handler to use for converting changes
into event streams. See
Available CDC Handlers
for a list of CDC handlers. Default: "" Accepted Values: An empty string or a fully qualified Java
class name |
時系列
次の構成設定を使用して、MongoDB Kafka Sink Connector が MongoDB 時系列コレクションにデータをシンクする方法を指定します。
時系列コレクションに関連するオプションのみを表示するには、「 Kafka 時系列プロパティ」ページを参照してください。
名前 | 説明 | |
---|---|---|
timeseries.timefield | Type: string Description: The name of the top-level field in the source data that contains time
information that you want to associate with the new document in the
time series collection. Default: "" Accepted Values: An empty string or the name of a field
that contains a BSON DateTime value | |
timeseries.timefield.auto.convert.date.format | Type: string Description: The date format pattern the connector should use to convert the
source data contained in the field specified by the
timeseries.timefield setting.The connector passes the date format pattern to the Java
DateTimeFormatter.ofPattern(pattern, locale)
method to perform date and time conversions on the time field. If the date value from the source data only contains date information,
the connector sets the time information to the start of the specified
day. If the date value does not contain the timezone offset, the
connector sets the offset to UTC. Default:
Accepted Values: A valid DateTimeFormatter format | |
timeseries.timefield.auto.convert | Type: boolean Description: Whether to convert the data in the field into the BSON Date
format.When set to true , the connector uses the milliseconds
after epoch and discards fractional parts if the value is
a number. If the value is a string, the connector uses the
setting in the following configuration to parse the date:
If the connector fails to convert the value, it sends the
original value to the time series collection. Default: false Accepted Values: true or false | |
timeseries.timefield.auto.convert.locale.language.tag | Type: string Description: Which DateTimeFormatter locale language tag to use with the date
format pattern (e.g. "en-US" ).To learn more about locales, see the Java SE documentation of Locale. Default: ROOT Accepted Values: A valid Locale language tag format | |
timeseries.metafield | Type: string Description: Which top-level field to read from the source data to describe
a group of related time series documents. IMPORTANT: This field must not be the _id field nor the field you specified
in the timeseries.timefield setting.Default: "" Accepted Values: An empty string or the name of a field
that contains any BSON type except BsonArray . | |
timeseries.expire.after.seconds | Type: int Description: The number of seconds MongoDB should wait before automatically
removing the time series collection data. The connector disables
timed expiry when the setting value is less than 1 .To learn more, see Set up Automatic Removal for Time Series Collections
in the MongoDB manual. Default: 0 Accepted Values: An integer | |
timeseries.granularity | Type: string Description: The expected interval between subsequent measurements of your
source data. To learn more, see Set Granularity for Time Series Data in the MongoDB manual. Optional Default: "" Accepted Values: "" , "seconds" , "minutes" , "hours" |
既存のコレクションを時系列コレクションに変換する方法の例については、「 既存のコレクションを時系列コレクションに移行する 」方法に関するチュートリアルを参照してください。