Docs Menu
Docs Home

MongoDB Kafka Connector

MongoDB Connector for Apache Kafka は、Apache Kafka トピックからのデータをデータ シンクとして MongoDB に保存し、MongoDB からの変更をデータソースとして Kafka トピックに公開する、Confluent 検証済みのコネクターです。

次の MongoDB パートナー サービスのいずれかを使用して、Apache Kafka クラスターと MongoDB Kafka Connector をホストすることが推奨されます。

注意

また、MongoDB Query API を使用してストリーミング データを処理する MongoDB ネイティブの方法である Atlas Stream Processing を使用することもできます。これにより、開発者が最新のアプリケーションをビルドする方法が変わります。

Atlas Stream Processing を使用して、ストリーミング データを継続的に処理し、スキーマを検証し、ビューを Atlas データベース コレクションまたは Apache Kafka トピックに具体化します。

Atlas Stream Processing の詳細については、Atlas Stream Processing 製品ページを参照するか、ドキュメントをお読みください。

各バージョンの新機能と変更点の一覧については、新機能」セクションを参照してください。

Kafka Connector クイック スタート」では、MongoDB Kafka Connector の使用を開始する方法や、データを操作する方法を学びます。

概要セクションでは、MongoDB Kafka Connector が Apache Kafka と MongoDB 間でデータを渡す仕組みについて学びます。このセクションでは、connector をインストールし、MongoDB 配置に接続するように構成する方法についても学びます。

チュートリアルに従って、MongoDB Kafka Connector を設定し、さまざまなユースケースでデータを読み書きする方法を学びます。

Sink Connector」セクションでは、MongoDB Kafka Sink Connector が Apache Kafka から MongoDB にデータを書込み (write) する方法の構成について学びます。

Source Connector」セクションでは、MongoDB Kafka Source Connector が MongoDB から Apache Kafka にデータを書込み (write) する方法の構成について学びます。

セキュリティと認証」セクションでは、MongoDB と MongoDB Kafka Connector の間の通信を保護する方法を学びます。このセクションでは、AWS Identity と IAM 認証情報を使用して MongoDB を認証するように MongoDB Kafka Connector を構成する方法についても学べます。

監視」セクションで、MongoDB Kafka Source Connector と Sink Connector を監視する方法を学びます。

移行ガイドでは、レガシーの Kafka Connect MongoDB Connector から公式の MongoDB Kafka Connector に移行する方法を学びます。

トラブルシューティング」セクションで、MongoDB Kafka Connector の実行中に発生する可能性のある問題を解決する方法について学びます。

貢献方法」セクションでは、MongoDB Kafka Connector コードベースに貢献する方法を学びます。

問題とヘルプ」セクションでは、バグを報告したり機能をリクエストしたりする方法について学びます。

MongoDB Kafka Connectorと MongoDB の互換性については、「互換性」セクションを参照してください。このセクションでは、MongoDB Kafka Connector と Confluent Kafka Connect の互換性についても学べます。

次へ

新機能