tencent cloud

Tencent Kubernetes Engine
テンセントクラウドコンテナサービス(Tencent Kubernetes Engine, TKE)は、ネイティブKubernetesを基盤とし、コンテナを中核とした高度に拡張可能なエンタープライズ向けコンテナ管理サービスを提供します。単一クラスタでのハイブリッドノードリソース管理モードを初めて実現し、Agentic AIアプリケーションのデプロイメントと究極のリソース効率化に向けた包括的なソリューションを提供し、AI時代の無限のコンピューティングパワーをユーザーに解放します。
50%
業務性能向上
300%
リソース利用率向上
秒級
pod起動速度
Tencent Kubernetes Engineを選ぶ理由
シナリオへの適用
エージェントのデプロイ、モデル推論、強化学習、大規模データ処理、およびマイクロサービスシナリオを完全にサポートします。
シナリオへの適用
エージェントのデプロイ、モデル推論、強化学習、大規模データ処理、およびマイクロサービスシナリオを完全にサポートします。
フルリンクアクセラレーター
モデルのデプロイ、推論、および大規模なデータ処理シナリオのために、TKEは最適化されたFLAシステムを構築しました。
フルリンクアクセラレーター
モデルのデプロイ、推論、および大規模なデータ処理シナリオのために、TKEは最適化されたFLAシステムを構築しました。
究極のリソースパフォーマンス
FinOpsの原則と深く統合され、自社開発のCraneスケジューラを搭載しており、ユーザーがリソース使用率において300%以上のパフォーマンス向上を達成できるよう支援します。
究極のリソースパフォーマンス
FinOpsの原則と深く統合され、自社開発のCraneスケジューラを搭載しており、ユーザーがリソース使用率において300%以上のパフォーマンス向上を達成できるよう支援します。
柔軟なデプロイ
多様なノードデプロイオプションを提供し、ServerlessおよびIDCリソースの管理をサポートします。
柔軟なデプロイ
多様なノードデプロイオプションを提供し、ServerlessおよびIDCリソースの管理をサポートします。
安全で信頼性が高い
Tencentの包括的な自社開発クラウド移行の技術的実践を組み合わせ、オペレーティングシステム、ランタイム環境、およびKubernetesのパラメータ調整と適応を全面的に行います。
安全で信頼性が高い
Tencentの包括的な自社開発クラウド移行の技術的実践を組み合わせ、オペレーティングシステム、ランタイム環境、およびKubernetesのパラメータ調整と適応を全面的に行います。
超大規模クラスター
単一のクラスターコントロールプレーンで、50,000以上のノードの安定した稼働と10倍のスループット向上をサポートします。
超大規模クラスター
単一のクラスターコントロールプレーンで、50,000以上のノードの安定した稼働と10倍のスループット向上をサポートします。
主な機能
クラスター管理

TKEはクラスターの動的スケーリングとノードの垂直スケーリングをサポートします。

クラスター内のノードはアベイラビリティゾーンをまたがって管理およびデプロイ可能であり、サービス内のコンテナはアベイラビリティゾーンをまたがってスケジュール可能です。

クラスター内のノードには以下が提供されます。

クラスター管理

TKEはクラスターの動的スケーリングとノードの垂直スケーリングをサポートします。

クラスター内のノードはアベイラビリティゾーンをまたがって管理およびデプロイ可能であり、サービス内のコンテナはアベイラビリティゾーンをまたがってスケジュール可能です。

クラスター内のノードには以下が提供されます。

サービス管理

サービスデプロイ効率の向上

サービスバージョンはテンプレートを通じて制御され、イメージが環境の一貫性を保証するため、より迅速なサービス移行が可能です。

サービスディスカバリがサポートされています。ロードバランシングドメイン名またはサービス名とポート番号を使用してサービスにアクセスできるため、サービスバックエンドが変更された場合のIP変更の影響を回避できます。

マイクロサービスがサポートされており、削減...

サービス管理

サービスデプロイ効率の向上

サービスバージョンはテンプレートを通じて制御され、イメージが環境の一貫性を保証するため、より迅速なサービス移行が可能です。

サービスディスカバリがサポートされています。ロードバランシングドメイン名またはサービス名とポート番号を使用してサービスにアクセスできるため、サービスバックエンドが変更された場合のIP変更の影響を回避できます。

マイクロサービスがサポートされており、削減...

構成管理

異なる環境のビジネス構成を管理可能

同じアプリケーションに対して異なる環境をデプロイできるため、アプリケーションの更新やロールバックが容易になります。

複数のバージョンがサポートされていますが、...

構成管理

異なる環境のビジネス構成を管理可能

同じアプリケーションに対して異なる環境をデプロイできるため、アプリケーションの更新やロールバックが容易になります。

複数のバージョンがサポートされていますが、...

イメージ管理

公式Dockerhubイメージ管理

公式Dockerhubイメージの高速検索が利用可能です。

プライベートイメージ管理

安全で信頼性の高いプライベートイメージリポジトリが提供されます。

高速なイメージのアップロードとダウンロードが...

イメージ管理

公式Dockerhubイメージ管理

公式Dockerhubイメージの高速検索が利用可能です。

プライベートイメージ管理

安全で信頼性の高いプライベートイメージリポジトリが提供されます。

高速なイメージのアップロードとダウンロードが...

クラスター管理

TKEはクラスターの動的スケーリングとノードの垂直スケーリングをサポートします。

クラスター内のノードはアベイラビリティゾーンをまたがって管理およびデプロイ可能であり、サービス内のコンテナはアベイラビリティゾーンをまたがってスケジュール可能です。

クラスター内のノードには以下が提供されます。

サービス管理

サービスデプロイ効率の向上

サービスバージョンはテンプレートを通じて制御され、イメージが環境の一貫性を保証するため、より迅速なサービス移行が可能です。

サービスディスカバリがサポートされています。ロードバランシングドメイン名またはサービス名とポート番号を使用してサービスにアクセスできるため、サービスバックエンドが変更された場合のIP変更の影響を回避できます。

マイクロサービスがサポートされており、削減...

構成管理

異なる環境のビジネス構成を管理可能

同じアプリケーションに対して異なる環境をデプロイできるため、アプリケーションの更新やロールバックが容易になります。

複数のバージョンがサポートされていますが、...

イメージ管理

公式Dockerhubイメージ管理

公式Dockerhubイメージの高速検索が利用可能です。

プライベートイメージ管理

安全で信頼性の高いプライベートイメージリポジトリが提供されます。

高速なイメージのアップロードとダウンロードが...

さまざまなビジネスシナリオでの活用方法
エージェントサンドボックス
モデル推論
強化学習
データ処理
マイクロサービス
Agentic AI(インテリジェントエージェント)アプリケーションは通常、高い自律性を持ち、複雑な環境での自律的な意思決定や外部ツールの呼び出しを可能にし、コード実行などの操作を伴う場合があります。これにより、エージェントは悪意のあるコードの実行、機密データの漏洩、システムリソースの悪用といった潜在的なセキュリティリスクとなる可能性があります。そのワークフローは多くの場合、マルチラウンドかつ長時間実行されるため、極めて高度な状態管理とタスク分離が必要です。
  • セキュリティ分離:各サンドボックスは隔離された制御環境で実行されます。
  • 究極の起動速度:インスタンスはミリ秒単位で起動し、インテリジェントエージェントの呼び出しが即座に行われることを保証します。
  • 多様なタイプ:組み込みのブラウザサンドボックス、コードサンドボックス、拡張可能なカスタムサンドボックスをサポート。
  • 複数のアクセス方法:サンドボックスインターフェースとプロトコルは主流のオープンソースコミュニティと互換性があります。
モデル推論はAIサービス提供の最終段階であり、通常、突発的なリクエストの急増を伴う大規模かつ高同時実行のオンラインサービスとして現れます。低遅延(ユーザー体験の確保)と高スループット(ビジネスの同時実行性のサポート)が中核的な課題であり、同時にコスト削減のために極めて高いリソース使用率も求められます。推論サービスでは、マルチモデルのデプロイ、モデルバージョンのグレースケールリリース、動的スケーリングが頻繁に伴います。
  • 推論アクセラレーション:Tencent自社開発のTACO推論アクセラレーションフレームワークにより、推論パフォーマンスを全面的に向上。
  • GPU共有:qGPU共有技術を深く統合し、ヘテロジニアスな計算能力を最大限に活用。
  • 究極の弾力性:スーパーノードで事前作成されたサンドボックス技術とHPA/VPAを組み合わせ、推論リソースのミリ秒レベルの応答を実現。
強化学習およびディープラーニングモデルのトレーニングには、長時間、高同時実行、かつ高い通信効率を持つリソースが必要です。特に大規模な分散トレーニングでは、GPUメモリ、高速ネットワーク(RDMAなど)、およびフォールトトレランスに対して厳しい要件があります。トレーニングタスクは数時間、場合によっては数週間安定して実行する必要があり、中断された場合のコストは甚大です。
  • 高速相互接続:RDMAなどの高性能ネットワークをサポートし、低遅延のデータ転送を保証します。
  • 専門的なスケジューリングとフォールトトレランス:分散ジョブのリソース割り当てとトポロジ認識を最適化します。
  • 自己修復:ノード障害が発生した場合、トレーニングタスクは障害通知に基づいて自動的にチェックポイントを作成し復元することで、トレーニングの期間と成果を保証します。
AIモデルの成功は、高品質なデータに大きく依存しています。データ処理タスク(ETL、特徴量エンジニアリング、アノテーションなど)は通常、バッチ計算やワークフローによって駆動されます。これらのタスクは、ライフサイクルが短く、リソース要件が突発的で、依存関係が複雑であり、ストレージとデータアクセスのパフォーマンスに対する要求が高いという特徴があります。
  • ワークフローのオーケストレーションとスケジューリング:Argo Workflowsなどの主流のクラウドネイティブワークフローエンジンをサポートし、コンテナ化されたタスクを通じて複雑なデータ前処理パイプラインのオーケストレーションを容易にします。
  • 効率的なストレージのマウント:高性能クラウドストレージ(CFS Turbo、Goosefsなど)のシームレスな統合により、CSIプラグインの実装を通じて高速かつ大規模なコンテナデータアクセスを実現します。
  • コストの最適化:オフラインのハイブリッドデプロイをサポートし、データ処理コストを大幅に削減します。
マイクロサービスアーキテクチャは、モノリシックなアプリケーションを異なる次元から複数のマイクロサービスに分割することで、複雑なアプリケーションを構築するのに適しています。各マイクロサービスはDockerイメージを使用して管理されます。機能を変更することなく、アプリケーションを複数の管理可能なサービスに分割し、各単体サービスを理解、開発、保守しやすくします。異なるマイクロサービスを異なるチームが開発することも可能で、開発チームは開発技術やプログラミング言語を自由に選択できます。各サービスは独立してデプロイおよび拡張できます。
  • アジャイルな開発とデリバリー:標準化されたデリバリーキャリアを提供し、GitOps/CI/CDパイプラインを組み合わせて、アプリケーションの構築、テスト、デプロイを迅速に行い、サービスのイテレーションサイクルを加速します。
  • エンドツーエンドの可観測性:アプリケーション、コンテナからクラスターまでのあらゆるレベルをカバーする統合されたログ、モニタリング、およびアラームプラットフォーム。
  • 安定性と信頼性:バックアップとリカバリをサポートする高可用性デプロイ。
リソースとドキュメント
クラスターの概要
TKEはネイティブKubernetesをベースに、コンテナをコアとしたソリューションを提供し、ユーザーの開発、テスト、運用プロセスにおける環境問題を解決し、コスト削減と効率向上を支援します。
購入ガイド
コンテナサービスは、異なる仕様のマネージドクラスターに対して対応するクラスター管理費用を請求します。使用中に作成された他のクラウド製品リソース(CVM、CBS、CLBなど)は、それぞれのクラウド製品の課金方法に従って料金が発生します。
ネイティブノードの概要
ネイティブノードは、TKEが提供する新しいノードタイプで、Tencent Cloudの数千万コアのコンテナ運用技術を基盤に、ユーザーにネイティブで高安定性、高速レスポンスのK8sノード管理機能を提供します。
スーパーノードの概要
スーパーノードはユーザーにアベイラビリティーゾーンレベルの、カスタマイズ可能な仕様のノード機能を提供し、超大規模なCVMを使用するのと類似しており、リソース管理とリソースのスケーリングがより簡単になります。
よくあるご質問

よくある

ご質問

TKEにおける注意が必要な高リスク操作は?

TKEの高リスク操作にアクセスして確認および理解することができます。

コンテナクラスターを作成するにはどうすればよいですか?

Tencent Cloud Container Service(Tencent Kubernetes Engine (TKE))を効果的に使用するために、TKEのデプロイに関するクイックスタートドキュメントを確認できます。

クラスターに関連するクラウドリソースのリソース操作権限はどのように構成すべきですか?

TKEを使用する際、関連するTencent Cloudリソースにアクセスするためのサービス承認が必要な複数のシナリオに遭遇する場合があります。各シナリオは通常、異なるロールに含まれるプリセットポリシーに対応しており、主にTKE_QCSRoleとIPAMDofTKE_QCSRoleの2つのロールが関与します。詳細については、サービス承認に関連するロール権限の説明をご覧ください。

よくあるご質問

よくある

ご質問

TKEにおける注意が必要な高リスク操作は?

TKEの高リスク操作にアクセスして確認および理解することができます。

コンテナクラスターを作成するにはどうすればよいですか?

Tencent Cloud Container Service(Tencent Kubernetes Engine (TKE))を効果的に使用するために、TKEのデプロイに関するクイックスタートドキュメントを確認できます。

クラスターに関連するクラウドリソースのリソース操作権限はどのように構成すべきですか?

TKEを使用する際、関連するTencent Cloudリソースにアクセスするためのサービス承認が必要な複数のシナリオに遭遇する場合があります。各シナリオは通常、異なるロールに含まれるプリセットポリシーに対応しており、主にTKE_QCSRoleとIPAMDofTKE_QCSRoleの2つのロールが関与します。詳細については、サービス承認に関連するロール権限の説明をご覧ください。

利用を開始する準備はできましたか?
ユースケースや技術アーキテクチャの詳細については、営業および技術サポートチームにお問い合わせください。