tencent cloud

フィードバック

CVMでAVX512を介して人工知能アプリケーションをアクセラレーションします

最終更新日:2023-05-09 14:17:55

    操作シナリオ

    Tencent Cloudの第6世代S6および第5世代インスタンスS5、M5、C4、IT5、D3は、第2世代インテリジェントIntel®Xeon®スケーラブルプロセッサCascadeLakeを全面的に採用しています。より多くの命令セットや機能を提供して、人工知能のアプリケーションのアクセラレーションに使用するとともに、多数のハードウェア拡張技術を統合することができます。中でも、AVX-512(アドバンスト・ベクトル・エクステンション)は、AI推論プロセスに強力な並列コンピューティング機能を提供し、ユーザーのディープラーニングの効果をより高めることができます。
    ここではS5、M5インスタンスを例として、CVMでAVX512を介して人工知能アプリケーションをアクセラレーションする方法を説明します。

    モデル選択時の推奨事項

    CVMのさまざまなインスタンス仕様は、さまざまなアプリケーション開発に用いることができます。中でも標準型 S6標準型S5 および メモリ型M5 は、 機械学習やディープラーニングに適しています。これらのインスタンスには、Intel® DL boost学習機能に適応する第2世代Intel®Xeon®プロセッサが搭載されています。推奨される構成は下表のとおりです。
    プラットフォームタイプ
    インスタンス仕様
    ディープラーニングトレーニングプラットフォーム
    84vCPUの標準型S5インスタンスまたは48vCPUのメモリ型M5インスタンス。
    ディープラーニング推論プラットフォーム
    8/16/24/32/48vCPUの標準型S5インスタンスまたはメモリ型M5インスタンス。
    機械学習トレーニングまたは推論プラットフォーム
    48vCPUの標準型S5インスタンスまたは24vCPUのメモリ型M5インスタンス。

    有する利点

    Intel® Xeon®スケーラブルプロセッサを使用して機械学習またはディープラーニングのワークロードを実行する場合、以下の利点があります。
    大容量メモリ型ワークロード、医用画像、GAN、地震解析、遺伝子シーケンシングなどのシナリオで使用される3D-CNNトポロジーの処理に適しています。
    シンプルなnumactlコマンドを使用した柔軟なコア制御をサポートしており、小さなバッチのリアルタイム推論にも適しています。
    強力なエコシステムをサポートしており、大型クラスターで分散型トレーニングを直接実行できるため、大容量ストレージの追加や高価なキャッシュメカニズムを必要とする大規模なアーキテクチャトレーニングを回避することができます。
    同じクラスター内で複数のワークロード(HPC、BigData、AIなど)をサポートしており、より優れたTCOを取得できます。
    SIMDによってアクセラレーションし、ディープラーニングのアプリケーションプログラムに関する多くの実質的なコンピューティング要件を満たします。
    同じインフラストラクチャをトレーニングと推論に直接使用できます。

    操作手順

    インスタンスを作成

    CVMインスタンスを作成します。詳細については、購入画面でインスタンスを作成 をご参照ください。そのうち、インスタンス仕様は、モデル選択時の推奨事項 と実際の業務シナリオに従って選択する必要があります。下図のとおりです。
    
    
    説明:
    インスタンス仕様のパラメータについては、インスタンス仕様 をご参照ください。

    インスタンスへのログイン

    CVMインスタンスにログインします。詳細については、標準方式を使用してLinuxインスタンス(推奨)にログイン をご参照ください。

    デプロイ例

    実際の業務シナリオに基づき、次の例を参照して人工知能プラットフォームをデプロイし、機械学習またはディープラーニングタスクを実行することができます。
    
    お問い合わせ

    カスタマーサービスをご提供できるため、ぜひお気軽にお問い合わせくださいませ。

    テクニカルサポート

    さらにサポートが必要な場合は、サポートチケットを送信して弊社サポートチームにお問い合わせください。24時間365日のサポートをご提供します。

    電話サポート(24 時間365日対応)