テクノロジーは常に進化し前進を続ける特性を備えている。特にIT分野では進化速度は著しく、1カ月前の最先端が今日では昔話となることは珍しいことではないだろう。企業のデータセンター利用が普及しはじめた当時と現在を比較すれば、サーバーの仕事量は相当に高いものとなってきており、ハードウェアでのブレイクスルーが望まれていた。

 

そしてパンデミックを契機として見直しが進む境界型のセキュリティの危うさからゼロトラストが提唱され、ITとビジネスの結びつきの深化による高度化、複雑化とともにサーバーCPUは過負荷な状態となっている。過負荷はビジネスを鈍化させるだけでなく、セキュリティレベルも低下させる要因だ。一方で、機械学習の領域ではGPUが並列性を実現し、CPUの演算処理をオフロードした。GPU活用の先駆者であるNVIDIA社は外題のサーバーCPUが抱える課題に対して、プログラミング可能なARMコアとネットワークインターフェースを融合させたDPU(データプロセッシングユニット)を投入することで、従来はCPUが処理していたネットワークの管理やストレージの管理、セキュリティなどのワークロードを、システム側のCPUからオフロードする。

 

本書は、NVIDIA社DPU上で動作するアプリケーションの開発環境であるNVIDIA DOCA(以下DOCA)を開発者に向けて解説する。最新版のDOCA1.2を俎上に載せ、機能の紹介を筆頭に開発環境の準備に必要なDPUのハードウェア要件、考慮するポイント、DPUのセットアップなど基礎知識をガイドする。さらにNVIDIA GPU Cloudが提供するコンテナ環境をダウンロードし実際にアプリケーションを動作させるフェーズまで展開され、実際に手を動かすことでDPUのアプリケーション開発に対する造詣が無理なく深まる内容となっている。DPUの登場は徹底したゼロトラストの実現など、データセンターに新たな可能性を拓くトピックといえよう。DPUの活用が企業競争力を生む新たな時代に突入したのではないだろうか。DPUの基礎知識の有無にかかわらず、本書をご一読いただきDOCAを体験されることをおすすめする。