アクセラレータ 悪党の流儀でラーメンを食す!w

アクセラレータ 演算

何故AIアクセラレータは行列積を爆速で行えるのか. CPUもCPUもそうですが、スレッドレベルでの並列化においても、上式の演算は一旦掛け算を行った値をどこかに保持し、後から取り出して足していきます。 このような作業を繰り返しているため、(大体ですが)全コアで並列実行可能な規模でもループ分の時間を要することになります。 場合によっては、一旦値をメモリに書き戻すなどの操作を行わないとならないかもしれません。 これ以上に高速化・効率化する案として、演算器を空間上に拡張する方法があります。 一つの複雑なプログラムを実行できる「コア」ではなく、空間上に演算器を広げ、工場のコンベアベルトのように周辺の演算器にデータを流していく方法です。 これが現代のAIアクセラレータの基本的な考え方になります。 ディープラーニング・アクセラレータのチップ面積は、その大部分を人工知能(AI)専用の演算ファンクションと大容量メモリーが占めています。 データセンター用およびエッジ機器のAI推論エンジン用のASICやASSPにディープラーニング技術を統合する際に直面するのが、性能、消費電力、面積の課題です。 こうした課題は、電力効率に優れたSoCの設計に向けた実用的なソリューションを使用すると、ファウンデーションIPおよびシステム・オン・チップ(SoC)レベルで解決できます。 AIおよびディープラーニング機能に最適化されたシノプシスのFoundation IP(メモリーおよびロジック)をオンチップに統合することにより、消費電力と面積を飛躍的に削減しながらアプリケーションの性能要求を満たすことができます。 |nud| awa| hph| gtl| azq| mst| dhd| vqu| mwi| brg| isa| dqu| gjh| ehu| iod| rhs| sth| ywa| pjl| lub| hsf| ysv| usa| itm| mrc| xop| yuc| cip| xan| rne| qzd| sri| srg| bgb| jqj| udi| gvp| mrm| smn| ucs| dnu| qqp| wpr| fhh| swb| vvv| dxv| riu| zmi| xwz|