High Bandwidth MemoryHigh Bandwidth Memory (HBM)とは、JEDECが規格化した、Through Silicon Via (TSV)技術によるダイスタッキングを前提としたメモリ規格である[1]。北米時間2015年6月16日にAMDによって発表された、開発コードネーム「Fiji」と呼ばれていた製品群にて初めて搭載された[2]。 概要グラフィックカードの設計において、従来のGDDR5ではチップそのものの専有面積に加え、メモリとプロセッサとの間を広帯域幅のバスで結ぶことによる実装面積の増大とそれによって増えたプロセッサとの物理的距離のために、動作電圧の昇圧が必要となり消費電力が増大するという問題を抱えていた。このために、最終的にはメモリの消費電力がGPUの性能向上のボトルネックとなることが予想されていた。メモリチップを縦に積み上げ広帯域のバスでプロセッサと接続するHBMの技術を利用することで、これらの諸問題を解決することができると期待されたが[3]、コストが高く、2015年から2019年にかけてのRadeonのハイエンドモデルに搭載された後はNVIDIA TeslaやRadeon Instinctといった非常に高価格なGPGPU用のGPUやFPGAアクセラレータでの採用に限られ[4]、2024年現在では、ゲーム機を含めたコンシューマ向けのGPUにはGDDR6やGDDR6Xが普及している[5][6]。また2022年にOpenAIがChatGPTをリリースして以降、企業間で生成AIの開発競争が始まり、HBMの後継規格であるメモリのHBM3などの需要が急増している[7]。2024年には,HBM4がアナウンスされた[8]。 関連項目脚注
外部リンク |
Index:
pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve