AI向けの高性能メモリーを巡り、業界の構図に大きな変化が生じている。市場を二分する韓国SKハイニックスとサムスン電子は、すでに次世代品でも火花を散らしている。
次世代品の年内量産で巻き返し狙うサムスン
半導体メモリー世界トップの座を巡り、サムスン電子とSKハイニックスの2大韓国メーカーが激しく火花を散らしている。両社の間ではこれまで長く「絶対王者のサムスンとその背中を追うSK」という構図が定着していたが、足元ではAI(人工知能)向けの高性能メモリーである「HBM」(広帯域幅メモリー)市場の急拡大を契機として、そのパワーバランスに大きな変化が生じている。
HBM(High Bandwidth Memory=広帯域幅メモリー)とは HBMとはDRAM(一時記憶用半導体)の一種で、AI(人工知能)の計算処理に必要な膨大なデータを迅速・効率的に供給するという重要な役割を果たしている。メモリーチップを縦方向にいくつも積み重ねた構造で、各層の間をTSV(シリコン貫通電極)と呼ばれる高密度の配線で接続し、さらに最下層にはメモリーチップの動作を制御するためのロジックチップが配置されている(上図参照)。 HBMを例えるなら、データが住む高層マンション(積層メモリー)に何台もの高速エレベーター(TSV)を配置し、1階にはすべての住人の移動スケジュールを最適にアレンジしてくれるコンシェルジュ(ロジックチップ)が常駐していると考えれば分かりやすい。この構造により、HBMは従来型のメモリーと比べると、面積当たりの記憶容量が格段に大きく、かつデータの高速・大量処理が可能となっている。 例えば、現行の最新世代「HBM3E」の場合、最大12枚のメモリーチップが積層され、データの入出力を行う配線の数は1024本、1秒当たりに伝送可能なデータ量(帯域幅)は最大1.2テラバイト(テラは1兆倍)にも及ぶ。従来型メモ…
残り3018文字(全文3818文字)
週刊エコノミスト
週刊エコノミストオンラインは、月額制の有料会員向けサービスです。
有料会員になると、続きをお読みいただけます。
・会員限定の有料記事が読み放題
・1989年からの誌面掲載記事検索
・デジタル紙面で直近2カ月分のバックナンバーが読める
WACOCA: People, Life, Style.