近況は「お知らせ」に紹介するようにしました。「注意して下さい」もお読み下さい。

GPU優遇の夢が暗転? 韓国 AI強国戦略に“現実”が追いつかない

大韓民国ニュース
この記事は約11分で読めます。

韓国さんは愉快だな。

【コラム】GPU26万枚の重さ=韓国

2025.11.04 13:05

チメクからブラックウェルGPUまで。ジェンスン・フアン(エヌビディアCEO)は緻密だった。15年ぶりに訪れた韓国で彼は韓国の財閥3世会長をソウル・三成のチキン店に呼び出す破格から始まり、「韓国に(その貴重な)GPU26万枚を優先供給する」というサプライズ発表を出した。2日間にわたりジェンスン・フアンが受けた熱烈な歓待はこの取引の決定権者がだれだったかを見せる。「私の金で買ったもの」なのに、「買わせてくれてありがとう」と言わなくてはならないのがいまのGPUだ。

中央日報より

韓国チキンとビールの組み合わせを「チメク」と言うそうだが、そんなもので歓待されたエヌビディア(NVIDIA)CEOは怒り出さなかったのだろうか?という疑問も沸く。それはさておき。問題は「26万枚を本当に優先供給してもらえるのか」という点だ。

スポンサーリンク
スポンサーリンク

不安要素の見えたAI強国

26万枚はいつ手に入るのか

この話、別に虚報だというわけではない。

NVIDIA、韓国政府、そして産業界の大手企業が、韓国のイノベーション、産業、雇用を促進するためのAIインフラとエコシステムを構築

2025年10月31日

韓国政府、コンピューティングおよび製造業のリーダーが、物理 AI とエージェント AI 向けに 26 万台以上の NVIDIA GPU を追加

エヌビディアのサイトより

NVIDIA自体が「26万台以上のGPUを韓国向けに追加する」とプレスリリースを出して、投資家に向けたアピールをしている。

ただし、リリースは“追加する”とだけ書いており、「いつまでに」「どの世代のチップを」「どの用途向けに」という点は明確にしていない。

ちなみにNVIDIAは、最新のBlackwellチップの生産量が2025年第1四半期時点で80万枚程度ということなので、生産能力的には理論上は供給可能。

ただし、世界中から引き合いが強く、実際の納期や優先順位は流動的だ。

増す韓国内での需要

そもそも、今年の初めには1万8000枚必要とか言っていたんだよね。

韓国政府、GPU確保計画の背景は…米・仏など火がついたAIインフラ拡充競争

登録 : 2025-02-17 16:29:55 修正 : 2025-02-17 16:29:55

韓国政府が高性能グラフィック処理装置(GPU)1万8000枚の確保計画を明らかにしたのは、人工知能(AI)インフラの構築を早期に行わなければ、ややもすればAI競争で押される可能性があるという危機意識が反映されたものと分析される。

当初、政府は2030年までに3万枚の高性能サーバー用GPUを構築するという方針だった。期限に余裕を持って置き、中長期的にAIインフラ競争に備えるという次元だった。

亜洲日報より

ところが、2027年までに3万枚必要、足りないとか言い出した。短期間で数字が拡大している。

その上での26万枚確保の朗報だったので、「スムーズにことが運んでいる印象」はあったんだけど、計画の拡張が現場の現実と噛み合っているか、冷静に見極める必要がある。

電源供給不安

また、中央日報のコラムは「26万枚が手に入る前提」で記事を書いているものの、別の不安要素を示している。

ところが華麗なGPUの約束と違い、電力網問題は複雑で至難だ。特に文在寅政権でイデオロギー化した原発はAI時代に代替するのが容易でないエネルギー源なのに、李在明政権でも依然として身をすくめている。今後40年は使えるという古里原子力発電所2号機の寿命延長(継続運転)案件をめぐり原子力安全委員会が9月と10月の2回連続で決定を留保すること自体がメッセージだ。

中央日報「GPU26万枚の重さ=韓国」より

電力も電力網も足りてないよと嘆いているのである。GPUが手に入っても、データセンターを回す電力が足りなければ意味がない。そりゃご愁傷様。

AIインフラはGPUだけで成り立つわけではない。電力、冷却、ラックスペース、ネットワーク、運用人材──どれをとっても不可欠な要素だ。GPUだけ積めばAI強国になれる、という単純な図式は現場の実務を無視している。

お寒い限りである。

トランプ氏は否定

さらに厄介なのは、米国側の政治発言だ。NVIDIAが26万枚売ってくれる!と喜んではいるが、トランプ氏にその気はない。

Trump says nobody “other than the United States” will have access to Nvidia’s most advanced Blackwell GPUs

November 03, 2025

ドナルド・トランプ大統領は、エヌビディアの最新鋭のブラックウェルチップは米国の顧客のみが利用できるべきだと述べた。

彼のコメントは、NVIDIAのCEOであるジェンスン・フアンが同社がこのチップを「いつか」中国の顧客に販売できるようになることを期待すると発言してから数日後に出されたものだ。

DCDより

この発言は、NVIDIAの韓国に26万枚供給しますよと言うニュースが出た後の話なので、韓国への供給にも赤ランプが点灯した状況だ。

トランプ氏の発言の信憑性にも問題があるので、この話は何を何処まで信用して良いかはよく分からないが、韓国側は、NVIDIAとの合意だけで安心していい状況にはない。米政権の動きや輸出管理、優先順位設定などが絡む不確実性が残る。

まとめ

「AI戦争に勝つ」「世界3位を目指す」といったスローガンは見栄えが良い。しかし肝心のインフラ整備(電力・冷却・人材・供給の確実性)が伴わなければ、単なる空約束に終わる可能性が高い。

そうすると、頼みの綱は軍拡だけなんだけど……、こっちも原子力潜水艦の方は絶望的なので、地道に自国に作れる兵器を作っていくべきなのではないか。

一番良いのは、砲弾のような消耗品をコンテンツとして持つことなのだろうね。

追記

コメントで興味深い話を聞けたので、今一度、NVIDIAのプレスリリースについて確認しておこう。

News Summary:

  • The Korean government, through the Ministry of Science and ICT, is investing in sovereign AI infrastructure with over 50,000 of the latest NVIDIA GPUs to be deployed across the National AI Computing Center and Korean cloud service and IT providers NHN Cloud, Kakao Corp. and NAVER Cloud.
  • Samsung Electronics is building an AI factory with over 50,000 GPUs to accelerate its AI, semiconductor and digital transformation roadmap.
  • SK Group is building an AI factory featuring over 50,000 NVIDIA GPUs and Asia’s first industrial AI cloud featuring NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs for physical AI and robotics workloads.
  • Hyundai Motor Group is collaborating with NVIDIA and the Korean government in building an NVIDIA AI factory with 50,000 NVIDIA Blackwell GPUs to enable integrated AI model training, validation and deployment for manufacturing and autonomous driving.
  • NAVER Cloud is expanding its NVIDIA AI infrastructure with over 60,000 GPUs for enterprise and physical AI workloads.
  • NAVER Cloud, LG AI Research, SK Telecom, NC AI, Upstage and NVIDIA are developing Korean foundation LLMs to accelerate Korean AI applications​ through public-private partnerships.
  • The Korea Institute of Science and Technology Information is establishing a Center of Excellence for the advancement of quantum computing and science.

~~対訳~~

ニュース概要:

  • 韓国政府は科学技術情報通信省を通じて、国家AI計算センターおよび韓国クラウドサービス・ITプロバイダーであるNHN Cloud、Kakao Corp.、NAVER Cloudに5万台以上の最新NVIDIA GPUを導入し、主権AIインフラへの投資を進めている。
  • サムスン電子はAI、半導体、デジタル変革ロードマップを加速するため、5万台以上のGPUを備えたAI工場を建設中である。
  • SKグループは5万台以上のNVIDIA GPUを配備したAIファクトリーを建設中。物理AI・ロボティクスワークロード向けNVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したアジア初の産業用AIクラウドも併設。
  • 現代自動車グループはNVIDIA及び韓国政府と連携し、5万台のNVIDIA Blackwell GPUを配備したNVIDIA AIファクトリーを建設中。製造・自動運転向け統合AIモデル訓練・検証・展開を実現。
  • NAVER Cloudは、企業向けおよび物理AIワークロード向けに6万台以上のGPUを投入し、NVIDIA AIインフラを拡大中。
  • NAVER Cloud、LG AI Research、SK Telecom、NC AI、Upstage、NVIDIAは官民連携により韓国語基盤LLMを開発し、韓国AIアプリケーションの加速を推進。
  • 韓国科学技術情報研究院は量子コンピューティング・科学の推進に向けた卓越研究センターを設立。
NVIDIAのサイトより

韓国政府、コンピューティングおよび製造業のリーダーが、物理 AI とエージェント AI 向けに 26 万台以上の NVIDIA GPU を追加としていて、その概要について紹介しているのがこのプレスリリースであった。

ただし、このほかにもこんなものが発表されている。

NVIDIA and SK Group Build AI Factory to Drive Korea’s Manufacturing and Digital Transformation

October 30, 2025

New AI Infrastructure With Over 50,000 NVIDIA GPUs to Boost Chip Design, Digital Twin, Robotics and AI Agent Development.

~~略~~

SK グループは、50,000 台を超える NVIDIA GPU を搭載した AI 工場を建設しており、第 1 フェーズは 2027 年後半に完了する予定です。完成すると、このシステムは韓国最大級の AI 工場の 1 つになると予想されます。

新工場は、SK hynix や SK Telecom (SKT) などの SK 子会社や外部組織に GPU サービス モデルを通じてサービスを提供し、韓国の産業のデジタル変革と産業革新を加速します。

NVIDIA と SK グループのパートナーシップをさらに拡大し、両社は SK hynix の高帯域幅メモリ (HBM) と、NVIDIA GPU、半導体製造、通信インフラストラクチャ向けの次世代の高度なメモリ ソリューションの開発で協力しています。

NVIDIAのサイトより

この他にも、

  • 「Samsung and NVIDIA are building on a deep partnership … to extend their semiconductor collaboration from next-generation HBM and custom solutions to foundry services for manufacturing …」NVIDIAのサイトより(意訳)Samsung と NVIDIA が次世代 HBM を含む協業拡大で合意している旨の表現。
  • NVIDIA 製品説明(Blackwell)では「Blackwell… are manufactured using a custom-built TSMC 4NP process.」と明記(=GPUダイは TSMC 製造)。

などがある。

要は、NVIDIAによれば韓国企業と「協業・供給・研究開発・工場構想」を示しているという事になる。

HBM(高帯域幅メモリ)は SK hynix と Samsung が主要供給元。最近の協業発表で Samsung も HBM3E/HBM4 に絡む協力を表明しているので、確かにNVIDIA が次世代 HBMについて韓国企業から供給を受ける話は出ている。

ただし、エヌビディアCEOのジェンスン・フアン氏の発言については、韓国は最終製品の納入先としても魅力的で26万枚以上売れそうだという、投資家向けのアナウンスと捉えるべきで、韓国への納入を約束したというのは、少し飛躍した話である。

ということで、冒頭のコラムに関して言えば、26万枚納入確定だけど電力が足りないという旨の前提部分がやや怪しく、電力供給不安も現実のものだねという理解が堅そうである。

じゃあ、トランプ氏の発言は?というと、そこはあまり深刻にとらえる必要はなかろうと思っている。何しろ、発言内容はその時々で変わるので、実際に次のステップにならないとはっきりしたことは分からないのだ。

コメント

  1. 軍事オタクより より:

    大量の電力が必要で電力は絶対足りないでしょうね
    バックアップセンターも非常用電源も又火災起こしそうだし
    まあ日本もAIを使うなら電力が今のままでは足りないでしょうね
    太陽光発電とか風力発電とか安定性に欠けるしで難しい問題ですね

    • 木霊 木霊 より:

      そういう意味で、高市氏のSMR推しはある意味正しいと思いますよ。
      1家に1台ではありませんが、バックアップセンター毎に欲しいところ。

  2. 七面鳥 より:

    こんにちは。

    >電力も電力網も足りてない

    アメリカで原潜作って(≒買って)、港に繋いで発電機にして置けば……

    ※そんなモノでは到底足りない。

    • 木霊 木霊 より:

      こんにちは。

      原子炉作るのにも右往左往しているのに、どうして原子力潜水艦を作りたがるのか謎ですよ。
      この辺りもどう料理していくのかは楽しみにしています。

  3. 匿名 より:

    まあ100歩譲って初年度のGPUは納品されるかもだけど、その後のらりくらりとはぐらかされて10年ギリギリに納入されるんじゃw
    今のGPUって年スパンで性能上がりますからねぇ
    自分の信仰宗教にnvidia教ありますけど…個人利用の自分ですら2サイクルに一回はお布施してますもん(笑)
    ミョンミョンもぶち上げるなら3年以内にH200を超えるAIチップを開発するとか言ってくれたほうが傍観者としては面白いんですけど…

    • 木霊 木霊 より:

      信者の方でしたか(かなり失礼)。
      冗談はさておき、GPUの進化のスピードはヤバいですね。発熱の方もヤバいので困ったものですが、その辺りに業を煮やして「国産化するニダ」と言い出すまでがお約束です。
      できの悪いコントみたいで面白いんですが。

  4. BOOK より:

    こんばんは

    ん? 元コラムは言葉の端を捉え損なった誤解では?

    「前提知識」
    普通のICや、数年前までのCPUやGPUは ウエハから切り出した長方形のダイ(ベアチップとも言う)に
    配線用の端子をワイヤボンドしプラスチックのケースにパッケージングしたモノを一つのIC製品として売ります。

    特例としてプラスチックケースの形や大きさ迄もがサイズ問題となるスマホ屋さん等には、IC屋さんもウエハやダイの形で売ることもある。

    即ちレガシーICなら、
    ウエハ供給≒IC製品 供給
    と言う図式も間違いではない

    しかし今どきのハイエンドGPUは?
    は、ウエハから切り出したGPUダイにHBM等を一緒にパッケージングして下リンクの形でGPU製品にします。
    https://dmassets.micron.com/is/image/microntechnology/product-hbm3e-tech-illustration%3A3-2-all-others?ts=1753765640998&dpr=off

    「本題」
    すなわち最先端GPUは NVIDIAで設計しTSMCで製造したGPUウエハ,ダイを、HBM他と一緒にアセンブルしてGPUチップ製品となる。
    ウエハ供給≠製品供給

    しかるに韓国SKはHBMの世界最大サプライヤーかつHBMアセンブリ技術のトッププレーヤー。
    だから NVIDIAの最先端GPUの最終組み立て工場の一番大きい場所は、

    そりゃ韓国になるのでは?

    ただし韓国はそのGPUのエンドユーザーではない。

    「結論」
    GPUウエハは韓国に最も多く向かうけど、それは最終組み立て工場としてのハナシ。

    と言う ギョーカイうんちく に基づけばNVIDIA CEOの発言とトランプ発言の間に 特に矛盾は無いのだけど、

    K-現実は一般常識では測れないので続報待ちですか(苦笑)

    • 木霊 木霊 より:

      こんばんは。

      丁寧にありがとうございます。
      なるほどパッケージですもんねぇ。
      ただ、NVIDIAのプレスリリースで、最終製品が韓国にということはほぼ確実のようですよ。その辺りは追記で書かせていただきました。トランプ氏の発言は……、まあ、あまりあてになりませんよね。

      • BOOK より:

        解説ありがとう ございますNVIDIAも志那と言う大口需要が難しい所で、韓国に大口需要が期待できるなら取りたいのもホンネて所ですかね?

        所で ちょい言い訳^_^;
        あちこちのGPUの「数」表記の違和感です。結論から先に言うと
        GPUの「チップ個数」は「ウエハ枚数」の30~300倍と、数量に大きな違いがある
        この違いを認識してないように見える元記事の、必要電力計算に意味があるのかいな?

        てことです。
        私の勘違いも一部、ホントかな疑問も一部、翻訳ブレかなも、、、
        前コメで説明不十分でしたので以下 長々と補足説明をm(_ _)m

        関連記事でGPU数を3万枚とか26万枚とか「枚」表示が散見されますが これには非常に違和感があって、
        「枚」は中のヒトが使う単位でだし、また中のヒトの感覚だと「枚」は「ウエハ枚数」なんですね。

        で ウエハは中間製品ですから「AIデータセンター建設にウエハが何枚要る」と言う表現はエンドユーザー表現じゃ無いなあと。

        例は悪いですが 「レストランが上質牛ステーキを100人分作るのに牛が何頭要る」と言ってる例外的レストランみたいな…例外じゃないレストランなら「上質牛肉xキログラム要る」で 、それに牛が何頭要るかは 肉屋さんから上流サプライヤーの受け持ちでしょう。

        ハナシ戻して、ウエハとは今の最先端用では直径300mm(12inch)×厚さ0.775mmの単結晶シリコンの円盤です。
        そしてNvidia Blackwellシリーズだと300mmウエハ1枚の中に100~300個ほど(型番で異なる)作り込みます。

        完成したら切離して検査、良品をHBM等とアセンブルしてGPUチップとします。

        切り離した後は「枚」じゃなく「個」になりますが、英語でエライヒトの数え方は どちらもpieceなのかも知れませんね^_^;

        また最先端ICだと初期歩留まりは最悪30%てのも在りますから、ウエハ1枚から取れるチップ個数はざっくり30~300個と大きな幅がある。

        ゴチャゴチャ蘊蓄披露して申し訳ありませんが、

        肝心な点はGPUの「チップ個数」は「ウエハ枚数」の30~300倍で、数量に大きな違いがある

        この違いを認識してないような元記事の、必要電力計算に意味があるのかいな?

        て ことでしたm(_ _)m

        • 木霊 木霊 より:

          おー、なるほど。
          電力計算の話、腑に落ちましたよ。

          単純に足りないことは明白なので特にツッコミはしませんでしたが、そういうからくりというか認識の誤解があるのですか。
          僕自身、記事を書いている感覚が「GPU搭載したグラボって電力食うからなぁ」くらいのイメージだったんですが、それならグラフィックボード(あるいはH100)って書きますもんね。実際にはGPUを利用するのであれば、チップの個数になるはずで。
          ただ、多くのメディアはあまりその辺り頓着していないようで、H100ボードのことを指してGPUと書いているのではないかと。だから「枚」なのではないかなと。

          実は、Nvidiaのプレスリリースを訳すと「◯個の NVIDIA Blackwell GPU を備えた NVIDIA AI ファクトリー」などと訳しているのですよね。つまり、おそらくはサーバーの台数をカウントしてそれにGPUが使われるという表現です。そうすると、中央日報は勘違いしている可能性が高そうですよ。
          「個」と「枚」の理由に関しては少し調べてみたいですね。

  5. BOOK より:

    即ちこのハナシは

    ジェンスン・フアン(エヌビディアCEO)
    「最新GPU大増産するから、対応するHBM大増産とアセンブリ大増量、場合によっては設備投資ヨロピクー」
    to>SK財閥トップ

    てな、アタリマエの商売仁義が実態

    なのに、
    カンケー無い政府AIやデータセンター戦略に絡め 自分は何もしてないのに 手柄を主張したり、逆に手落ちを指摘して足引っ張ってみたりの

    意味不明のK仕草なのでは無いでしょうか?

    • 砂漠の男 より:

      自分も同感です。
      SKのHBM4がnvidiaのRubin AI GPUに搭載される話が出ていましたからね。
      J・ファンは「韓国にGPU26万枚を優先供給する」と言ったのかもしれませんが、
      それは「HBM、用意しといてね」ってことでしょうと。

    • 木霊 木霊 より:

      ただ、ご指摘の流れはおそらく本音の部分だと思われまして、韓国に対して優先的にモノを渡すとは言っていません。
      材料を供給してもらう手前、ある程度の供給はするんでしょうけれど、他と特に差を付ける感じでには感じられませんでした。。

  6. 匿名 より:

    NVDIAのGPUを使ったAIは次世代までの繋ぎでしかない
    IPS細胞から作られた脳オルガノイドを使ったAIの方が学習が早く消費電力が少ない
    韓国は基礎研究をしないので関心もないようです

    • 木霊 木霊 より:

      脳オルガノイド!
      R-TYPE…。

      随分と研究は進んでいるようですが、すごい時代になったものですね。

    • BOOK より:

      仰るように、脳オルガノイドは
      例えばピンポンゲームやブロック崩しゲームの学習で
      デジタルコンピューター上のDNN(Deep Neural Network)の約1/10の学習回数で同等の腕前に達する
      驚異的な学習効率を誇る(しかもその理由が良く解っていない)
      ことは一部の界隈(笑)では有名です

      が、 こちらは言うはヤボで言及されませんが、有機ニューロンはデジタルコンピュータより遥かに遅く、実速度ではデジタルDNNの圧勝ですよ。

      理論限界でも 神経伝達速度 60~70m/秒 と電気信号伝達速度 15万km/秒(光速の約半分) の絶望的な越えられない壁が邪魔して、約200万倍の差があります。

      即ち脳オルガノイドは次世代AIの基盤じゃなく別の用途がメインと思います。

      例1) 有機NNの仕組みを解明し、デジタルDNNの改良に役立てる

      例2)人間側のインターフェースとして人間の神経等に接続し、デジタルコンピュータとの橋渡しをする、有機メカとして、、

      個人的には2)の用途の方が技術的には有望ですが 倫理的なハードルが遥かに高そうですね(^-^;