OpenAIがまさか「本当にオープン化」する…!中国「DeepSeek」を恐れる米国勢が迫られた「方針転換」(現代ビジネス) – Yahoo!ニュース

photo by gettyimages

先月末から突如、世界的な脚光を浴びた中国のAIスタートアップDeepSeek。これまでChatGPTなど生成AIを作り出すには数億ドル(数百億円)もの開発費が必要と見られていたが、同社はそれとほぼ同じ性能のAIをOpenAIなど米国企業の「100分の1」程度の開発費で成し遂げたと見られている(https://gendai.media/articles/-/145019)。 【写真】大胆ショットに全米騒然…トランプ前大統領の「娘の美貌」がヤバすぎる! また、本来LLM(大規模言語モデル)と呼ばれる生成AIの基盤技術を開発するには数万個の先端GPUが必要だが、DeepSeekは「H800」と呼ばれる格落ちGPU(開発元のNvidiaが対中禁輸措置を免れるため、あえて性能を落とした半導体チップ)をわずか2048個使って開発したとされる。 これを受け、米国の主要GPUメーカー米Nvidiaの株価が一時17パーセントも暴落した。その後も不安定な値動きが続いているが、これはDeepSeekの登場で生成AIの開発・運用が効率化され、その分だけGPUの需要が低下するとの見通しに基づいている。 つまりAIがコモデティ化してAI開発への参入障壁が崩れ、OpenAIやNvidiaなど米国勢の優位性が失われてしまう――こうした懸念が米国のAI関係者や投資家の間でパニックを引き起こしたのである。

DeepSeekは生成AIのソフト開発を効率化するための手法をいくつか採用しているが、最も重要なのは「知識蒸留(Knowledge Distillation)」と呼ばれるテクニックだ。これはより大きく複雑なモデル(LLM)を教師役にして、より小さく効率的なモデルが膨大な知識やパラメーター(モデルの性能を左右する変数)を直接受け継ぐ手法である。 本来、OpenAIやグーグルのように正攻法でLLMをトレーニング(機械学習)すると、(前述のような)膨大な計算資源と数億ドルにも及ぶ開発費用が必要になるが、知識蒸留を使うとそれらを大幅に節約しつつモデル本来の性能を維持できる。 ただ、今回DeepSeekはオープンAIのLLMを知識蒸留して自分たちのLLMを開発したのではないかとの嫌疑がかけられている。もしその通りなら、これは一種の製品コピーとなりOpenAI製品の利用規約に違反する不正行為となる。OpenAIはその証拠を握っているとの報道もあるが、まだ最終的な決着はついていない。 いずれにせよ興味深いのは、DeepSeekが生成AIを低コストで作れることを示したのに、OpenAIなど米国勢は生成AIへの巨額投資を止める気配が見られないことだ。直近ではメタやマイクロソフトなどが、いずれも6500億~8000億ドル(10兆円規模)ものAIインフラ投資を発表している。 彼らは恐らく「DeepSeekのような中国企業にできるのは、OpenAIなどのトップ製品をコピーするところまでで、その先には進めない。より高性能の先端AIを開発したり、将来的なAGI(人間を凌ぐ汎用人工知能)など新しい地平を開拓できるのは自分たちアメリカ企業だけで、そのためにはやはり今後とも天文学的な巨額投資が必要だ」と考えているのだろう。 また、これもDeepSeekが示したように、GPUなど資源をより効率的に利用できるようになると、AIなど最終製品の値段が下がって市場が拡大し、それに連れて資源(GPU)の需要も拡大するとの見方もある。 これは「ジェヴォンズの逆説」と呼ばれ、アメリカのビッグテックが(前述の)巨額投資など強気の姿勢を崩していない一因と見られている。その見方が正しければ、エヌビディアなど一時急落したAI関連株もいずれは持ち直して上昇基調に戻ることになるだろう。

現代ビジネス

*******

****************************************************************************

*******

****************************************************************************

Leave a Reply

Your email address will not be published. Required fields are marked *