2025年01月30日

中国製人工知能DeepSeekは何がすごいのか?

人工知能用の半導体GPUとは?

パソコンやスマートフォンなどのコンピューター処理の頭脳に使われる半導体は、大きく分けるとCPUGPUの2つに別れます。
CPUはメインの処理に使われるので、Windowsを動かしたりアプリを起動させるのに利用されていますが、同時に複数の処理を行うには非効率なため、CPUを細かく分割して同時並行処理に特化したものがGPUになります。
人間に例えると、重い荷物を運ぶのは少数の大人(CPU)が効果的ですが、落とした米粒を拾うには複数の子供(GPU)が拾った方が手の数が多いので早いということです。
仮装通貨の生成や画像や動画の変換処理なども、小さく細かい米粒を扱う作業に似ているので、GPUが積極的に利用されてきましたが、最近登場した人工知能AIも膨大な言語を扱うのでGPUの需要が急速に高まってきています。

GPUは2024年に株価が3倍まで跳ね上がった、アメリカの企業NVIDIA(エヌビディア)社が有名です。
教室でも古くから、この企業が作ったグラフィックボードを扱ってきており、ゲームなど高性能なパソコン組み立てには必須の部品でしたが、今では値段が高騰し高性能なものはパーツだけで1つ30万円ほどしますので、気軽に買える部品ではなくなりました。
このGPUを戦争兵器に利用すれば、カモフラージュし草木に隠れる敵や地雷の発見も容易になり、多言語の認識も高速なので敵の情報を分析する諜報活動にも利用が可能です。
特にNVIDIA社の最新GPU(ブラックウェル H100)は最先端の技術を利用し高速かつ膨大な情報が可能で、軍事兵器への転用の危険性から、アメリカは中国に対し輸出規制をかけています。
とは言うものの、NVIDIA社も商売ですから、性能を半減したGPU(ブラックウェル H800)を中国向けに輸出し販売しています。

アメリカ製ChatGPTと中国製DeepSeekは何が違う?

2022年ChatGPTを生み出した、OpenAIのサムアルトマン氏はこのことがあって「他社(中国やロシア)が技術をマネて人工知能で我が社を超えるのは不可能だ!」と発言しています。
2023年には世界の誰もがChatGPTの存在を知ることとなり、2024年にはマイクロソフトのWindowsやWord、Excelがこの機能を搭載することとなりました。
年が明け2025年1月20日(時差で日本では21日)にはトランプ大統領が就任すると、翌日21日にはソフトバンクグループ、OpenAI、Oracle、MGXが人工知能分野に78兆円の投資する「スターゲートプロジェクト」が発表され、誰もがアメリカが一人勝ちで新たな100年産業を人工知能AIの分野でリードすると思いました。
しかし、わずか1週間後の1月28日に、突如として中国のDeepSeekが現われ、低性能なH800GPUを工夫して高性能なH100GPUに匹敵する人工知能を世に放ちました。
市場関係者の間では、「安くてできるなら高性能なGPUはこの先売れないかも?」との不安が広まり、NVIDIA社の株価は下落し、1日で92兆円が時価総額(株価×発行株数)が吹き飛びました。

なぜDeepSeekは「スプートニク・ショック」と言われるのか?

1950年代のアメリカは科学技術の分野で最先端であるという意識が高まり、宇宙開発においては世界をリードしていると思われていましたが、1957年10月4日、ソ連が世界初の人工衛星(スプートニク1号)の打ち上げに成功します。
これにショックを受けたアメリカは有人飛行においてもソ連のガガーリンに先を越されダブルでショックを受けることになります。
この後にアメリカのケネディー大統領は、NASAを立ち上げ、アポロ計画へとつながっていくことになるのですが、今回トランプ大統領が打ち出したスターゲート計画と重なる部分があり、DeepSeekの到来はこの時の衝撃の再来だとも言われています。

中国のDeepSeekはどうやってアメリカのChatGPTに追いついたのか?

アメリカが使用する高性能H100GPUに匹敵する人工知能を、本当に中国のDeepSeekが低性能なH800GPUで作り上げたか懐疑的な見方もあります。

DeepSeekの開発者である梁 文鋒(リャン・ウェンフォン)氏は、あまりにも情報が少なく現時点では実在する人物なのか、人工知能が作り上げた人物なのかは特定できていません。

実在すると仮定された場合の梁文鋒 氏の話です。
  • 1985年生まれ、ChatGPTのサム・アルトマンと同じ歳の40歳。
  • 数学が得意な少年で、ドイツのユダヤ人数学者で楕円関数論で名を馳せ、解析学で有名なカール・ヤコビに傾倒する。
  • 2013年、中国の浙江大学で人工知能を学んだ後に、投資会社ヤコビを設立後にAIを駆使して2兆円を超える財を手に入れました。
  • 2015年、「これからは人工知能が世界を変える!」と確信し、大学友人と二人でハイフライヤー社を創業しました。
  • アメリカが人工知能用の半導体を輸出規制をかける前に、私財を投じて旧型モデルのA100を1万個以上手に入れる。
  • 最先端のGPUのボトルネック(ビンの首の様に流れを妨げる問題点)を発見する。
  • 2023年、GPU半導体同士を相互通信する際の伝達速度が低下する問題を解決しDeepSeekを誕生させる。

この問題はハードウェア(機器)に近いレベルでの問題である為、ソフトウェアをいくらいじっても解決できません。
例えるならば、早口でしゃべる者同士の通訳を、ゆったりと話す人に託すようなものです。
この問題に気付いた梁文峰氏は、通訳のシステムを独自に研究し直し、早口でしゃべる通訳機能を構築しまし、当人同士が普通の速度でしゃべっても会話が弾むレベルに到達しました。
さらに、秘伝のタレである人工知能の構造を無償公開(オープンソースといいます)し、利用料を無料で商用利用可能という形で公開しましたので、一気に世界に知れ渡りました。
(本家のOpenAI社は秘伝のタレのレシピはオープンにしていません)

中華製DeepSeekに未来はあるのか?

DeepSeekは少数精鋭で短期間で作成したものですから、以下の問題が指摘されています。

  • 再現性が無く今後のアップデートに難あり
  • 過程を検証する工程が省かれている
  • 集積したデーターをOpenAI社から盗んだ
  • 中国に不利なセンシティブな問題を聞くと機嫌を損ねる


ソフトウェアには「オープンソース」と「クローズドソース」の2種類があります。
違いはプログラムの中身(ソースコード)を一般公開し改変や複製を認めているかどうかの違いがあり、OpenAI社のChatGPTなどほとんどのソースコードは企業秘密で公開されていません。

DeepSeekは、数多くの関係者から情報漏洩が指摘されていますが、オープンソース故に、人種を超え、国家を超えて世界中から数多のエンジニアが検証し修正に加わるので、これら諸問題も一時の問題です。


日本人にとってはパソコンと言えばWindowsかMacですが、どちらも秘伝のレシピは非公開で肝心な部分はブラックボックスですが、DeepSeekはオープンソースのLinux同様に、人類の英知は人類共有の財産として受け継がれていくことでしょう。

以下はDeepSeek-R1の論文を日本語要約してみました。

この論文は、DeepSeek-AIが開発した**DeepSeek-R1**という大規模言語モデル(LLM:Large Language Models)の推論能力を強化するための研究について説明しています。特に、強化学習(RL:Reinforcement Learning)を用いて、モデルの推論能力を向上させる方法に焦点を当てています。以下に、重要なポイントを分かりやすく解説します。

1. 背景と目的
近年、大規模言語モデル(LLM)は急速に進化し、人工知能(AI:Artificial Intelligence)汎用的な能力(AGI:Artificial General Intelligence)に近づいています。特に、推論能力(数学、コーディング、科学的な問題解決など)を向上させることは重要な課題です。従来のモデルは、教師あり学習(SFT:Supervised Fine-Tuning )に依存していましたが、この研究では、強化学習(RL)を中心に据え、教師データなしでモデルの推論能力を強化することを目指しています。

 2. DeepSeek-R1-Zero から DeepSeek-R1
DeepSeek-R1-Zeroは、教師あり微調整(SFT)を行わず、純粋に強化学習(RL)だけで訓練されたモデルです。RLを通じて、モデルは自己進化し、複雑な推論タスクを解く能力を自然に獲得します。しかし、「可読性の低さ」や「言語の混在」といった課題もありました。
  
DeepSeek-R1はDeepSeek-R1-Zeroの課題を解決し、さらに推論性能を向上させるために、学び直しの「マルチステージ訓練」と、参考にできるデーターが無い初期において「コールドスタートデータ」を導入しました。これにより、OpenAIの最新モデル(o1-1217)と同等の性能を達成しました。

3. 強化学習(RL)のアプローチ
LLMチューニングのための研究では、強化学習手法(GRPO:Group Relative Policy Optimization)というアルゴリズムを使用しています。GRPOは、従来のRLアルゴリズムよりも効率的で、モデルの推論能力を向上させることができます。
  
報酬モデルRLの訓練では、「正確性」と「フォーマット」に基づく報酬を使用します。例えば、数学の問題では、正しい答えを出すことが報酬となり、フォーマット(例: `<think>`タグ内に推論プロセスを書く)も評価されます。

4. 蒸留(Distillation)
DeepSeek-R1の推論能力を、より小さなモデルに蒸留する方法も検討されています。蒸留(Distillation)とは、大きなモデルの知識を小さなモデルに移行する技術です。この研究では、アリババ研究所の「Qwen」メタ社の開発した「Llama」といったオープンソースのモデルを使用し、DeepSeek-R1の推論能力を小さなモデルに移行することで、小さなモデルでも高い推論性能を発揮できることを示しています。

5. 評価結果
DeepSeek-R1は、以下のようなベンチマークで優れた性能を発揮しました。
  • 数学タスクAIME 2024で79.8%、MATH-500で97.3%の正解率を達成。
  • コーディングタスク Codeforcesで96.3%のパーセンタイルを達成。
  • 知識タスク MMLU(大規模多タスク言語理解)で90.8%の正解率を達成。

6. 今後の課題
汎用能力の向上: 現在のDeepSeek-R1は、複雑なロールプレイやJSON出力などのタスクにおいて、前世代のDeepSeek-V3に劣る部分があります。今後、長い推論プロセス(CoT:Chain of Thought)を活用してこれらのタスクを改善する予定です。
  
言語の混在: 現在、DeepSeek-R1は中国語と英語に最適化されていますが、他の言語でのクエリに対応する際に言語が混在する問題があります。この問題を将来的に解決する予定です。

7. まとめ
この研究は、強化学習を用いて大規模言語モデルの推論能力を向上させる新しいアプローチを示しています。特に、教師データなしでモデルが自己進化する能力を実証し、OpenAIの最新モデルと同等の性能を達成しました。また、小さなモデルへの蒸留にも成功し、効率的な推論モデルの開発に貢献しています。

AIの世界での進化にはオームス(OOMs:Order of Magnitude)という単位が使われていますが、これは2倍3倍という成長ではなく10倍20倍と言う単位です。
例えばChatGPT4.0はChatGPT2.0から2オームス増えているので100倍の進化となります。
来年はChatGPT5.0になるのかと思っていましたが、DeepSeekの登場で状況が一変しました。
これまでのAIはネットにアップされている情報を収集し、企業の中で閉鎖的に人の手で育てられ管理されてきました。
しかし、DeepSeekはこれら技術を無償公開し、人工知能同士を使って光の速さで問答させ始めました。
人間と同じように対処できる汎用人工知能(AGS)は2027年に、人間を超える人工超知能(ASI)は2029年頃と言われていました。
欧州連合ではDeepSeekの規制に乗り出しましたが、勢いは止まらず年内にはシンギュラリティに到達してしまいそうな勢いです。



oneclickpc1 at 13:24コメント(0)人工知能AI | パソコン授業風景 

コメントする

名前
 
  絵文字
 
 
Archives
QRコード
QRコード
  • ライブドアブログ