ネトウヨの脳みそ、中国で開発。革命的AI「1ビット脳」を発表

サムネイル
1 : 2024/02/29(木) 12:00:49.33 ID:q3FUjUD80GARLIC

Microsoftの中国チームがとてつもないLLMをリリースした。それが「BitNet 1.58Bits」だ。
もともとMicrosoftはかねてから「1ビット量子化」の研究を続けて来た。しかし、32ビット浮動小数点での計算が主流な時代にはあまりに野心的で荒唐無稽なプロジェクトに見えていたのは否めない。しかし、現在、大規模言語モデル(LLM;Large Language Model)は8ビット、4ビットで量子化されるのが当たり前になり、量子化しても性能劣化はある程度まで抑えられることも知られるようになった。

昨年10月に発表した「BitNet」は、多くの人々が他のことに気を取られていてほとんど話題にならなかった。
そんな中、満を持して発表された1ビットLLMの性能に関するレポートは、衝撃的と言っていい内容だ。論文のタイトルも堂々と「The Era of 1-bit LLM(1ビットLLMの時代)」としている。

https://wirelesswire.jp/2024/02/86094/

2 : 2024/02/29(木) 12:01:41.53 ID:q3FUjUD80GARLIC
まず、最近主流になっている70B(700億)パラメータモデルでの比較である。Llamaの70BとBitNetの70Bモデルを比較すると、BitNetは8.9倍のスループットを誇るという。
「速いだけで回答が微妙なのでは」と心配するのが普通だろう。
そこでLlamaモデルとの比較が載っている。

この表によると、BitNetはLlamaよりも3倍高速でしかも高精度ということになる。
PPLは「困惑」の度合いを意味する数値で、低いほど「困惑してない」ことになる。Llamaよりも性能劣化してないどころか性能は上がっている。

また、各種ベンチマークにおいても平均点は同規模のBitNetがLlamaを上回っている。しかもBitNetは規模が大きくなるほどLlamaに対して優位に立つようになっている。

この圧倒的なスピードの秘密は、BitNetが文字通り「1ビットで処理している」からだ。

3 : 2024/02/29(木) 12:02:09.49 ID:q3FUjUD80GARLIC
通常、LLMをふくむディープラーニングされたニューラルネットは巨大な行列の積和演算(掛け算と足し算)を必要とする。
推論時も学習時もそうだ。
しかし、1ビット、つまり、行列の中身が0か1しかないのであれば、全ての計算を加算演算のみにできる。
加算と乗算では計算速度も負荷も段違いに異なるため、これだけのスピードの差が出ている。また、当然ながらメモリ効率も高い。

このため、この論文では「積和演算に最適化されたGPUではなく、加算処理のみに特化した新しいハードウェアの出現」までもが予言されている。
今現在、世界各国が血眼になってGPUを確保し、囲い込んでいることを考えると、実に痛快な論文だ。

4 : 2024/02/29(木) 12:02:27.69 ID:pyoiqlne0GARLIC
わらた
5 : 2024/02/29(木) 12:02:42.17 ID:q3FUjUD80GARLIC
非常に驚異的なことが書いてあるのだが、残念ながらBitNetによるLLMの実装とモデルはまだ公開されていない。
だから彼らの主張が本当かどうかはまだ誰にもわからないのだが、BitNetTransformerの実装だけは公開されているため、腕に覚えがあるエンジニアなら自分でトレーニングコードを書いて確かめることができる。
いずれにせよ、 この論文が本当だとしたら、とんでもないことが起きることになる。

この業界に居て長いが、本当にいつもいつも、こんなニュースに触れて興奮できるこの時代を生きる我々は幸運としか言えない。
もちろん筆者もBitNetを試してみるつもりだ。

6 : 2024/02/29(木) 12:02:57.56 ID:u3NXvXI50GARLIC
これスレタイ大賞だろ
7 : 2024/02/29(木) 12:03:26.52 ID:0nuF1AeE0GARLIC
量子ビットだから通常のデジタル量1ビットのジャップより遥かに高性能なのでは?
8 : 2024/02/29(木) 12:04:39.82 ID:n7P66JG2dGARLIC
小難しい事言われてもわかんねぇんだよ
もっとわかりやすく教えてくれ
9 : 2024/02/29(木) 12:05:04.38 ID:AwJG5H4e0GARLIC
1ビットアンプって一瞬流行ったな
あれは今でもあんの?
10 : 2024/02/29(木) 12:06:40.78 ID:BUd03kzK0GARLIC
れいわとか好きそうな脳だな
12 : 2024/02/29(木) 12:07:14.70 ID:A4Q5LqIqHGARLIC
時代はシリアル
13 : 2024/02/29(木) 12:07:43.69 ID:qG2cR9Y50GARLIC
ネタスレみたいになってるけど、これ凄いからなw
14 : 2024/02/29(木) 12:07:47.82 ID:pyoiqlne0GARLIC
安倍晋三とか好きそう
16 : 2024/02/29(木) 12:09:28.34 ID:xl4JkwbrMGARLIC
「これだけのスピードの差が出ている。また、当然ながらメモリ効率も高い」

ネトウヨ脳はハイスペック
パヨク脳は旧世代ってわけか

17 : 2024/02/29(木) 12:09:29.41 ID:WTvk3yuY0GARLIC
秀逸なスレタイ
18 : 2024/02/29(木) 12:10:37.70 ID:T8o47qX00GARLIC
これ1bitじゃなくて1tritじゃないの
19 : 2024/02/29(木) 12:10:40.66 ID:pD2yqSOc0GARLIC
関連株漁った、まぁ宝くじみたいなもんよ
20 : 2024/02/29(木) 12:10:41.53 ID:VlUbSmJk0GARLIC
電子機器の話は細かい事は分からないなりに何となく仕組み分かった気になれるんだけど
量子はマジで全く分からん

説明を聞いてても俺には何かの宗教の説法を聞いてるような気分になってしまう
何だよ重ね合わせの状態って

30 : 2024/02/29(木) 12:24:15.46 ID:RPHExhva0GARLIC
>>20
これは量子力学や量子コンピューターの話は関係ないと思う
ニューラルネットの計算に今までは8bitや4bitの実数値を使って(量子化して)いたけど、さらに減らして{-1, 0, +1}の3値にしたら精度落ちるどころかむしろ良くなったという
21 : 2024/02/29(木) 12:13:09.45 ID:ooBSMZuJ0GARLIC
中国倒産は量子力学ガチ勢だから
量子通信衛星も2016年に打ち上げて、国家中枢では既に実用化されてる筈
22 : 2024/02/29(木) 12:13:15.47 ID:lpG1QQLu0GARLIC
やっぱりバカウヨの脳ミソって中国製だったのか。ナルホド納得だね。
23 : 2024/02/29(木) 12:14:41.68 ID:NBnX3Qlo0GARLIC
三体問題解けそう?
24 : 2024/02/29(木) 12:15:02.87 ID:ReSHL7z80GARLIC
どおりでネトウヨって中国に詳しいわけだw
25 : 2024/02/29(木) 12:15:47.38 ID:u7kPhnqU0GARLIC
ネトウヨ 0 1
BitNet -1 0 1

ラベルが違う

26 : 2024/02/29(木) 12:16:35.50 ID:JiZF4jBt0GARLIC
左のネトウヨ「ネトウヨは脳が1ビット」
27 : 2024/02/29(木) 12:18:02.13 ID:n/M4RKXq0GARLIC
LLaMAが流出したときに64Bモデルを4bit量子化させて動かしてみたけどやっぱり量子化してない素の16Bのほうが正確に受け答えできてたね
その後もrinnaのGGMLモデルとか触ったりしたけど何だかんだで、16bit floatや32bit floatのほうが精度が高いのはどうしようもなさそうだけど、1bit量子化で4bit量子化程度の精度を確保できたとしたらすごいことだとは思う
28 : 2024/02/29(木) 12:18:34.37 ID:gzB0hu6I0GARLIC
LLMは大量のパラメータをトレーニングすることで出来てるけど、そのパラメータを全部1ビットにしたって事ね
パラメータ数は多いから全体で1ビットということではない
29 : 2024/02/29(木) 12:22:59.62 ID:gzorxEZkMGARLIC
案の定
ネトウヨ「左のネトウヨガー」
絶対出ると思ってたw
31 : 2024/02/29(木) 12:28:08.06 ID:FdJ8WxFp0GARLIC
格子ベクトル問題やれそう?

コメント

タイトルとURLをコピーしました