- 1 : 2024/02/29(木) 12:00:49.33 ID:q3FUjUD80GARLIC
-
Microsoftの中国チームがとてつもないLLMをリリースした。それが「BitNet 1.58Bits」だ。
もともとMicrosoftはかねてから「1ビット量子化」の研究を続けて来た。しかし、32ビット浮動小数点での計算が主流な時代にはあまりに野心的で荒唐無稽なプロジェクトに見えていたのは否めない。しかし、現在、大規模言語モデル(LLM;Large Language Model)は8ビット、4ビットで量子化されるのが当たり前になり、量子化しても性能劣化はある程度まで抑えられることも知られるようになった。昨年10月に発表した「BitNet」は、多くの人々が他のことに気を取られていてほとんど話題にならなかった。
そんな中、満を持して発表された1ビットLLMの性能に関するレポートは、衝撃的と言っていい内容だ。論文のタイトルも堂々と「The Era of 1-bit LLM(1ビットLLMの時代)」としている。 - 2 : 2024/02/29(木) 12:01:41.53 ID:q3FUjUD80GARLIC
-
まず、最近主流になっている70B(700億)パラメータモデルでの比較である。Llamaの70BとBitNetの70Bモデルを比較すると、BitNetは8.9倍のスループットを誇るという。
「速いだけで回答が微妙なのでは」と心配するのが普通だろう。
そこでLlamaモデルとの比較が載っている。この表によると、BitNetはLlamaよりも3倍高速でしかも高精度ということになる。
PPLは「困惑」の度合いを意味する数値で、低いほど「困惑してない」ことになる。Llamaよりも性能劣化してないどころか性能は上がっている。また、各種ベンチマークにおいても平均点は同規模のBitNetがLlamaを上回っている。しかもBitNetは規模が大きくなるほどLlamaに対して優位に立つようになっている。
この圧倒的なスピードの秘密は、BitNetが文字通り「1ビットで処理している」からだ。
- 3 : 2024/02/29(木) 12:02:09.49 ID:q3FUjUD80GARLIC
-
通常、LLMをふくむディープラーニングされたニューラルネットは巨大な行列の積和演算(掛け算と足し算)を必要とする。
推論時も学習時もそうだ。
しかし、1ビット、つまり、行列の中身が0か1しかないのであれば、全ての計算を加算演算のみにできる。
加算と乗算では計算速度も負荷も段違いに異なるため、これだけのスピードの差が出ている。また、当然ながらメモリ効率も高い。このため、この論文では「積和演算に最適化されたGPUではなく、加算処理のみに特化した新しいハードウェアの出現」までもが予言されている。
今現在、世界各国が血眼になってGPUを確保し、囲い込んでいることを考えると、実に痛快な論文だ。 - 4 : 2024/02/29(木) 12:02:27.69 ID:pyoiqlne0GARLIC
-
わらた
- 5 : 2024/02/29(木) 12:02:42.17 ID:q3FUjUD80GARLIC
-
非常に驚異的なことが書いてあるのだが、残念ながらBitNetによるLLMの実装とモデルはまだ公開されていない。
だから彼らの主張が本当かどうかはまだ誰にもわからないのだが、BitNetTransformerの実装だけは公開されているため、腕に覚えがあるエンジニアなら自分でトレーニングコードを書いて確かめることができる。
いずれにせよ、 この論文が本当だとしたら、とんでもないことが起きることになる。この業界に居て長いが、本当にいつもいつも、こんなニュースに触れて興奮できるこの時代を生きる我々は幸運としか言えない。
もちろん筆者もBitNetを試してみるつもりだ。 - 6 : 2024/02/29(木) 12:02:57.56 ID:u3NXvXI50GARLIC
-
これスレタイ大賞だろ
- 7 : 2024/02/29(木) 12:03:26.52 ID:0nuF1AeE0GARLIC
-
量子ビットだから通常のデジタル量1ビットのジャップより遥かに高性能なのでは?
- 8 : 2024/02/29(木) 12:04:39.82 ID:n7P66JG2dGARLIC
-
小難しい事言われてもわかんねぇんだよ
もっとわかりやすく教えてくれ - 9 : 2024/02/29(木) 12:05:04.38 ID:AwJG5H4e0GARLIC
-
1ビットアンプって一瞬流行ったな
あれは今でもあんの? - 10 : 2024/02/29(木) 12:06:40.78 ID:BUd03kzK0GARLIC
-
れいわとか好きそうな脳だな
- 12 : 2024/02/29(木) 12:07:14.70 ID:A4Q5LqIqHGARLIC
-
時代はシリアル
- 13 : 2024/02/29(木) 12:07:43.69 ID:qG2cR9Y50GARLIC
-
ネタスレみたいになってるけど、これ凄いからなw
- 14 : 2024/02/29(木) 12:07:47.82 ID:pyoiqlne0GARLIC
-
安倍晋三とか好きそう
- 16 : 2024/02/29(木) 12:09:28.34 ID:xl4JkwbrMGARLIC
-
「これだけのスピードの差が出ている。また、当然ながらメモリ効率も高い」
ネトウヨ脳はハイスペック
パヨク脳は旧世代ってわけか - 17 : 2024/02/29(木) 12:09:29.41 ID:WTvk3yuY0GARLIC
-
秀逸なスレタイ
- 18 : 2024/02/29(木) 12:10:37.70 ID:T8o47qX00GARLIC
-
これ1bitじゃなくて1tritじゃないの
- 19 : 2024/02/29(木) 12:10:40.66 ID:pD2yqSOc0GARLIC
-
関連株漁った、まぁ宝くじみたいなもんよ
- 20 : 2024/02/29(木) 12:10:41.53 ID:VlUbSmJk0GARLIC
-
電子機器の話は細かい事は分からないなりに何となく仕組み分かった気になれるんだけど
量子はマジで全く分からん説明を聞いてても俺には何かの宗教の説法を聞いてるような気分になってしまう
何だよ重ね合わせの状態って - 30 : 2024/02/29(木) 12:24:15.46 ID:RPHExhva0GARLIC
-
>>20
これは量子力学や量子コンピューターの話は関係ないと思う
ニューラルネットの計算に今までは8bitや4bitの実数値を使って(量子化して)いたけど、さらに減らして{-1, 0, +1}の3値にしたら精度落ちるどころかむしろ良くなったという - 21 : 2024/02/29(木) 12:13:09.45 ID:ooBSMZuJ0GARLIC
-
中国倒産は量子力学ガチ勢だから
量子通信衛星も2016年に打ち上げて、国家中枢では既に実用化されてる筈 - 22 : 2024/02/29(木) 12:13:15.47 ID:lpG1QQLu0GARLIC
-
やっぱりバカウヨの脳ミソって中国製だったのか。ナルホド納得だね。
- 23 : 2024/02/29(木) 12:14:41.68 ID:NBnX3Qlo0GARLIC
-
三体問題解けそう?
- 24 : 2024/02/29(木) 12:15:02.87 ID:ReSHL7z80GARLIC
-
どおりでネトウヨって中国に詳しいわけだw
- 25 : 2024/02/29(木) 12:15:47.38 ID:u7kPhnqU0GARLIC
-
ネトウヨ 0 1
BitNet -1 0 1ラベルが違う
- 26 : 2024/02/29(木) 12:16:35.50 ID:JiZF4jBt0GARLIC
-
左のネトウヨ「ネトウヨは脳が1ビット」
- 27 : 2024/02/29(木) 12:18:02.13 ID:n/M4RKXq0GARLIC
-
LLaMAが流出したときに64Bモデルを4bit量子化させて動かしてみたけどやっぱり量子化してない素の16Bのほうが正確に受け答えできてたね
その後もrinnaのGGMLモデルとか触ったりしたけど何だかんだで、16bit floatや32bit floatのほうが精度が高いのはどうしようもなさそうだけど、1bit量子化で4bit量子化程度の精度を確保できたとしたらすごいことだとは思う - 28 : 2024/02/29(木) 12:18:34.37 ID:gzB0hu6I0GARLIC
-
LLMは大量のパラメータをトレーニングすることで出来てるけど、そのパラメータを全部1ビットにしたって事ね
パラメータ数は多いから全体で1ビットということではない - 29 : 2024/02/29(木) 12:22:59.62 ID:gzorxEZkMGARLIC
-
案の定
ネトウヨ「左のネトウヨガー」
絶対出ると思ってたw - 31 : 2024/02/29(木) 12:28:08.06 ID:FdJ8WxFp0GARLIC
-
格子ベクトル問題やれそう?
コメント