トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
私はこれについて何かを書いていましたが、@anton_d_leicht私をそれに打ち負かしました(そして、それではるかに良い仕事をしました!
そこで、私の不完全な考えを付け加えておきますが、彼の考えと重複するものもあります。
-----
私は、より高度な AI の到来についてかなりの量を書きました。しかし、今後 20 年以内に「AGI」のようなものが登場する可能性は高いと思いますが、その間に「AI の冬」のようなものが来る可能性も高いと思います。では、それについても書いてみてはいかがでしょうか?
次の点があるため、これは重要だと思います。
– AI の冬は、長期的には (数年ではなく数十年) AGI のようなものに向かっているかどうかについてはあまり情報が得られないかもしれません。
– ほとんどの人は、AI の冬が AGI の実現可能性について非常に有益であると認識するでしょう。
– 重要な結果は AGI であり、その前に AI の冬があるかどうかではありません。
ほとんどの人(および政策立案者)の認識が重要です。AIの冬(そしてそれに伴う投資バブルの崩壊)は、将来の高度なAIのリスクと利点についての話が完全に放射能になる時期を生み出す可能性があります。政策が進展しない間、一般的な知能への中核的な傾向が続けば、AI の開発を前向きに形作る時間が少なくなるでしょう [
この悲観的なシナリオを想像してみてください: 今年は 2028 年です。以前はうまくいっていたものがもううまくいきません。スケーリングの事前トレーニングは、2025年に大幅に減少するリターンをもたらし始めました。スケーリング推論もそれに続きました。合成データはしばらくの間機能しましたが、モデルを新しい天井近くに収束させるだけでした。さらにいくつかのイノベーションが起こり、LLM がよりインテリジェントで有用なものになりました。しかし、彼らはまだ単なるLLMであり、かなり脆く、ライティングタスクの自動化には問題ないとしても、ジョブの自動化にはあまり長けていません。エージェントの進行は予想よりも遅いです。テキストからの自己教師あり学習は、特に生成しやすいトレーニングシグナルであることが判明しました。コンピューター使用における自己教師あり学習とRLは、適切に設定するのがはるかに困難です。人々は巨大なシミュレーションを作成し、その中でエージェントをトレーニングしていますが、これらは比較的一般化が不十分です。人々はAI 2027のようなものを指さし、「期待」と現実の間に大きなギャップがあることを見て、それはすべて誇大広告だったと言います。AI ラボは、もはや大規模なトレーニングの実行を正当化することはできません。コンピューティングは、これまで以上に小さな限界的な改善のために無駄になるだけです。コンテキストの長さと継続的な学習においていくつかのブレークスルーがあったかもしれませんが、それだけでは十分ではありません。AIへの投資が激減。したがって、R&Dも低下します。AIの未来について語ることは放射能を帯びる。将来の能力に関する憶測は、ここ数年の期待外れの進歩を指摘する「現実主義者」によってかき消されます。
このシナリオでは、2028 年には、これは多くの人 (ほとんど?) にとって物語の終わりのように見えるでしょう。AIは優れていますが、それだけ優れているわけではありません。以上です。これは、AGI も、変革的な影響も、進歩の黄金時代も、そしてもちろん、ディープフェイクよりも悪いリスクがないことを意味します。
しかし、AIの冬はいつまで続くのでしょうか?
それは永遠に続くか、少なくとも数十年かかる可能性があります。20世紀初頭の傾向から導き出されたオッズに反して、私たちは根本的な限界に達する可能性があります。専門家は最終的に、脳とGPUのアナロジーが粗すぎると私たちに知らせますが、それは私たち全員がすでに知っていましたが、テキスト予測子から一般エージェントに移行するには違いが重要であることが判明しました。あるいは、意識的な注意の場所を生成するために脳内の量子プロセスが必要であり、それは非常に高次の機能を得るために必要であることが判明しました。あるいは、それは量子プロセスそのものではなく、脳が提供する高度に相互接続された「ハードウェア」であり、GPUが実行するほとんど並列処理でシミュレートできます。しかし、結局のところ、これらのシミュレーションだけでは十分ではなく、有能なエージェントを作成するにはニューロモーフィックチップが必要であり、それらは今後50年間は利用できないでしょう。
これらの特定の失敗の話がもっともらしいと考える必要はなく、AGI レシピに何らかの材料が欠けている可能性があり、その材料は今世紀の前の毎世紀と同じように、今世紀も入手が困難または不可能になる可能性があります。
ただし、AI の冬も短いかもしれません。私たちはすでに、大規模なトレーニング実行の間に印象的な更新がほとんど行われない、段階的な機能の増加に慣れています。数回のトレーニングが期待どおりにうまくいかなかった場合、これは、次のステップチェンジの材料が組み立てられ、必要な閾値まで蓄積される間、はるかに長い停滞期に陥ることを意味するだけです。それでも、予想よりも長い期間が期待外れの進歩は、より長い冬の同じプロセスの多くを引き起こす可能性があります。
「スケーリング法則」は経験的な観察であり、世界に関する固有の事実ではありません。トレンドは絶対に終わるか、大幅に減速する可能性があります。ほとんどの人、特にAIの進歩を追っていないほとんどの「部外者」は、これらのトレンドの重要性を過小評価する傾向があるため、AIに取り組んでいる人々は、時々否定的に二極化し、(ここでは風刺的に)絶対主義的になりすぎます。はい、私たちは別のムーアの法則[AI機能を備えた状況]に陥る可能性があります。しかし、一見安定した傾向の多くは時間の経過とともに止まります - 私たちがムーアの法則を覚えているのは、まさにそれが例外的であるからです。
最後に、AIの冬はまったく来ないかもしれません。AI が壁を突破する直前に壁にぶつかっているように見えるときは、定期的な「恐怖」にもかかわらず、AI のフロンティアが着実に改善されるかもしれません。あるいは、ラッパー企業や小規模な AI スタートアップの「バブル」の多くが崩壊するため、改善のフロンティアが得られるかもしれません。
結論は、根底にある核となる傾向があるということです。そして重要なのはその傾向です。LLM が私たちをそこに連れて行ってくれるかどうか、あるいはその間に一時的な AI の冬があってもなくてもそこに到達できるかどうかではありません。
私たちの脳は一般的な推論者が達成可能であることの証拠であり、今日の AI システムは、非常に複雑な領域で私たちの推論が (それが「実際の推論」であるかどうかにかかわらず) 有用に近似できることの証拠です。上記で概説した最も悲観的な予測のいくつかは、機械知能の基本的な限界に達するなど、正しい可能性があります。しかし、指数関数的に増加するコンピューティング、トレーニング データ、新しいアルゴリズムに取り組む何千人もの天才の圧力鍋は、最終的には高度な知能につながるようです。そして、それを正しくしたいのであれば、単にそれに関連する結果ではなく、それに焦点を当てたほうがよいでしょう。
変革的な AI を迅速に実現する結果に多くの努力と思考を費やすことは理にかなっています。しかし、死ぬために無関係な丘を選ばないでください [
そういえば、バブルが崩壊したらどうなるでしょうか?Anthropic は、Google DeepMind や Meta など、より多様な収入を得ていない他の AI ラボと並んで失敗するのでしょうか?大規模な流出が発生した場合、XAIの従業員はどこへ行きますか?たとえ小規模なスタートアップや投資の多くが倒産したとしても、少なくとも一部のフロンティア研究所はフロンティアを推進し続けることができるでしょうか?トレンドが続くと仮定して何をすべきかを考えようとするのと同じように、それを理解してみたほうがいいでしょう。アイデアがあれば、私のDMはオープンです。

8.44K
トップ
ランキング
お気に入り