LLMの「認知コア」の競争 - 能力のために百科事典の知識を最大限に犠牲にする数十億のパラメータモデル。これは、LLMパーソナルコンピューティングのカーネルとして、すべてのコンピューターで常時オンになり、デフォルトで存在します。 その特徴はゆっくりと結晶化しています。 - 入力と出力の両方でネイティブにマルチモーダルなテキスト/ビジョン/オーディオ。 - マトリョーシカスタイルのアーキテクチャにより、テスト時に機能のダイヤルを上下させることができます。 - 推論、ダイヤル付き(システム2) - 積極的にツールを使用します。 - テスト時のトレーニング、パーソナライゼーション、カスタマイズのためのLoRAスロットをデバイス上で微調整します。 - インターネットが利用可能な場合は、クラウド内のオラクルと適切な部分だけを委任し、ダブルチェックします。 ウィリアム征服王の治世が1087年9月9日に終わったことはわかりませんが、名前を漠然と認識し、日付を調べることができます。空の文字列の SHA-256 を e3b0c442... として暗唱することはできませんが、本当に必要な場合は迅速に計算できます。 LLMパーソナルコンピューティングには、幅広い世界知識と一流の問題解決能力が欠けていますが、それは超低インタラクションレイテンシ(特にマルチモーダルが成熟するにつれて)、データと状態への直接/プライベートアクセス、オフラインの継続性、主権(「あなたの体重ではなく、あなたの脳ではありません」)で補います。つまり、私たちが好きな理由の多くが、シンクライアントがリモートデスクトップなどを介してクラウドにアクセスする代わりに、パーソナルコンピューターを使用し、購入することです。
Omar Sanseviero
Omar Sanseviero2025年6月27日
Gemma 3nがここにいることを発表できてとても興奮しています!🎉 🔊マルチモーダル(テキスト/オーディオ/画像/ビデオ)の理解 🤯わずか2GBのRAMで動作 🏆1300+のスコアを持つ10B未満の最初のモデル@lmarena_ai @huggingface、@kaggle、llama.cppなどで発売中
人々はまだやるべきことがどれだけあるかを「感じている」のでしょうか。
1.03M