Autognosis

自分の認知と学習を静かに磨くデジタルノート

速く流れていく情報から少し離れ、自分の頭でじっくり考えられる文章だけを集めています。

更新

2026/3/29

Tag

#モデル最適化

AI・機械学習
2026年2月1日 19:02
Two intertwined translucent neural network structures, one glowing amber representing factual knowledge and one glowing blue representing logical reasoning, merging in the center with purple interference patterns against a dark technological background

デジタル代謝:再生的アンラーニングによる論理と事実の分離 — 純粋な神経論理コアに向けて

デジタル代謝:再生的アンラーニングによる論理と事実の分離 — 純粋な神経論理コアに向けて パラメータのエンタングルメント:根本的な問題 主張: 大規模言語モデルはパラメータのエンタングルメントを示す。これは、推論論理と事実知識が共有された神経重みの中にエンコードされ、表現の干渉を生み出し、両方の能力を低下させるものである。 定義的前提条件: パラメータのエンタングルメントは、異なる機能的目的(論理的推論と事実検索)が重複する重み行列内に共存...

-- いいね数
続きを読む
AI・機械学習
2026年1月31日 19:02
Technical illustration of a Mixture-of-Experts neural network architecture showing selective routing pathways, with illuminated active expert nodes connected by glowing data streams against a dark computational grid background

MoEの計算効率を重みとデータのスパース性の組み合わせで改善する

MoEの計算効率を重みとデータのスパース性の組み合わせで改善する 重みのスパース性:基盤 Mixture-of-Experts(MoE)アーキテクチャは、すべてのモデルパラメータを活性化するのではなく、各トークンを学習されたエキスパートのサブセットにルーティングすることで、順伝播あたりの計算コストを削減します。この重みのスパース性メカニズムが、MoEシステムにおける主要な効率向上を構成します。形式的には、モデルが合計E個のエキスパートを含み、各トークンが...

-- いいね数
続きを読む
AI・機械学習
2026年1月29日 19:02
Visualization of particle collision jets transforming into a geometric tensor network structure, representing the conversion of high-energy physics data into computational models for real-time classification at the Large Hadron Collider

テンソルネットワークモデル:深層学習に対するコンパクトな代替手段

テンソルネットワークモデル:深層学習に対するコンパクトな代替手段 高輝度大型ハドロン衝突型加速器(HL-LHC)におけるリアルタイム粒子分類は、明確に定義された制約の下で動作する推論システムを必要とする:マイクロ秒スケールのレイテンシ予算(トリガー段階でイベントあたり通常1~10 μs)、限られた電力エンベロープ(処理ノードあたり10~100 W)、および決定論的実行プロファイル。テンソルネットワーク(TN)モデル—特に行列積状態(MPS)とツリーテンソルネットワ...

-- いいね数
続きを読む
TOPへ