Bit-TTT は、「超高効率な推論」と「適応的な学習」の融合を目指すプロジェクトです。 以下の2つの技術を統合しています:
{-1, 0, 1} にし、計算効率を極限まで高めます。Rust-First, Python-Compatible アーキテクチャを採用しています。
graph TD
A["Python (PyO3)"] -->|Direct Bindings| B["Rust Core Engine"]
B -->|Candle (SIMD/AVX)| C["CPU / GPU"]
subgraph Rust Core
D["BitLlama (Model)"]
E["TTT Layer (Fast Weights)"]
F["BitLinear (Ternary Weights)"]
end
B --> D
D --> E
D --> F
| Module | Role | Tech Stack |
|---|---|---|
| crates/core_engine | 推論・学習ロジック | Candle フレームワーク。CPU/CUDA両対応。 |
| crates/cortex_rust | Python インターフェース | PyO3。BitLlama クラスをPythonに直接公開。 |
| legacy | 旧実装(非推奨) | 古い extern "C" / ndarray 実装(互換性のため隔離)。 |
W_state (短期記憶) を更新。--no-default-features オプションでPython/PyO3依存を排除し、純粋なRustバイナリとしてビルド可能。cpu (AVX) と cuda (GPU) を設定一つで切り替え可能。