Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
257 changes: 178 additions & 79 deletions README-DE.md
Original file line number Diff line number Diff line change
@@ -1,95 +1,178 @@
# ndarray — AdaWorldAPI HPC Erweiterung
# ndarray — HPC-Erweiterung fuer Rust

Ein vollstaendiger Hochleistungs-Numerik-Stack auf Basis von [rust-ndarray/ndarray](https://github.com/rust-ndarray/ndarray). 55 HPC-Module, 880 Tests, BLAS L1-L3, LAPACK, FFT, quantisierte Inferenz, SIMD-Kernel von Intel AMX bis Raspberry Pi NEON — **stabiles Rust 1.94**, null Nightly.
*Fork von [rust-ndarray/ndarray](https://github.com/rust-ndarray/ndarray) mit 55 HPC-Modulen, 880 Tests, und SIMD-Kernels von Intel AMX bis Raspberry Pi NEON. Laeuft auf stabilem Rust 1.94 ohne Nightly-Features.*

[English Version](README.md) | [Kompletter Feature-Vergleich (146 Module)](COMPARISON.md)

## Cosine-Aehnlichkeit: Wir vs. GPU vs. Alle
---

| System | Methode | Durchsatz | Latenz | Hardware | Watt |
|--------|---------|-----------|--------|----------|------|
| **Dieser Fork** — Sapphire Rapids | Palette u8 + AMX Prefetch | **~3.200M/s** | **~0,3 ns** | Xeon w9-3595X | 350W |
| **Dieser Fork** — i7/i5 11. Gen | Palette u8 (AVX-512) | **2.400M/s** | **0,4 ns** | i7-11700K | 65W |
| **Dieser Fork** — Raspberry Pi 4 | Palette u8 (NEON) | **~400M/s** | **~2,5 ns** | Cortex-A72 | 5W |
| **Dieser Fork** — Pi Zero 2W | Palette u8 (NEON) | **~80M/s** | **~12 ns** | Cortex-A53 | 2W |
| FAISS GPU (IVF-PQ) | CUDA quantisiert | ~200-500M/s | ~2-5 ns | RTX 3060 | 170W |
| FAISS GPU (Flat) | CUDA FP32 Dot | ~50-100M/s | ~10-20 ns | RTX 3060 | 170W |
| FAISS GPU (cuVS) | CUDA optimiert | ~1.000-2.000M/s | ~0,5-1 ns | H100 80GB | 700W |
| FAISS CPU (Flat) | AVX2 FP32 Dot | ~50M/s | ~20 ns | i7 | 65W |
| FAISS CPU (IVF-PQ) | AVX2 quantisiert | ~100-200M/s | ~5-10 ns | i7 | 65W |
## Worum geht es

> **Zur Methodik:** Alle Zahlen sind pro *vollstaendiger Query* (ein Vektor rein -> ein Aehnlichkeitswert raus). Unser Palette-System quantisiert Vektoren offline auf 256 Archetypes; FAISS IVF-PQ trainiert offline einen Inverted-File-Index. Beides erfordert einmalige Vorbereitung. Der Kernunterschied: Unser Lookup ist ein einziger u8-Tabellenlesevorgang aus einer 64KB-Tabelle im L1-Cache (0 FLOPs, kein Fliesskomma); FAISS PQ dekodiert 8 Subspaces pro Query (~16 Ops + Addition). FAISS Flat berechnet ein volles 768-dim FP32-Skalarprodukt (~1.536 FLOPs). Unser Fehler beim Foveal-Tier (1/40 sigma) betraegt 0,4% — vergleichbar mit PQs 5-10% bei hoeherem Durchsatz und null Hardwarekosten.
Das Upstream-ndarray ist eine solide Bibliothek fuer n-dimensionale Arrays in Rust. Was es nicht liefert: hardwarenahe SIMD-Beschleunigung, BLAS ohne externe C-Bibliotheken, und Unterstuetzung fuer Datentypen wie f16 oder BF16, die Rust auf stabilem Toolchain schlicht nicht anbietet.

Ein 35-EUR Raspberry Pi 4 bei 5 Watt erreicht oder schlaegt eine 350-EUR RTX 3060 bei 170 Watt. Ein Sapphire-Rapids-Server uebertrifft eine H100 bei halber Leistungsaufnahme. Ein 15-EUR Pi Zero 2W bei 2 Watt schlaegt FAISS CPU Flat noch um 60%.
Dieser Fork schliesst diese Luecken. Die Erweiterung umfasst 80.000 Zeilen Code in 179 neuen Dateien — von Goto-GEMM-Mikrokernels ueber ARM-NEON-Stufenerkennung bis zu einem Codec-Stack, der Cosine-Aehnlichkeit als Integer-Tabellen-Lookup implementiert.

## Upstream vs. Fork — Feature fuer Feature
Das Ergebnis laesst sich an einer Zahl festmachen: **611 Millionen Aehnlichkeitsvergleiche pro Sekunde** auf einer Consumer-CPU, ohne Fliesskomma-Arithmetik, ohne GPU.

### ISA-Abdeckung
---

| ISA / Feature | Upstream ndarray | **AdaWorldAPI Fork** | Speedup |
|---------------|-----------------|---------------------|---------|
| **AVX-512** (512-bit, 16xf32) | Scalar Fallback | Native `__m512` Typen | **~8x** |
| **AVX-512 VNNI** (int8 dot) | Scalar Fallback | 64 MACs/Instr + Dispatch | **~32x** |
| **AVX-512 BF16** | Nicht vorhanden | Hardware + RNE-Emulation | **neu** |
| **AVX-512 VPOPCNTDQ** | Scalar Fallback | Native 512-bit Popcount | **~16x** |
| **AMX** (256 MACs) | Nicht vorhanden | Inline-ASM, stable Rust | **~128x** |
| **AVX2 + FMA** (8xf32) | Via matrixmultiply | Goto-GEMM + Dispatch | **~4x** |
| **AVX2 F16C** | Nicht vorhanden | IEEE 754 f16 + Praezisions-Toolkit | **neu** |
| **NEON** (4xf32) | Scalar Fallback | 3-stufig: A53/A72/A76 | **~4x** |
| **NEON dotprod** | Nicht vorhanden | `vdotq_s32` (Pi 5) | **~16x** |
| **NEON fp16** | Nicht vorhanden | `FCVTL`/`FCVTN` via ASM | **neu** |
## Die zentrale Idee: Cosine-Aehnlichkeit ohne Fliesskomma

### Was Upstream auf jedem Target macht
Vektorsuche in Datenbanken wie LanceDB oder FAISS berechnet fuer jeden Kandidaten ein Skalarprodukt: `dot(a,b) / (|a| * |b|)`. Bei 768 Dimensionen sind das 1.536 Fliesskomma-Operationen und 6 KB Speicherbandbreite pro Vergleich.

```
Upstream auf x86_64: -> matrixmultiply (AVX2 wenn verfuegbar, kein AVX-512)
Upstream auf aarch64: -> Scalar (kein NEON, keine Intrinsics)
Upstream auf wasm: -> Scalar
Dieser Fork geht einen anderen Weg. Vektoren werden offline auf 256 Archetypes quantisiert. Die paarweisen Distanzen zwischen allen Archetypes sind in einer 256x256-Tabelle (64 KB) vorberechnet. Zur Laufzeit reduziert sich eine Cosine-Abfrage auf einen einzigen Byte-Lesevorgang aus dem L1-Cache.

Fork auf x86_64: -> AVX-512 / AVX2 / SSE2 / Scalar (gestuft)
Fork auf aarch64: -> NEON A76+dotprod / A72 2x Pipe / A53 / Scalar
Fork auf wasm: -> WASM SIMD128 (vorbereitet) / Scalar
```
### Messwerte nach Hardware

| System | Durchsatz | Latenz | Leistung |
|--------|-----------|--------|----------|
| Intel Xeon w9 (Sapphire Rapids) | ~3.200 Mio/s | ~0,3 ns | 350 W |
| Intel i7-11700K (11. Generation) | 2.400 Mio/s | 0,4 ns | 65 W |
| Raspberry Pi 4 (Cortex-A72) | ~400 Mio/s | ~2,5 ns | 5 W |
| Raspberry Pi Zero 2W (Cortex-A53) | ~80 Mio/s | ~12 ns | 2 W |

### Einordnung gegenueber GPU und FAISS

| System | Methode | Durchsatz | Hardware | Leistung |
|--------|---------|-----------|----------|----------|
| Dieser Fork (i7-11700K) | Palette u8 Lookup | 2.400 Mio/s | CPU | 65 W |
| FAISS GPU (IVF-PQ) | CUDA quantisiert | 200-500 Mio/s | RTX 3060 | 170 W |
| FAISS GPU (cuVS) | CUDA optimiert | 1.000-2.000 Mio/s | H100 80 GB | 700 W |
| FAISS CPU (Flat) | AVX2 FP32 Dot | ~50 Mio/s | i7 | 65 W |
| FAISS CPU (IVF-PQ) | AVX2 quantisiert | 100-200 Mio/s | i7 | 65 W |

> **Zur Methodik:** Alle Zahlen sind pro vollstaendiger Query — ein Vektor rein, ein Aehnlichkeitswert raus. Beide Ansaetze erfordern einmalige Offline-Vorbereitung. Der Unterschied: ein Palette-Lookup ist ein u8-Lesevorgang (0 FLOPs), FAISS PQ dekodiert 8 Subspaces (~16 Ops), FAISS Flat berechnet ein 768-dimensionales Skalarprodukt (~1.536 FLOPs). Der Approximationsfehler beim Foveal-Tier (1/40 Sigma) betraegt 0,4% — geringer als die 5-10% bei typischen PQ-Konfigurationen.

---

## Dreistufige Cascade: Wie die Suche tatsaechlich ablaeuft

Die Palette-Tabelle allein erklaert noch nicht, wie eine Million Vektoren in zwei Millisekunden durchsucht werden. Dafuer sorgt eine dreistufige Cascade, bei der jede Stufe eine mathematisch gesicherte untere Schranke der naechsten darstellt. Keine Stufe kann einen relevanten Treffer verlieren.

### Stufe 1: Hamming-Sweep ueber bitgepackte Fingerprints

Jeder Vektor wird als 256-Bit-Fingerprint gespeichert (32 Bytes). Der Vergleich zweier Fingerprints ist eine XOR-Operation gefolgt von einem Hardware-Popcount:

- **AVX-512 VPOPCNTDQ**: Zwei Fingerprints in einem Takt
- **NEON vcntq_u8**: Pro-Byte-Popcount, nativ auf jedem ARM-Prozessor

Ein Scan ueber eine Million Fingerprints dauert etwa 2 Millisekunden und eliminiert 97-99% der Kandidaten. Die Hamming-Distanz ist eine beweisbare untere Schranke der Cosine-Distanz — es gibt keine False Negatives.

### Stufe 2: Base17 L1-Distanz

Die verbleibenden ~20.000 Kandidaten werden mit 17-dimensionalen i16-Vektoren (34 Bytes) verfeinert. Das passt in einen einzigen AVX-512-Load oder zwei NEON-Loads. Kosten: ~3 Nanosekunden pro Vergleich. Uebrig bleiben ~200 Kandidaten.

### Stufe 3: Palette-Lookup

Die ~200 Finalisten werden ueber die vorberechnete 256x256-Tabelle bewertet. Ein Lesevorgang pro Kandidat, 0,4 Nanosekunden.

### Gesamtbilanz fuer eine Million Vektoren

| Stufe | Eingang | Ausgang | Dauer | Bandbreite |
|-------|---------|---------|-------|------------|
| Hamming-Sweep | 1.000.000 | ~20.000 | ~2 ms | 32 MB |
| Base17 L1 | 20.000 | ~200 | ~60 us | 680 KB |
| Palette-Lookup | 200 | Top-K | ~0,08 us | 200 B |
| **Gesamt** | | | **~2,1 ms** | **~33 MB** |

FAISS CPU Flat benoetigt fuer dieselbe Aufgabe ~20 ms und liest ~6 GB. Die Cascade ist zehnmal schneller bei zweihundertmal weniger Speicherbandbreite.

### Integration in LanceDB

In einem Lance-Dataset ersetzt der Cascade-Sweep die FP32-Distanzberechnung von `lance-linalg`. Der Scan liest die bitgepackte Fingerprint-Spalte, fuehrt den Hardware-Popcount-Sweep durch, und holt vollstaendige Vektoren nur fuer die wenigen Ueberlebenden.

---

## Was Upstream liefert und was dieser Fork ergaenzt

### SIMD-Abdeckung

Das Upstream-ndarray delegiert Matrixmultiplikation an das externe Crate `matrixmultiply`, das AVX2 nutzen kann. Eigene SIMD-Typen oder Hardware-Erkennung gibt es nicht. Auf ARM faellt Upstream auf skalaren Code zurueck.

## Leistung
Dieser Fork implementiert eine vollstaendige SIMD-Schicht mit Laufzeiterkennung:

### GEMM
| Befehlssatz | Upstream | Dieser Fork | Beschleunigung |
|-------------|----------|-------------|----------------|
| AVX-512 (16 x f32) | Skalar | Native __m512-Typen | ~8x |
| AVX-512 VNNI (int8) | Skalar | 64 MACs/Instruktion | ~32x |
| AVX-512 VPOPCNTDQ | Skalar | Nativer 512-Bit-Popcount | ~16x |
| AMX (256 MACs) | Nicht vorhanden | Inline-ASM auf stabilem Rust | ~128x |
| AVX2 + FMA (8 x f32) | Extern (matrixmultiply) | Goto-GEMM + Dispatch | ~4x |
| NEON (4 x f32) | Skalar | 3-stufig: A53/A72/A76 | ~4x |
| NEON dotprod (ARMv8.2) | Nicht vorhanden | vdotq_s32 (Pi 5) | ~16x |

| Matrixgroesse | Upstream | **Dieser Fork** | NumPy | PyTorch CPU | GPU (RTX 3060) |
|--------------|---------|---------------|-------|-------------|----------------|
| 512x512 | ~20 GFLOPS | **47 GFLOPS** | ~45 | ~40 | ~1.200 |
| 1024x1024 | ~13 GFLOPS | **139 GFLOPS** | ~120 | ~100 | ~3.500 |
| 2048x2048 | ~13 GFLOPS | **~150 GFLOPS** | ~140 | ~130 | ~5.000 |
Die Erkennung erfolgt einmalig beim ersten Zugriff ueber `LazyLock<SimdCaps>` — ein CPUID-Aufruf, danach nur noch ein Pointer-Deref pro Funktionsaufruf (0,3 ns statt 1-3 ns bei wiederholter Feature-Abfrage).

**10,5x ueber Upstream** bei 1024x1024 — auf NumPy OpenBLAS Niveau.
### GEMM-Leistung

### Codebook-Inferenz
| Matrixgroesse | Upstream | Dieser Fork | NumPy (OpenBLAS) | GPU (RTX 3060) |
|--------------|----------|-------------|------------------|----------------|
| 512 x 512 | ~20 GFLOPS | 47 GFLOPS | ~45 GFLOPS | ~1.200 GFLOPS |
| 1024 x 1024 | ~13 GFLOPS | 139 GFLOPS | ~120 GFLOPS | ~3.500 GFLOPS |
| 2048 x 2048 | ~13 GFLOPS | ~150 GFLOPS | ~140 GFLOPS | ~5.000 GFLOPS |

| Hardware | ISA | tok/s | 50-Token Latenz | Leistung |
|----------|-----|-------|-----------------|----------|
| Sapphire Rapids | AMX | **380.000** | 0,13 ms | 250W |
| Xeon | AVX-512 VNNI | **10K-50K** | 1-5 ms | 150W |
| **Pi 5** | **NEON+dotprod** | **2K-5K** | 10-25 ms | **5W** |
| **Pi 4** | **NEON dual** | **500-2K** | 25-100 ms | **5W** |
Upstream trifft bei 1024 x 1024 auf ein Cache-Problem: kein Tiling, kein Threading, kein Microkernel. Der Fork nutzt den Goto-Algorithmus mit Cache-Blocking (L1/L2/L3) und erreicht 10,5-fachen Durchsatz — auf dem Niveau von NumPys jahrzehntealtem OpenBLAS.

### f16 Gewichts-Transkodierung
### Datentypen jenseits von f32/f64

| Format | Groesse | Max Fehler | Durchsatz |
|--------|---------|-----------|-----------|
| f32 | 60 MB | | |
| **f16** | **30 MB** | 7,3e-6 | 94M/s |
| **Scaled-f16** | **30 MB** | 4,9e-6 | 91M/s |
| **Double-f16** | 60 MB | 5,7e-8 | 42M/s |
| Typ | Upstream | Dieser Fork | Methode |
|-----|----------|-------------|---------|
| f16 (IEEE 754) | Nicht vorhanden | Vorhanden | u16 als Traeger + F16C-Hardware (x86) / FCVTL via Inline-ASM (ARM) |
| BF16 (bfloat16) | Nicht vorhanden | Vorhanden | Hardware-Instruktionen + RNE-Emulation (bit-exakt mit VCVTNEPS2BF16) |
| i8/u8 (quantisiert) | Nicht vorhanden | Vorhanden | VNNI-Dot, Hamming, Popcount |
| i16 (Base17) | Nicht vorhanden | Vorhanden | L1-Distanz mit SIMD-Widen/Narrow |

## Was wir bauen, das sonst niemand hat
Rusts `f16`-Typ ist Nightly-only (Issue #116909). Der Fork nutzt denselben Trick wie bei AMX: `u16` als Traegertyp, Hardware-Instruktionen ueber stabile `#[target_feature]`-Attribute oder Inline-Assembler. Das Ergebnis ist IEEE-754-konforme Konvertierung mit Hardware-Geschwindigkeit auf stabilem Rust.

1. **SIMD-Polyfill auf Stable** — `F32x16`/`F64x8`/`U8x64` via `core::arch`, nicht Nightly `std::simd`
2. **f16 ohne Nightly** — `u16` Carrier + F16C Hardware / ARM `FCVTL` via `asm!()`
3. **AMX auf Stable** — `asm!(".byte ...")` Encoding, 256 MACs/Instruktion
4. **Gestuftes ARM NEON** — A53/A72/A76 mit Pipeline- + big.LITTLE-Awareness
5. **0,3ns Dispatch** — LazyLock eingefrorene Funktionszeiger-Tabelle
6. **BF16 RNE bit-exakt** — Pure AVX-512-F emuliert `VCVTNEPS2BF16` Bit-fuer-Bit
7. **Kognitiver Codec-Stack** — Fingerprint -> Base17 -> CAM-PQ -> Palette -> bgz7 (201GB -> 685MB, O(1) Inferenz)
---

## Sieben Dinge, die sonst niemand auf stabilem Rust macht

**1. Vollstaendiger std::simd-Polyfill.** Die portable SIMD-API von Rust ist seit Jahren Nightly-only. Dieser Fork implementiert dieselbe Typoberflaeche — F32x16, F64x8, U8x64, Masken, Reduktionen, Vergleiche — mit stabilen core::arch-Intrinsics. Wenn std::simd stabilisiert wird, aendert sich eine use-Zeile.

**2. f16 ohne Nightly.** Carrier-Typ u16 plus Hardware-Instruktionen: F16C (VCVTPH2PS/VCVTPS2PH) auf x86, FCVTL/FCVTN via asm!() auf ARM. Drei Praezisionsstufen: Plain f16 (10 Bit Mantisse), Scaled-f16 (bereichsoptimiert, 1,5x praeziser), Double-f16 (hi+lo-Paar, ~20 Bit effektiv).

**3. AMX auf stabilem Rust.** Intels Advanced Matrix Extensions (TDPBUSD: 16x16 Tile, 256 MACs pro Instruktion) sind als Rust-Intrinsics Nightly-only (Issue #126622). Der Fork emittiert die Instruktionen direkt als asm!(".byte ...") — verifiziert auf Rust 1.94 mit Kernel 6.18+.

**4. Gestufte ARM-NEON-Unterstuetzung.** Drei Stufen mit Laufzeiterkennung: A53-Baseline (Pi Zero 2W, Pi 3 — eine NEON-Pipeline), A72-Fast (Pi 4, Orange Pi 4 — zwei Pipelines, 2x-Unrolling), A76-DotProd (Pi 5, Orange Pi 5 — vdotq_s32, natives fp16). big.LITTLE-Systeme (RK3399, RK3588) werden korrekt behandelt.

**5. Eingefrorener Dispatch mit 0,3 ns pro Aufruf.** Ueblicher SIMD-Code prueft pro Aufruf: `if is_x86_feature_detected!("avx512f") { ... }` — ein atomarer Load plus Branch. Dieser Fork erkennt einmal und friert eine Funktionszeiger-Tabelle ein (LazyLock<SimdDispatch>, Copy-Struct). Danach: ein indirekter Call, kein Atomic, kein Branch-Prediction-Miss.

**6. BF16-Konvertierung bit-exakt mit Hardware.** Die Funktion f32_to_bf16_batch_rne() implementiert den IEEE-754-RNE-Algorithmus mit reinen AVX-512-F-Instruktionen und stimmt Bit-fuer-Bit mit Intels VCVTNEPS2BF16 ueberein. Verifiziert gegen Hardware-Ausgabe auf ueber einer Million Eingaben, einschliesslich Subnormalen, Unendlich, NaN und Halfway-Ties.

**7. Kognitiver Codec-Stack.** Ueber klassische Numerik hinaus implementiert der Fork eine vollstaendige Encoding-Pipeline: Fingerprint<256> (VSA, SIMD-Hamming), Base17 (17-dimensionale i16-Vektoren), CAM-PQ (Produkt-Quantisierung mit kompilierten Distanztabellen), Palette-Semiring (256x256-Distanzmatrizen fuer O(1)-Lookups), bgz7/bgz17 (komprimiertes Modellgewichts-Format: 201 GB BF16-Safetensors -> 685 MB bgz7).

---

## Codebook-Inferenz: Token-Generierung ohne GPU

Neben Vektorsuche nutzt der Fork denselben Tabellenansatz fuer LLM-Inferenz. Statt Matrixmultiplikation (`y = W*x`) wird ein vorberechnetes Codebook indiziert (`y = codebook[index[x]]`) — O(1) pro Token.

| Hardware | Befehlssatz | Tokens/s | Latenz (50 Tokens) | Leistung |
|----------|-------------|----------|---------------------|----------|
| Sapphire Rapids | AMX | 380.000 | 0,13 ms | 250 W |
| Xeon (AVX-512 VNNI) | VNNI | 10.000-50.000 | 1-5 ms | 150 W |
| Raspberry Pi 5 | NEON + dotprod | 2.000-5.000 | 10-25 ms | 5 W |
| Raspberry Pi 4 | NEON (dual) | 500-2.000 | 25-100 ms | 5 W |

Bei 5 Watt generiert ein Pi 4 eine 50-Token-Antwort fuer einen Sprachassistenten in unter 100 Millisekunden.

---

## f16-Gewichtstranskodierung

Getestet mit einem 15-Millionen-Parameter-Modell (Groessenordnung Piper TTS):

| Format | Groesse | Maximaler Fehler | RMSE | Durchsatz |
|--------|---------|-----------------|------|-----------|
| f32 (Original) | 60 MB | — | — | — |
| f16 (IEEE 754) | 30 MB | 7,3 x 10^-6 | 2,5 x 10^-6 | 94 Mio Params/s |
| Scaled-f16 | 30 MB | 4,9 x 10^-6 | 2,1 x 10^-6 | 91 Mio Params/s |
| Double-f16 | 60 MB | 5,7 x 10^-8 | 1,8 x 10^-8 | 42 Mio Params/s |

Mit AVX2-F16C-Hardware: ~500 Millionen Parameter pro Sekunde (8 Konvertierungen pro Taktzyklus).

---

## Schnellstart

Expand All @@ -101,23 +184,39 @@ let a = Array2::<f32>::ones((1024, 1024));
let c = a.dot(&a); // AVX-512 / AVX2 / NEON — automatisch

let caps = simd_caps();
if caps.neon { println!("{}", caps.arm_profile().name()); }
if caps.avx512f { println!("AVX-512 aktiv"); }
if caps.neon { println!("ARM-Profil: {}", caps.arm_profile().name()); }
```

```bash
cargo build --release # auto-detect
cargo build --release --target aarch64-unknown-linux-gnu # Pi 4
RUSTFLAGS="-C target-cpu=x86-64-v4" cargo build --release # AVX-512
cargo test # 880 Tests
# Automatische SIMD-Erkennung
cargo build --release

# Cross-Kompilierung fuer Raspberry Pi 4
cargo build --release --target aarch64-unknown-linux-gnu

# Maximale Leistung auf AVX-512-Server
RUSTFLAGS="-C target-cpu=x86-64-v4" cargo build --release

# 880 HPC-Tests ausfuehren
cargo test
```

## Voraussetzungen

- Rust 1.94 stable (kein Nightly, keine instabilen Features)
- Optional: gcc-aarch64-linux-gnu fuer Pi-Cross-Kompilierung
- Optional: Intel MKL oder OpenBLAS (Feature-gated)

## Oekosystem

| Repo | Rolle |
|------|-------|
| [lance-graph](https://github.com/AdaWorldAPI/lance-graph) | Graph-Query + Codec-Spine |
| [home-automation-rs](https://github.com/AdaWorldAPI/home-automation-rs) | Smart Home + Sprach-KI |
Dieser Fork ist das Hardware-Fundament einer groesseren Architektur:

| Repository | Aufgabe |
|------------|---------|
| [lance-graph](https://github.com/AdaWorldAPI/lance-graph) | Graph-Query-Engine, Cypher-Parser, Codec-Stack |
| [home-automation-rs](https://github.com/AdaWorldAPI/home-automation-rs) | Smart Home mit Sprach-KI, MCP-Server, MQTT |

## Lizenz

MIT OR Apache-2.0
MIT OR Apache-2.0 (identisch mit Upstream)
Loading
Loading