Verteilte und föderative KI für KMU. Souverän. Unabhängig. Leistungsstark.
Wir bringen Firmen, die KI-Hardware selbst betreiben, zu einem Netzwerk zusammen. Dadurch entsteht ein leistungsfähiges, verteiltes Netzwerk für große Sprachmodelle.
Teilnehmende Unternehmen können die Rechenleistung ihrer KI-Hardware optimal nutzen und gleichzeitig die Kosten für den Betrieb von KI-Modellen reduzieren.
Darüber hinaus biete das
KI-Netzwerk Deutschland Zugang zu großen Mengen an Rechenleistung, die für den Betrieb von KI-Modellen erforderlich sind.
Ein Hauptziel des
KI-Netzwerk Deutschland ist die Wahrung europäischer Souveränität in Bezug auf KI. Daher gelten enge Vorraussetzungen für eine Beteiligung:
1) Nur Eigenbetrieb:
- KI wird auf eigener Hardware betrieben, im eigenen Rechenzentrum oder Co-Location.
- Keine Cloud-Produkte (insb. keine Nutzung von APIs), keine Cloud-Maschinen (bspw. keine VPS, keine Cloud-GPUs).
- Bei Co-Location: nur EU-Rechenzentren. Keine Rechenzentren, die in der Hand EU-ausländischer Firmen sind. (Hintergrund: Vermeidung von Risiken, die durch Rechtsunsicherheit wie bspw. beim Cloud-Act entstehen)
2) Hardware-Vorraussetzungen:
- min. 60 GB VRAM
- Folgende Plattformen:
- Intel GPU (bspw. Data Center Max series, Flex series, Arc series, Built-in GPU and iGPU).
- CUDA-kompatibale NVIDIA GPUs
- HIP-kompatibale AMD GPUs
- Apple Silicon GPU
- Leistungsstarke CPUs mit AVX-Erweiterung (bestenfalls AVX512), die ausreichende Inference-Performance bieten
- Nur Linux oder Unix-basierte Systeme
Kontakt aufnehmen