QNAP präsentiert das QAI-h1290FX: Ein bahnbrechender Edge KI Speicher Server für private LLM- und generative KI-Workloads

Stärkung der lokalen KI mit All-Flash NVMe Speicher und NVIDIA® RTX™ GPU-Beschleunigungsoptionen

(Auszug aus der Pressemitteilung)

Da Datensouveränität und Rechenleistung zu strategischen Differenzierungsmerkmalen für Unternehmen werden, die KI einsetzen, steigt die Nachfrage nach privater, lokaler KI-Infrastruktur (On-Premises) kontinuierlich. Als Antwort auf diesen Wandel hat QNAP® Systems, Inc., ein führender Innovator für Computing-, Netzwerk- und Speicher-Lösungen, heute das QAI-h1290FX vorgestellt – ein Edge-KI-Speicherserver der nächsten Generation, der die private Bereitstellung von Large Language Models (LLMs), Retrieval-Augmented-Generation-(RAG)-Suchmaschinen und generativen KI-Anwendungen ermöglicht.

Anzeige

Ausgestattet mit Server-Grade AMD EPYC™ Prozessoren, Unterstützung für NVIDIA® RTX™ GPU-Beschleunigung und zwölf U.2 NVMe/SATA SSD-Steckplätzen bietet das QAI-h1290FX eine hochleistungsfähige On-Premises-KI-Infrastruktur für Unternehmen, die geringe Latenzzeiten bei der Inferenz, vollständige Datenhoheit und operative Kontrolle benötigen – ohne Abhängigkeit von der Cloud.

Angetrieben vom ZFS-basierten QuTS hero Betriebssystem von QNAP bietet das QAI-h1290FX Datenintegrität auf Enterprise-Niveau, nahezu unbegrenzte Snapshots und Inline-Deduplizierung. Er unterstützt nativen GPU-Zugriff in Containern über Container Station sowie GPU-Passthrough für virtuelle Maschinen via Virtualization Station. IT-Teams, Entwickler und Forschungsgruppen können Inferenzmodelle, generative KI-Anwendungen und RAG-Pipelines effizient ausführen – bei voller Kontrolle über Leistung und Ressourcenverteilung.

Der QAI-h1290FX enthält eine kuratierte Auswahl vorinstallierter KI-Tools wie AnythingLLM, OpenWebUI und Ollama, die eine schnelle Bereitstellung privater LLM-Workflows ermöglichen. Zusätzliche KI-Anwendungen wie Stable Diffusion, ComfyUI, n8n und vLLM werden ebenfalls integriert, um den Funktionsumfang zu erweitern. Dadurch können Anwender schnell On-Premises-KI-Plattformen aufbauen und Workflows in einer sicheren, skalierbaren und vollständig kontrollierten Umgebung automatisieren.

„Der QAI-h1290FX erfüllt die wachsende Nachfrage nach On-Premises KI-Infrastruktur“, sagte Oliver Lam, Produktmanager bei QNAP. „Wir wollten die Hürden beim Aufbau einer GPU-Workstation, der Installation von Tools und der Konfiguration komplexer Umgebungen beseitigen. Mit dem QAI-h1290FX können Anwender ihre KI-Modelle sofort einsetzen und ausführen – mit voller Kontrolle über ihre Daten und ganz ohne Abhängigkeit von der Cloud.“

Hauptmerkmale des QAI-h1290FX

  • All-Flash-Speicher-Architektur: Zwölf U.2 NVMe/SATA-SSD-Steckplätze ermöglichen extrem schnelle I/O für hochfrequente Ausführung von KI-Modellen und Daten-Streaming.
  • 16-Kern AMD EPYC™ 7302P Prozessor: Bietet 32 Threads Server-Computing-Leistung – ideal für KI-Inferenz, Virtualisierung und anspruchsvolle parallele Workloads.
  • GPU-Ready-Architektur: Unterstützt optionale NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation GPU mit bis zu 96 GB GPU-Speicher und Unterstützung für CUDA®, TensorRT™ und Transformer Engine-Beschleunigung – steigert die Leistung bei On-Premises LLM-Inferenz, Bildgenerierung und Deep-Learning-Workloads erheblich.
  • Containerisierte KI-Umgebung & GPU-Ressourcenmanagement: Unterstützt Docker und LXD mit intuitiver GPU-Zuweisung. Anwender können KI-Tools schnell über das integrierte AI App Center starten und GPU-Ressourcen ohne Konfiguration über die Befehlszeile zuweisen.
  • Vollständig lokale Bereitstellung ohne Cloud-Abhängigkeit: Führen Sie KI-gestützte Chat-Assistenten, Dokumentensuchmaschinen oder Wissensdatenbanken vollständig On-Premises aus. Behalten Sie sensible Daten im eigenem Unternehmen und beschleunigen Sie gleichzeitig KI-Workflows.
  • Hochgeschwindigkeits-Netzwerk und skalierbare Architektur: Verfügt über zwei 25GbE- und zwei 2.5GbE-Ports. PCIe-Steckplätze unterstützen optionale 100GbE-Upgrades. Kompatibel mit QNAP JBOD-Erweiterungsgehäusen für großflächige KI-Daten-Speicher.

Anwendungs-Highlights

  • Interne KI-Assistenten / On-Prem Chat-Oberflächen
  • Setzen Sie konversationelle KI-Oberflächen für Wissensabfragen, Mitarbeiterschulungen und Richtlinien-Q&A ein – vollständig unter Ihrer Kontrolle.
  • Enterprise RAG-Suche
  • Nutzen Sie private RAG-Pipelines, um schnelle, kontextbezogene Suchen in Verträgen, Berichten und internen Dokumenten durchzuführen.
  • Bildgenerierung für Kreativteams
  • Führen Sie Stable Diffusion oder ComfyUI für KI-gestützte Design-Workflows und visuelle Inhaltserstellung aus.
  • KI-gesteuerte IT-Automatisierung
  • Nutzen Sie n8n, um Inferenzaufgaben, Inhaltserstellung oder Benachrichtigungen zu automatisieren und KI nahtlos in Geschäftsprozesse zu integrieren.

Mit dem QAI-h1290FX bietet QNAP einen praxisorientierten, hochleistungsfähigen Ansatz zur Implementierung generativer KI innerhalb von Unternehmensgrenzen. Ob im Rechtswesen, im Personalwesen, in kreativen Bereichen ode rim IT-Betrieb eingesetzt – er unterstützt Teams dabei, schneller zu arbeiten, Compliance- Anforderungen einzuhalten und die vollständige Kontrolle über Ihre KI-Strategie zu behalten – direct am Edge.

Verfügbarkeit

Das QNAP QAI-h1290FX ist ab sofort für 18.999€ verfügbar.