AI Decoded – Basismodelle als Grundlage von AI-Anwendungen

(Auszug aus der Pressemitteilung)

Diese Woche geht es bei AI-Decoded um die Frage, woraus AI-Anwendungen, die regelmäßig Verwendung finden – wie Chatbots – aufgebaut sind. AI Decoded erklärt das alles im Blogbeitrag dieser Woche über Basismodelle und die vielen Arten, die jetzt lokal auf GeForce RTX und NVIDIA RTX GPUs laufen können. Die meisten dieser Modelle können von jedem – auf jeder beliebigen Hardware – im NVIDIA-AI-Foundation-Models Portal kostenlos ausprobiert werden, um noch mehr AI-Möglichkeiten zu erforschen und zu erstellen.

Anzeige

Ein Basismodell ist ein neuronales AI-Netzwerk, das riesige Datenmengen verarbeitet und trainiert, um sie zu verstehen und in einer menschenähnlichen Sprache zu antworten, so als würde man einem Computer eine umfangreiche Bibliothek mit Büchern zum Lernen geben. Es ist der Baustein, auf dem ein breites Spektrum verschiedener AI-Anwendungen (Texterstellung, Bild- und Videoerstellung usw.) aufbaut.

Große Sprachmodelle (Large Language Models, LLMs) wie Gemma von Google, Mistral LLM von Mistral und Llama 2 LLM von Meta sind ein paar der beliebtesten Arten von Basismodellen, da sie in der Lage sind, natürliche Textantworten zu verstehen und zu erzeugen. Mistral und Llama 2 werden bereits von NVIDIA ChatRTX unterstützt, das lokal auf RTX-PCs läuft und mit den Daten des Benutzers arbeitet, um schnellere und präzisere Antworten zu geben. Bildgeneratoren gehören ebenfalls zu den weit verbreiteten Basismodellen, wie StabilityAIs Stable Diffusion XL und SDXL Turbo.

Es gibt über 100 verschiedene Fundamentmodelle, und diese Zahl wächst weiter, darunter auch multimodale Fundamentmodelle. Diese Modelle können mehr als eine Art von Daten verarbeiten, darunter sowohl Text als auch Bilder, und eröffnen damit eine Welt der Möglichkeiten für reale Anwendungen. Ein Beispiel ist unter anderem eine AI-Kundendienstanwendung, die wie eine benutzerfreundlichere Version einer Bedienungsanleitung funktionieren kann.