LLama

LLama sie die Sprachmodelle von Meta (ex. Facebook).

Ollama#

Diese können einfach in einem Service namens Ollama gestartet werden. Ollama ist eine kleine, aber relativ ausgereifte Plattform.

Service#

Der Service gibt nach einiger Zeit den GPU-Speicher frei, wenn keine Anfragen eintreffen. So kann der Service auf einem Anwenderrechner permanent im Hintergrund laufen, ohne dass es zu Einschränkungen des Systems kommt. So können auch verschiedene Modelle betrieben werden, ohne dass der GPU-Speicher überläuft.

Normalerweise wird der Server als Service in Windows oder Linux installiert. Er kann allerdings auch manuell gestartet werden:

ollama serve

Grundoperationen#

Mit dem Commandline-Tool namens "ollama" kann das System konfiguriert werden:

Modelfile#

Ein Modelfile sieht im einfachsten Fall so aus:
FROM ./<name>.gguf

Dann kann das Model importiert werden:

ollama create <name> -f Modelfile