Ollama
This is version . It is not the current version, and thus it cannot be edited.
Back to current version   Restore this version

Ollama ist ein Runner für Large Language Modelle (LLM) im Format GGUF.

Herunterladen von Modellen#

Teilweise können diese direkt von der Seite ollama.com heruntergeladen werden:
ollama pull llama3.2:1b

Andere Modelle können von Huggingface heruntergeladen werden:

ollama pull hf.com/<model-name>

Installation von Modellen über Modelfile#

Ansonsten können Modelle über ein Modelfile erzeugt werden. Im einfachsten Fall sieht das so aus:
FROM ./<model-file>.gguf

Dann führt man ollama create aus:

ollama create <model-name> -f .\Modelfile

Ollama Tunnel#

Lokales Ollama auf einen Server im Internet tunneln:

Der Befehl für AutoSSH sieht etwa wie folgt aus:

autossh -M 0 -v -o TCPKeepAlive=yes -o ServerAliveInterval=30 -o ServerAliveCountMax=3 -R 172.17.0.1:11434:localhost:11434 <user>@<host>

Gegebenenfalls auf dem Ubunto-Host SSH Port Forwarding aktivieren (in /etc/ssh/sshd_config):

GatewayPorts clientspecified
AllowTcpForwarding yes

Hinweis: Es sollte nicht "GatewayPorts yes" verwendet werden, da die Ports sonst komplett ins Internet weitergeleitet werden.