21
Jun
2024

KI Server selbst hosten

die Installation unterschiedlichster LLMs ist Dank OLLAMA kein Problem

## Installation OLLAMA ##
curl -fsSL https://ollama.com/install.sh | sh

## Installationstest #
>> http://<ip-adresse>:11434

## Installation model for OLLAMA ##
ollama pull llama3

## Test OLLAMA in CLI ##
ollama run llama3

## GPU Überwachen ##
watch -n 0.5 nvidia-smi


## Docker Key & Repo  hinzufügen ##
sudo apt-get update
sudo apt-get install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc

echo \
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
$(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update

## Docker Installation ##
apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

## Open WebUI Container erstellen ##
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

## Open WebUI aufrufen ##
>> http://<ip-adresse>:8080

gefunden auf : https://www.youtube.com/watch?v=QFMJVveaeVE

Share

You may also like...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert