AnythingLLM – Dein eigener KI Chat-Bot
Die kurze Überschrift ist zwar prägnant, greift jedoch nicht vollständig, was AnythingLLM wirklich bietet. Besser wäre: „Dein eigenes ChatGPT mit deinen Daten – vollständig privat und sicher.“ Stell dir vor, du hast einen Chatbot, der jede Datei, die du ihm gibst, analysiert. Du kannst dann dem Bot einfach Fragen zum Inhalt der Dateien stellen, ohne dass diese Daten an Dritte übertragen werden.
Hier kommt AnythingLLM ins Spiel. Wir installieren es als Docker-Container auf einem Linux-Betriebssystem (bei mir Mint). Eine GPU mit CUDA und Docker ist von Vorteil. Nun erstellen wir einen Stack mit Docker Compose.
Mein Docker Compose File sieht so aus:
|
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
|
version: '3.8'services: anythingllm: image: mintplexlabs/anythingllm:latest container_name: anythingllm ports: - 3123:3001 networks: - my_custom_network environment: NODE_ENV: production # Example environment variable restart: always ollama: deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: - gpu image: ollama/ollama:latest container_name: ollama ports: - 11434:11434 networks: - my_custom_network restart: alwaysnetworks: my_custom_network: driver: bridge |
Nachdem die beiden Container (AnythingLLM und Ollama) erfolgreich gestartet sind, müssen wir noch ein Sprachmodell herunterladen, um den Chatbot zu nutzen. Dies erreichen wir mit folgendem Befehl:
Nach dem erfolgreichen Start sollte AnythingLLM unter der IP-Adresse http://deine-ip:3123 erreichbar sein. Sobald du diese Adresse im Browser aufrufst, wirst du durch die Einrichtung des Systems geführt.