All Guides
Lokale KI-Modelle mit Ollama
Fuehren Sie lokale KI-Modelle auf Ihrem Computer mit Ollama aus. LLama, Mistral, Gemma und mehr.
Intermediate20 Min.
Setup Steps
1. Install Ollama on Linux:
curl -fsSL https://ollama.com/install.sh | sh2. For macOS:
brew install ollama3. Start the Ollama service:
ollama serve4. Download and run a model (e.g., Llama 3.1):
ollama run llama3.15. Other popular models:
ollama run mistral
ollama run gemma2
ollama run codellama
ollama run phi36. List installed models:
ollama list7. API usage:
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt": "Hello!"
}'8. Python usage:
pip install ollamapython
import ollama
response = ollama.chat(model='llama3.1', messages=[{'role': 'user', 'content': 'Hello!'}])
print(response['message']['content'])Related Guides
Claude Code Einrichtung
Installieren Sie das Anthropic Claude Code CLI-Tool auf Ihrem Server oder PC. API-Schluessel-Konfiguration und grundlegende Befehle.
ChatGPT API Einrichtung
Integrieren Sie die OpenAI ChatGPT API in Ihr Projekt. API-Schluessel und erste Anfrage.
Google Gemini API Einrichtung
Richten Sie die Google Gemini API ein und verwenden Sie sie in Ihren Projekten.
Midjourney Nutzungsanleitung
Erstellen Sie KI-gestuetzte Bilder mit Midjourney. Schritt-fuer-Schritt Discord-Anleitung.