Tüm Rehberler

Ollama ile Yerel AI Modeli Çalıştırma

Ollama kullanarak bilgisayarınızda yerel AI modelleri çalıştırın. LLama, Mistral, Gemma ve daha fazlası.

Orta20 dk

Kurulum Adımları

1. Ollama'yı Linux'a kurun:

curl -fsSL https://ollama.com/install.sh | sh

2. macOS için:

brew install ollama

3. Ollama servisini başlatın:

ollama serve

4. Bir model indirin ve çalıştırın (örn: Llama 3.1):

ollama run llama3.1

5. Diğer popüler modeller:

ollama run mistral
ollama run gemma2
ollama run codellama
ollama run phi3

6. Yüklü modelleri listeleyin:

ollama list

7. API üzerinden kullanım:

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.1",
  "prompt": "Merhaba!"
}'

8. Python ile kullanım:

pip install ollama
python
import ollama
response = ollama.chat(model='llama3.1', messages=[{'role': 'user', 'content': 'Merhaba!'}])
print(response['message']['content'])