All Guides
Запуск локальных ИИ-моделей с Ollama
Запускайте локальные ИИ-модели с помощью Ollama. LLama, Mistral, Gemma и другие.
Intermediate20 мин.
Setup Steps
1. Install Ollama on Linux:
curl -fsSL https://ollama.com/install.sh | sh2. For macOS:
brew install ollama3. Start the Ollama service:
ollama serve4. Download and run a model (e.g., Llama 3.1):
ollama run llama3.15. Other popular models:
ollama run mistral
ollama run gemma2
ollama run codellama
ollama run phi36. List installed models:
ollama list7. API usage:
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt": "Hello!"
}'8. Python usage:
pip install ollamapython
import ollama
response = ollama.chat(model='llama3.1', messages=[{'role': 'user', 'content': 'Hello!'}])
print(response['message']['content'])Related Guides
Установка Claude Code
Установите Anthropic Claude Code CLI на сервер или ПК. Настройка API-ключа и основные команды.
Настройка ChatGPT API
Интегрируйте OpenAI ChatGPT API в свой проект. Получение API-ключа и первый запрос.
Настройка Google Gemini API
Настройте Google Gemini API и используйте его в своих проектах.
Руководство по Midjourney
Создавайте изображения с помощью ИИ Midjourney. Пошаговая инструкция для Discord.