Meta Llama 3/4

Meta Llama 3/4

от Meta

Семейство open-weight LLM от Meta: Llama 3 (8B/70B/405B), Llama 4 Scout / Maverick. Стандарт open-source AI и базис для тысяч fine-tunes.

✓ Open weights ✓ лидер open-source ✓ поддержка large context (Llama 4 Scout 10M токенов) ✓ широкая эко-система
Запущен: 2023 · Клиентов: Нет данных · 📋 1 кейс · 📊 1 обзор

Тарифы и цены

⭐ Рекомендуем

Self-host (open weights)

Бесплатно (Meta Llama Community License)
  • Лицензия : Custom (open weights, restrictions при 700M MAU)
  • Версии : Llama 3.1/3.2/3.3, Llama 4 Scout/Maverick
  • Hosting : Свой GPU кластер / Replicate / Together / Groq
Попробовать

Через Together / Groq / Fireworks

От $0.18 / 1M токенов (Llama 3.3 70B на Groq)
  • Скорость : До 1500 токенов/сек на Groq
  • API совместимость : OpenAI-style
  • Latency : Low
Попробовать

Через AWS Bedrock / Azure / Vertex

Облачные тарифы
  • Compliance : SOC2, HIPAA
  • Регион : EU/US/AP
  • Privacy : No-training гарантии облака
Попробовать

Кейсы: Meta Llama 3/4

Все кейсы →

Локальный LLM на Raspberry Pi 5: какие модели Llama-семейства реально работают

Эксперимент с автономным AI-ассистентом на Raspberry Pi 5 без облака и интернета. TinyLlama, Phi-3 Mini и Mistral 7B на одной плате с активным охлаждением: TTFT, токены/сек, RAM, где хватает Pi на интерактивную работу, а где модель уже на грани и греется.

Денис Есин (Denbackyard) Читать →
✍️

Пользуетесь Meta Llama 3/4?

Расскажите о своём опыте — помогите другим сделать правильный выбор. Отзывы и реальные кейсы особенно ценны.