AI HARDWARE CATALOG

AI Hardware для локальных моделей и LLM

Сравни GPU, CPU, AI mini-PC и готовые рабочие станции для запуска LLM, Stable Diffusion и других AI-задач дома или в офисе.

GPU
для LLM и Diffusion
AI PC
готовые решения
Compare
быстрое сравнение
TOP GPU

RTX 4090

  • VRAM24 GB
  • FP1682 TFLOPS
  • LLMExcellent
AI MINI-PC

Ryzen AI Box

Компактный локальный AI-узел

USE CASE

Local ChatGPT

LLaMA, Qwen, Mistral, Diffusion

Популярное железо

Карточки можно потом вывести из БД

RTX 4090
LLM Ready

GeForce RTX 4090

  • VRAM 24 GB
  • FP16 82 TFLOPS
  • Use Case LLM / SD
RTX 4080 Super
Balanced

GeForce RTX 4080 Super

  • VRAM 16 GB
  • FP16 52 TFLOPS
  • Use Case LLM / SD
Ryzen AI Mini-PC
Compact

AI Mini-PC

  • RAM 32–96 GB
  • Format Mini-PC
  • Use Case Office AI
Threadripper WS
Pro

Threadripper Workstation

  • CPU High Core Count
  • RAM 128 GB+
  • Use Case AI Lab

Под какие задачи

Не просто каталог, а сценарии использования

Локальный ChatGPT

Подбор GPU и RAM для запуска LLaMA, Qwen, Mistral и других моделей.

Stable Diffusion

Железо для генерации изображений, апскейла и локальной графической AI-работы.

Домашний AI-сервер

Решения для круглосуточного локального inference и self-hosted AI.

Офисный AI mini-PC

Компактные системы для рабочих сценариев, RAG и локальных ассистентов.

Гайды и статьи

SEO-блок, который потом можно связать с моделями и категориями

Как выбрать GPU для локальных LLM

Разбираем VRAM, типы моделей и минимально комфортные конфигурации.

Читать

Сколько памяти нужно для AI mini-PC

Что реально можно запускать на компактных системах дома и в офисе.

Читать

Лучшие конфиги для домашнего AI-сервера

Сценарии от одного GPU до локального multi-GPU узла.

Читать

Начни с подбора AI-железа

Открой каталог и сравни доступные устройства по типу, мощности и назначению.

Перейти в каталог