Автомаляр собрал робота из Nokia 2.4 за 700 ₽ и 2 недели с DeepSeek-наставником
Я кузовной мастер, по работе крашу машины, программировать не умею. Но захотел попробовать собрать своего управляемого робота — из старого Nokia 2.4, который купил за 700 рублей. Идея простая: смартфон становится мозгом, у него есть Wi-Fi точка доступа и камера. Управление по сети с моего ноутбука, видеопоток обратно. Я понимал примерно ноль процентов от того, что для этого нужно. Но решил, что DeepSeek справится за двоих.
Конфигурация. Nokia 2.4 — основной вычислитель, точка доступа и камера. ESP12 Wemos D1 Mini — связь с моторами по WebSocket к Python-серверу на ноутбуке. Два редукторных мотора 33GB-520 на колёса, серво SG90 поворачивает голову с камерой. Питание — литий-ионная сборка 3S 2400 мА·ч через DC-DC преобразователь. Связка получилась рабочая, задержка видео меньше 60 мс.
Как шла работа. DeepSeek я гонял в браузере и в Termux на смартфоне. Описывал, что хочу, он писал кусок кода, я закидывал на железо, оно ломалось, я возвращался с логом ошибки. Цикл. За две недели мы вместе написали больше 1400 строк только в веб-интерфейсе. Это не «AI пишет, я копирую» — скорее, я каждый раз на грани сдаться, спрашиваю «это слишком сложно для меня», а DeepSeek отвечает в стиле тренера: «ты ошибаешься, у нас уже есть 99% результата». Это не маркетинг, реально работало психологически — рядом никто из знакомых не разбирался в теме.
Шесть болей, через которые прошёл — и обход для каждой. Первая — потеря контекста между сеансами. Решил через файл README.txt с архитектурой проекта, вкладываю в начало каждого нового диалога. Вторая — лимит токенов в одном окне. Когда диалог раздуло, делаем roadmap-файл со статусом и переходим в новый. Третья — баги в выходном коде. Тот же код вручную проверяю в отдельном окне DeepSeek — модель ловит свои же ошибки, если попросить ревью. Четвёртая — Termux на смартфоне неудобен для копипаста. Просил выдавать файл сразу полностью с готовой командой `cat > file.py << EOF`. Пятая — большие файлы не помещаются в один ответ. Прямо просил разбивать на части. Шестая — «фантомный контекст», когда модель в долгом диалоге начинает помнить то, чего не было. Спасает миграция в свежий диалог с README.
Что получилось. Робот ездит, поворачивает камеру, видео идёт через смартфонную сеть. Все исходники выложены в репозиторий, развёртывание с инструкцией укладывается в 5 минут. Архитектура с командами через WebSocket+JSON универсальна — переписать прошивку под другое железо можно тем же DeepSeek, концепт сохраняется. То есть начинку можно поменять, а логику взаимодействия «ноутбук → сервер → контроллер моторов → датчики обратно» переписывать не нужно.
Что в планах. Перейти с ESP12 на ESP32-S3 — заметно мощнее и поддерживает Wi-Fi 6. Поставить BLDC-моторы вместо редукторных — выше точность поворотов и меньше шума. Добавить SLAM-навигацию, чтобы робот строил карту помещения, и локальный ИИ на смартфоне — тогда не понадобится постоянное подключение к ноутбуку, робот становится автономным.
Главный вывод не про технологии, а про режим работы. Я к началу не умел программировать. Через две недели у меня дома ездит управляемый робот, и я понимаю, как и почему он работает на каждом уровне. Это не сделал DeepSeek за меня — он научил меня объяснять ему задачу так, чтобы получать рабочие куски, и собирать их в систему. Это и есть та самая разница между «я попросил, мне выдали» и «я работаю с инструментом».