Как художники и музыканты реально используют ИИ — без хайпа
Пока половина интернета спорит «заменит ли ИИ художников», реальные художники и музыканты молча используют ИИ в своём процессе — и делают это по-разному, чем можно подумать. Я собрала несколько задокументированных кейсов за последние месяцы. Никакой желтизны — только интересные примеры того, как это работает на практике.
Электронная музыка: от референса к аранжировке
Несколько электронных продюсеров из сообщества BeatStars открыто описывали свой процесс в подкастах в начале 2026-го: они используют Suno не для создания финального трека, а для быстрой генерации референсов. Хочешь понять, как может звучать трек в жанре afrobeats с drum and bass ритмом — генерируешь 10 вариантов за 20 минут, выбираешь ощущение, разбираешь на части.
Это очень конкретное использование: ИИ как инструмент для быстрого прослушивания идеи, а не как замена написания музыки. Финальный продукт всё равно пишется вручную в Ableton или FL Studio. Но референсный этап сократился с «записать набросок в 3 часа ночи» до «сгенерировать и послушать прямо сейчас».
Иллюстраторы: концепт → финальная работа
Иллюстраторы, работающие с издательствами, всё чаще описывают похожую схему. Клиент хочет «что-то в духе art nouveau с современными элементами» — это размытое описание. Раньше уходило несколько дней на скетчи вариантов. Теперь — запускают Midjourney с разными интерпретациями описания, показывают клиенту 8 визуальных направлений, получают фидбек, и только потом рисуют финальную работу вручную.
Что изменилось: не то, что делает иллюстратор. А то, как они выравнивают ожидания с клиентом. «Вы имели в виду вот это или вот это?» теперь показывается визуально, а не объясняется словами. Это сократило количество итераций и недопониманий.
Сценаристы: «brainstorming-партнёр»
Сценаристы в нескольких подкастах про творческий процесс — в том числе на Scriptnotes — описывали использование ChatGPT и Claude как «партнёра по брейнштормингу, который никогда не устаёт». Конкретный сценарий: застрял на сцене, не знаешь, как персонаж должен реагировать — просишь ИИ дать 10 вариантов реакции в характере этого персонажа. Используешь 0 из 10 — но это запустило твою собственную мысль, и ты написал одиннадцатый.
Это не про то, что ИИ пишет сценарий. Это про то, что иногда нужен кто-то, кто «скажет хоть что-нибудь», чтобы твой мозг включился. ИИ в этой роли работает без усталости и без обид, если его идеи отклонить.
Фотографы: пост-обработка и концепция
Несколько коммерческих фотографов описывали Adobe Firefly как инструмент для «дозаполнения» кадра: убрать случайный объект из фона, добавить элемент, которого не было на съёмке, изменить небо без ручного вырезания. Раньше это была работа ретушёра на несколько часов. Сейчас — 15 минут.
Важный момент: Firefly обучен только на лицензированном контенте Adobe Stock и общественном достоянии. Для коммерческого использования это принципиально — правовой риск минимален.
Что объединяет эти примеры
Вы только представьте, сколько времени уходило раньше именно на черновую работу: скетчи для выравнивания ожиданий с клиентом, референсы для понимания жанра, варианты для преодоления творческого блока, рутинная ретушь. Это не та работа, ради которой люди шли в творческие профессии. И именно её ИИ берёт на себя.
Финальная работа — та, где есть авторская точка зрения, выбор, вкус — остаётся за человеком. ИИ плохо умеет иметь точку зрения. Зато очень хорошо умеет генерировать варианты.
Технологии, которые здесь упоминаются
Если хотите попробовать похожие подходы: для музыкальных референсов — Suno или Udio. Для визуальных концептов — Midjourney или Ideogram (бесплатный, хорош для текста в изображениях). Для творческого брейнштормингового партнёра — Claude или ChatGPT. Для фоторетуши — Adobe Firefly прямо в Photoshop.
💬 Если вы занимаетесь чем-то творческим — как вы используете (или не используете) ИИ в своём процессе? Мне особенно интересны нестандартные применения — не «генерирую финальный контент», а что-то вроде примеров выше.