👋 Друзья, и снова HeyGen!
Как и обещал — продолжаем разговор. Сегодня покажу на личном примере, как я создавал своего AI-аватара. Без прикрас, со всеми подводными камнями и лайфхаками. Поехали! 🚀
🎭 Мой первый AI-аватар: от телефона до компьютера
📱 Шаг 1: Регистрация
Зарегался сначала с телефона. Важное предупреждение: учите английский (или китайский, если знаете)! Интерфейс пока не полностью переведён, но я уже половину понимаю по наитию 😄
Сейчас конечно есть функция - перевод- прямо там включаешь какой хочешь ИИ переводчик и всё. Я то так и сделал, и бац сразу предупреждение - Для работы приложения отключить перевод. И не поверите плакал, ржал, читал на английском, переводил с камеры, но договорились, тут опять прислали приглашение, что бы я к ним зашёл, что нибудь сделал, поржать захотели наверное.
🔍 Шаг 2: Поиск функций
Быстро разобрался, где:
- ✨ Создать аватар
- 🤖 Настроить агента
- 🎬 Сделать видео из изображения
📸 Шаг 3: Съёмка
Выбрал аватар, пощёлкал себя на камеру... и тут сюрприз — на телефоне не получится! Система перенаправляет на компьютер. Пришлось отправлять фото на комп.
⚡ Шаг 4: Результат
И опа! Через пару минут готов аватар. Правда, с водяным знаком HeyGen, но это не страшно — сейчас всё можно удалить или заклеить в редакторе.
Да видео надо снимаь в разговорном варианте, мне предложили текст я и прочёл как мог на английском, обязательно с мимикой, у меня с первой попытки приняли. Самое интересное в видео говорю на русском Они наверное услышали мой разговорный английский и решили не заморачиваться, поставили свою озвучку .но моим голосом. А может наоборот ИИ сразу всё понял.
🎬 Вот что получилось
👤 Мой AI-аватар в действии:
💡 У меня уже был один вариант аватара. Этот уже обработан, шалит! Но это не HeyGen, делал в другой нейросети, живчик такой и у меня ещё один есть, там пипец сама серьёзность
👇 Какой вариант вам больше нравится? Пишите в комментариях! Открыть бота в Telegram Друзья пишите боту он мой я его просматриваю. Он ещё в разработке.
🐱 Мои «бесы» — коты-рокеры
Рок-банда из котов!
Песня «Амстердам» — очень прикольная, и в этом кусочке клипа мои пушистые друзья отжигают по полной!
🔥 Инсайд для своих
У меня есть ещё несколько очень крутых клипов, которые я берегу как зеницу ока 😎 Один из них — девушка, танцующая на шесте. Получилось просто супер-реалистично!
Попозже расскажу, где делал и кто мне «слепил» — промпт был мой полностью. Но это тема для отдельной статьи... когда-нибудь 😉
В следующих статьях напишу о серьёзной потере бесплатного генератора видео Грок-4. Это лучший генератор лично для меня, быстр,и самое главное - знает русский
Так что друзья ожидайте, временно буду отсутсвовать, может с телефона что то отправлю, если выйдет прям огонь новость
📰 Важная новость: Midjourney 8.1
🎨 Midjourney 8.1 выходит 6-8 апреля!
Не обещаю, что напишу что-то сразу о нём — без конкретики пока. Но могу сказать одно:
🚀 Про Stable Diffusion можно будет забыть.
Всё крутое теперь будет в Midjourney!
✅ На этом пока всё!
Пробуйте HeyGen, экспериментируйте, делитесь результатами.
Оставайтесь на связи! 🙌
Бро, если ты думал, что HeyGen — это только говорящие головы, которые стоят и читают текст, то держись — буквально вчера (в начале апреля 2026) всё серьёзно изменилось.
HeyGen подключил Seedance 2.0 — мощную видеомодель от ByteDance. Теперь твои аватары могут не просто говорить, а двигаться: ходить, жестикулировать, поворачиваться и попадать в разные сцены.
Я уже готовлюсь протестировать это на своём аватаре (том самом, которого создал раньше). Посмотрел что получается на видео HeyGen- мощно. Новый режим Avatar Shot на базе Seedance 2.0 Значительно лучше работает передача движения (motion transfer) Камера стала понимать нормальные кинематографические команды (slow push-in, gentle pan и т.д.) Можно делать более сложные сцены, а не только статичный talking head Впечатляет.
Avatar Shot теперь живёт как отдельный инструмент в разделе Avatars (не только внутри обычного генератора). Там можно сразу создавать полноценные кинематографические сцены с твоим цифровым двойником. HeyGen подчёркивает, что они — единственная платформа, где Seedance 2.0 работает с реальными человеческими лицами (твоим аватаром), а не просто с генерированными персонажами. Можно ставить несколько аватаров в одну сцену (например, два твоих клона взаимодействуют друг с другом). Обновление также улучшило Video Agent — теперь из одного промпта можно получать более динамичное видео (не только talking head). Есть живой walkthrough (демо), который HeyGen проводил 7 апреля — там показывали реальные примеры промптов и как это работает. Доступность: пока с верификацией бизнес-почты, и в некоторых регионах (США и Япония) могут быть ограничения.
Честные нюансы от пользователей и тестов:
Движения стали заметно лучше и естественнее, особенно жесты рук и взаимодействие с окружением. Иногда модель использует «общий стиль» аватара, а не конкретный look из твоей тренировки. Жрёт больше кредитов, чем обычный режим. Пока видео короткие (4–15 секунд за генерацию), для длинных роликов нужно склеивать или использовать timeline prompting.
ВСЁ СПАСИБО ЧТО ЧИТАЕТЕ! ПИШИТЕ БОТУ ОТВЕЧУ
Открыть бота в Telegram📚 Предыдущие статьи цикла:
Сейчас готовлю 9-ю статью. Если есть идеи, о чём сделать следующую — пиши в комментариях!