В этом году нейросетевые сервисы, предназначенные для генерации кода, музыки, картинок и даже видео стали чем-то обыденным. Вау-эффекта, как пару-тройку лет назВ этом году нейросетевые сервисы, предназначенные для генерации кода, музыки, картинок и даже видео стали чем-то обыденным. Вау-эффекта, как пару-тройку лет наз

Итоги 2025: что нейросети уже (плохо) делают за нас

В этом году нейросетевые сервисы, предназначенные для генерации кода, музыки, картинок и даже видео стали чем-то обыденным. Вау-эффекта, как пару-тройку лет назад, они уже не вызывают. Мы привыкли рутинно обращаться к ним, когда нужно сделать баннер с котиком или перевести с китайского языка.

Нейросети не стали панацеей. Они не начали выполнять нашу работу лучше нас. Ни писать, ни рисовать, ни кодить на достаточном для соперничества с живым человеком уровне они по-прежнему не умеют. Даже ассистенты из них получаются так себе – недавно, например, ИИ от Google «снес» все содержимое диска D: на компьютере, когда хозяин попросил его почистить кэш в одной папке.

Источник: Reddit
Источник: Reddit

Так почему же нейросетей с каждым днем все больше в нашей жизни? Почему мы, образно говоря, плачем, колемся, но едим этот технологичный кактус? Попробуем разобраться под катом.

ИИ для обывателей

Давайте на берегу договоримся, что нейросетевые продукты мы будем для краткости называть общим словом «ИИ». К тому же в терминологии обывателя, интересы которого мы рассмотрим в статье, разницы между понятиями «искусственный интеллект» и «большая языковая модель» нет в принципе. Кто-то до сих пор называет и Gemini, и Deepseek, и Qwen собирательным именем «Чат ГэПэТэ», не вдаваясь в подробности.

Итак, зачем же людям нужны нейросети, если генерируемый ими контент (любой) очень часто приходится исправлять вручную? Вероятнее всего, людям нравится идея посредника между их желаниями и реальным воплощением. Если нужно провести электричество, мы зовем электрика. Прочистить слив – сантехника. Починить машину – обращаемся к механику. То есть априори доверяем «специалистам» больше, чем себе. И если в человеческом мире это вполне оправдано (за некоторыми исключениями), то в случае с нейросетями есть нюанс. Продолжим аналогию со специалистами узкого профиля.

Допустим, креативная душа бухгалтера-экономиста потребовала написать песню. Есть идея, есть представление, как она должна звучать, но ни голоса, ни музыкального образования, увы, нет. Что же делать?

Для записи песни придется найти:

  • поэта-песенника, который напишет слова;

  • музыканта-аранжировщика или группу, которые согласятся записать музыку;

  • вокалиста с подходящими манерой и тембром голоса.

Звучит долго, дорого и неинтересно. Нецелесообразно. Раньше обыватель мог только скорбно вздохнуть и пойти заниматься чем-то, что он делать умеет. А теперь у нас есть Suno!

Сервис позволяет сгенерировать текст, определить жанр трека, пол исполнителя и совершенно бесплатно получить что-то невнятно музыкальное готовую песню, которую можно разослать друзьям и дать послушать маме. А за отдельную плату дадут потыкать фирменный «музыкальный» редактор.

Плохо, что ли? Хорошо!

Да, качественно не получится. На радио, скорее всего, не возьмут. Но для краткосрочного фана с друзьями результата будет достаточно. Миссия выполнена, бухгалтер уже через 15 минут сможет со спокойным сердцем вернуться к сведению годового баланса. Чтобы записать песенку, не пришлось разбираться с музыкальным софтом или реальными инструментами, учиться петь и писать текст.

Помните этот мем из фильма «Я робот»? Источник: cossa.ru
Помните этот мем из фильма «Я робот»? Источник: cossa.ru

Формально ИИ справляется с задачей. Хуже, чем профессионал, но лучше, чем обыватель. При этом человеку, подверженному синдрому Даннинга-Крюгера, результат будет казаться еще лучше. Но песенки и brainrot-контент – это лишь вершина айсберга.

Вайб-кодинг

Здесь на сцену выходит вайб-кодинг. Отличный пример того, как изменился сам подход к обучению и поиску информации. Кто-то с помощью ИИ экономит на найме настоящих программистов, кто-то реализует свои небольшие пет-проекты.

Еще несколько лет назад начинающему программисту, чтобы сделать простенькую игру на Unity, приходилось осваивать C#, API движка, изучать чужие проекты и проводить часы на StackOverflow. Работа строилась по принципу «сам не напишешь – никто не напишет». Это не плохо и не хорошо – просто нормально. А неистовый гуглеж давал опыт в поиске и структурировании информации.

Но этот тернистый путь не для всех. Зачем тратить время и учиться, если цель – на скорую руку соорудить поделку про Балерину Капучино или Бомбардиро Крокодило? Зачем искать вручную, если можно попросить ChatGPT написать нужный код?

Все больше людей в первую очередь обращаются за советом к LLM, и лишь потом, если ответ их не устроил, прибегают к классическому поиску.

Или:

Надо ли пояснять, что получится в итоге? Особенно когда длина контекста превысит возможности модели, и она начнет путаться в показаниях.

Гораздо приятнее получить компромиссное «все-и-сразу», чем ломать голову над реальной, приземленной логикой, которая опирается на архитектуру игры. Копипаста выходит на новый уровень. В самых маргинальных случаях разработчики вайб-кодят прямо на рабочем месте, отчего у сеньора, проверяющего код, может возникнуть желание оторвать автору несуществующие руки.

Впрочем, есть и хорошие примеры. Самые вдумчивые новички от программирования используют нейросети в качестве эрзац-учителей. Условный Deepseek может пояснить, почему не работает (или как должен работать) код, даст краткую выжимку из огромной статьи на иностранном языке или подскажет нестандартное решение. В этом случае очень интересно наблюдать за моделями в режиме Think. Зачастую «мышление» оказывается интереснее, чем результат.

Люди, далекие от программирования, обращаются к вайб-кодингу для автоматизации или упрощения своих рабочих процессов. Возвращаясь к примеру с бухгалтером – вполне разумно выглядит идея попросить нейросеть помочь со сложной формулой или сгенерировать макрос. Это легче, чем прикручивать к своей таблице на 50 листов чье-то решение из интернета. Главное, убедиться, что все работает как надо.

Тенденция, однако, такова, что люди все чаще обращаются к нейронкам, а не к поисковым системам. Яндекс и Google это заметили – поэтому перед реальной выдачей как правило появляется GPT-блок. С правдивой информацией или дикими галлюцинациями – как повезет.

Нейроарты и видео

В какой-то момент Stable Diffusion и Midjourney стали генерить неплохие изображения по текстовому промпту. Это была едва ли не первая ласточка, предвосхитившая нынешний бум – раньше была только Prisma, преобразующая картинки в стиль известных художников.

Кто-то игрался в Discord’е, кто-то инсталлировал полноценную SD с веб-интерфейсом и обвешивался ControlNet’ами. Пока простые пользователи считали пальцы, «рисовали» небоскребы из вафелек и глумились над знаменитостями, нейроарты окружили нас со всех сторон. ИИ-принты теперь есть на одежде лоукост-брендов, школьных тетрадках, дезодорантах и прочих товарах широкого потребления. Невозможно зайти даже в продуктовый магазин «у дома», чтоб не увидеть ни одного сгенерированного изображения. А вокруг моделей один за другим возникают платные сервисы для маркетологов.

Что касается обычных людей – в окружении автора статьи пара человек, которые на полном серьезе генерят (не слишком разнообразные) арты в Шедевруме и постят результаты в соцсетях. Чем-то напоминает прошлый пример с Suno.

Есть, безусловно, и доброкачественные примеры использования ИИ: апскейлинг и реставрация семейных фотографий, художественная обработка снимков, создание референсов для концепт-арта и тому подобное.

Что касается нейросетей для генерации видео – рекомендуем посмотреть видео Димы Сыендука. Он отлично прошелся по ИИ-рекламе и брейнрот-контенту, добавить нечего.

Пожалуй, самое неприятное в этой истории – симуляция настоящего творчества и самостоятельности. Когда мы создаем что-то при помощи нейросети, мы подсознательно приписываем удовлетворительный результат к своим заслугам – в конечном итоге это очень негативно сказывается на творческом мышлении.

Иллюзия общения

Мы очень быстро перешли от всевозможных проверок «чат-ботов» на вшивость к стадии почти безусловного доверия к ним. Подчеркнутая вежливость и толерантность LLM сделали свое дело, и люди начали разговаривать с ними по душам.

На этой благодатной почве расцвели десятки ИИ-сервисов для общения с выдуманными персонажами. Можно задать темперамент собеседника, описать его внешность и пол, а также задать ролевую модель. Нейросеть может притвориться закадычным другом из футбольной команды, девушкой, живущей по соседству, или романтично настроенной настольной лампой. Если закрыть глаза на фальшь и наигрыш, с таким собеседником можно скоротать пару скучных вечеров.

Например, в Character.ai можно бесплатно создать своего персонажа и «позвонить» ему. Эффект зловещей долины проявляется во всей красе: ИИ пытается имитировать живую речь с замедлениями и ускорениями, запинками и прочими спецэффектами. При этом сохраняет отчетливое «пионерское расстояние» — поговорить на темы 18+ бесплатно не выйдет. Одно неловкое движение – и «I can’t continue this conversation».

Не спрашивайте, почему мы решили совратить несчастный осветительный прибор
Не спрашивайте, почему мы решили совратить несчастный осветительный прибор

Существуют и «взрослые» версии подобных сервисов. На скриншоте ниже – Crushion.ai. Сервис позволяет как поговорить с чужим персонажем, так и создать собственного. Настроек в целом на порядок больше. Функции голосового вызова нет, однако можно озвучить любое сообщение выбранным голосом. По-русски персонажи общаются в стиле Ричарда Сапогова, с заметным акцентом.

А если щелкнуть на иконку лампочки в правом нижнем углу (что мы и сделали), нейросеть придумает ваше сообщение для самой себя. Точнее, дорисует сценарий, а реплику оставит на усмотрение пользователя. Но все равно удивительно «ленивая» опция.
А если щелкнуть на иконку лампочки в правом нижнем углу (что мы и сделали), нейросеть придумает ваше сообщение для самой себя. Точнее, дорисует сценарий, а реплику оставит на усмотрение пользователя. Но все равно удивительно «ленивая» опция.

Говорят, есть подобные сервисы с симуляцией видеочата, но наши моральные устои разбились об paywall, поэтому скриншотов не будет.

Увы (или ура), нейросети на текущем уровне развития не способны поддержать толковую беседу, их «память» ограничена несколькими десятками килобайт, а имитация живого человека им пока что совсем не удается. Но как небольшое развлечение, этакий вариант guilty pleasure, почему бы и нет.

Подведем итоги

Вот уже несколько лет мы живем бок о бок с нейросетями. Непохоже, что кто-то из-за них лишился дела всей жизни или, наоборот, обрел великое счастье. Если бум ИИ не прекратится в ближайшие 5-10 лет, мы сможем сделать настоящие выводы об их вредности или полезности, наблюдая за привычками подрастающего поколения. Нас ругали за денди – но ни один кинескоп от нее в реальности не сел. Пророчили, что мы обленимся из-за своих компьютеров – а мы все так же считаем в уме и гуляем на улице. Но, может быть, создатели мультфильма про ВАЛЛ-И были отчасти правы – технологии, которые делают все за нас, ограничивают наш потенциал. Хотя, если вдуматься, виноваты вовсе не технологии. Виноваты мы сами – любители легкого дофамина.

Поэтому в следующий раз, когда вам захочется порисовать, придумать песню или написать скрипт, сделайте это сами. Именно в этом и состоит суть того, чтобы быть живым человеком.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.