ИИ и биг-тех. А что же будет? Часть 1.
Мысли пишу в конце октября 2025 года. Посмотрим, сбудется ли.
Всем привет читатели (если вы конечно есть)
Накину тут мыслей относительно применения технологий генеративного интеллекта в крупных компаниях (и им сочувствующих). Сейчас всё чаще стали появляться новости о том, что та или иная компания начинает добровольные сокращения персонала (а где-то и не добровольные) в связи с развитием ИИ-агентов и заменой сотрудников на эти самые ИИ.
Что мы по факту имеем? А по факту мы имеем довольно странную ситуацию.
С одной стороны у тебя идет «оптимизация» персонала, меньше расходов, вроде как скорость разработки растет, всё чинно-благородно, инвесторы довольны, акции растут.
Но всё ли так хорошо? Я считаю, что нет.
Для начала я приведу выдержку из исследования от OX Security:
Суммарно эксперты выявили десять потенциально опасных недостатков, которые часто встречаются в творениях ИИ-помощников программиста:
- множественные, излишние комментарии в коде, затрудняющие проверку (в 90-100% случаев)
- фиксация на общепринятых правилах программирования, препятствующая созданию более эффективных и новаторских решений (80—90%)
- создание одноразовых кодов, без возможности перепрофилирования под иные задачи (80—90%); исключение рефакторинга (80—90%)
- повторяющиеся баги, которые потом приходится многократно фиксить, из-за невозможности многократного использования кода (70-80%)
- отсутствие осведомленности о специфике среды развертывания, приводящее к отказу кода, исправно функционирующего на стадии разработки (60-70%)
- возврат к монолитным, сильно связанным архитектурам вместо уже привычных, удобных в сопровождении микросервисов (40-50%)
- фейковое покрытие тестами всех интересующих значений — вместо оценки реальной логики ИИ выдает бессмысленные метрики, создающие ложное чувство уверенности в результатах (40-50%)
- создание кодов с нуля вместо добавления обкатанных библиотек и SDK, что повышает риски привнесения ошибок (40-50%)
- добавление логики для порожденных галлюцинациями сценариев, повышающее расход ресурсов и снижающее производительность (20-30%).
Источник: https://www.anti-malware.ru/news/2025-10-27-114534/47841
Проценты после каждого пункта это: «Как часто такие случаи встречаются в ИИ коде, по сравнению с „человеческим“»
Что же на самом деле получается.
Начнем пункта 1. Приложения и сервисы потребляют много ресурсов.
Да, это действительная проблема, потому что и без ИИ качество кода последних лет деградирует и затыкается по факту увеличением мощностей. Сейчас для работы решения, которое прекрасного себя чувствовало год назад на 2 ядрах и 4 гигах ОЗУ нужно уже 4 ядра и 8 гигов, прежде всего из-за тяжести решений внутри, новый функционал и так очень сильно утяжеляет решение, то фичи с ИИ требуют ещё больше ресурсов. Это за собой тянет необходимость в большем количестве ЦОД, растет энергопотребление.
Пункт 2. ИИ нужно ещё больше ЦОДов.
Да, мы сейчас столкнулись с огромной проблемой в виде «цодовой голодовки», компаниям просто не хватает мощностей, не хватает места для новых серверов, особенно «прожорливых» с десятками ускорителей для обработки нейроночек. Даже в РФ энергопотребление ЦОДов к 2030 году планируется, что вырастет вдвое.
Пункт 3. Качество кода.
Да, ИИ пишет «красиво и быстро», но цена этому — дырявый код, с большим количеством уязвимостей, с большим количеством ошибок в коде, меньшей «вариативностью» применения. опять же растет цена эксплуатации кода, растут риски.
Пункт 4. Мания в сфере ИИ.
Да, инвесторы и директорат свихнулся на ИИ. Все говорят про ИИ. Все считают его манной небесной, без которой никто не сможет жить в будущем. Пихают нейросетки везде и всюду. Идеальный пример «зачем» это добавление Алисы AI в Яндекс GO. Зачем мне писать в чат откуда и куда я хочу заказать такси, если я могу это сделать в интерфейсе? Чтобы что? По итогу процесс занимает больше времени, процесс занимает больше ресурсов компании, выхлоп — 0й.
Пункт 5. Доколе.
Да, именно доколе.
Что я вообще хочу этим всем сказать?
То, что мое мнение относительно ИИ довольно простое. Это полезный инструмент, это хороший ассистент человеку, но только там где он действительно необходим.
Может ли ИИ-агент заменить обычный гугл? Для кого-то да, а кому-то нет. Мне например нет.
Спрашивая один и тот же вопрос в Google и в ChatGPT/DeepSeek/Гигачат и etc -> я получаю ответ в Гугле за 2 секунды, а в чатиках этих ваших «не удалось найти информацию, вот что могу предложить»
Глубины обучения моделей недостаточно, умение пользоваться поиском — недостаточно. С одной стороны, когда это всё будет улучшено, может быть это и может быть удобно, но зачем в данном случае менять правила игры, если уже и так есть чудесная строка поиска?
Использовать нейронки стоит именно там, где они действительно полезны. Ассистенты вождения, роботы-пылесосы.
Но главное не стоит забывать о приватности данных, обрабатывать допустим работу пылесоса не стоит где-то на серверах в Китае или Европе, если оно может быть обработано на самом пылесоса.
А вот увольнение сотрудников и замена их агентами это полный «ахтунг»
Именно в рамках IT сектора. Я ещё согласен с тем фактом, что ИИ может заменить нас, например в плане вождения. Я бы и сам с радостью ездил на автопилоте из дома на работу. Но увольнять разработчиков и заменять их ИИ-Агентами это очень спорная и странная идея. На выходе мы получим снежный комп усложненного кода, дырявого кода и ещё более трудную жизнь для ЦОД и рядовых пользователей.
На этом part 1 — всё.