Дата исследования: 25 февраля 2026 Формат: по компаниям — как, результаты, выводы, планы, подводные камни.
По исследованию State of DevOps Russia 2024, 44% российских компаний уже используют AI для разработки и тестирования ПО, 47% отметили положительный эффект на эффективность работы.
К декабрю 2025 года доля крупных компаний, использующих генеративный AI хотя бы в одной функции, превысила 71%. 78% фиксируют экономический эффект. Разрыв между теми, кто начал внедрение в 2023, и всеми остальными уже становится «фатальным».
Источники:
Яндекс — лидер рейтинга ключевых ИИ-работодателей России (36 баллов из 36). В сентябре 2024 года компания выпустила Yandex Code Assistant — AI-ассистент для программистов на базе собственных нейросетей, интегрированный в платформу SourceCraft (запуск 26 февраля 2025 года, технический превью).
SourceCraft — это полноценная платформа разработки: код, git, CI/CD, сборка, деплой, анализ структуры проектов и PR. Code Assistant работает как плагин для VS Code, VSCodium и JetBrains IDE. Поддерживает 30+ языков программирования.
Ключевая практика — «догфудинг»: команда разрабатывала платформу, одновременно используя её для собственной разработки. Тысячи разработчиков Яндекса протестировали ассистент до публичного запуска.
Утверждение: Yandex Code Assistant генерирует продолжение кода в 95% случаев за 400 миллисекунд.
Доказательство: Указано на официальной странице сервиса и в материалах Habr от команды Яндекс Облака.
Источник: Timeweb — обзор Yandex Code Assistant, Habr — SourceCraft запуск
Утверждение: 60% внутренних тестировщиков Яндекса стали постоянными пользователями Code Assistant.
Доказательство: Цифра приводится в официальных материалах Яндекса и на странице продукта на TAdviser.
Источник: TAdviser — Yandex Code Assistant 2, Parsers.vc — Yandex Code Assistant
Метрика качества — «счастье пользователя» (user happiness): учитывает длину принятых подсказок и соотношение принятых/отклонённых вариантов. Нестандартный подход, ориентированный на реальную полезность, а не просто процент принятия.
- Интеграция с Yandex Cloud
- On-premise версия для корпоративных заказчиков
- Режим чата с разработчиком
- Сканер секретов и уязвимостей в коде
- Переход от code completion к агентным сценариям
Источник: Habr — SourceCraft, планы и догфудинг
Утверждение: Yandex Code Assistant требует подключения к Yandex Cloud — жёсткая зависимость от конкретного вендора.
Доказательство: Сервис работает через облачную платформу Яндекса; альтернативные варианты развёртывания пока не представлены. Это контрастирует с решениями без вендорлока.
Источник: Habr — внедрение AI Code Assistant без вендорлока, Yandex Cloud Docs
Сбер выстраивает собственную AI-экосистему вокруг линейки GigaChat (Lite, Pro, Max). В декабре 2024 года модель GigaChat Lite (20B-A3B) выложена на HuggingFace в открытый доступ с контекстом 131K токенов. В феврале 2025 опубликована обновлённая instruct-версия.
Для разработчиков Сбер развивает GigaCode — ассистент для написания кода, конкурирующий с аналогичными решениями (GitHub Copilot, Cursor, Tabnine).
Умные колонки SberDevices полностью переведены на GigaChat 2.0.
Источник: Habr — GigaChat Lite в открытом доступе, Habr — GigaChat 2.0 в API
- Контекст диалога в умных колонках увеличен в 10 раз
- Улучшено понимание нескольких команд в одном запросе
- GigaChat 2.0 демонстрирует поддержку агентных сценариев в инструментах типа GPT Researcher и Aider
- Поддержка вызовов функций и понимание инструкций значительно улучшены
Утверждение: GigaChat 2.0 Pro в открытых бенчмарках приближается к уровню GPT-4o на задачах свободного общения.
Доказательство: Приводится в пресс-материалах Сбера при запуске YandexGPT 4 (внешний ориентир), сравнения публиковались на Habr.
Источник: Habr — GigaCode сравнение ассистентов
- Масштабирование агентных сценариев на базе GigaChat 2.0
- Развитие GigaCode как инструмента для корпоративных разработчиков
- Интеграция в DevEx (Developer Experience) продукты экосистемы Сбера
Публичных детальных post-mortem от Сбера о сложностях внедрения AI в собственную разработку не обнаружено. Сбер преимущественно публикует маркетинговые материалы о возможностях моделей, но не об операционных уроках.
Подтверждение не найдено в проверяемых источниках для конкретных метрик производительности разработчиков, использующих GigaCode внутри Сбера.
МТС AI (сейчас MWS AI) — одна из наиболее открыто публикующих свой опыт компаний. Команда провела пилот по внедрению LLM в чат-боты МТС (конец 2024 года, ~2,5 месяца). Суммарная аудитория ботов — 80+ млн пользователей, до 500 тыс. обращений в сутки.
Для разработчиков MWS AI создала линейку Kodify:
- Kodify 2 — корпоративный on-premise AI-ассистент (7B параметров, 90+ языков, 32K контекст)
- Kodify Nano — открытая версия (1,5B параметров, опубликована на Hugging Face)
Основа обеих моделей — Qwen Coder 2.5 с дообучением методом Direct Preference Optimization (DPO).
Источник: Habr — MTS AI, нельзя заменить код на промпты, MTS AI — Kodify Nano, Habr — новые ИИ-помощники
Подтверждённые цифры из пилота на реальных сценариях клиентского сервиса МТС:
- Рост удовлетворённости пользователей и доли автоматизированных обращений на 5–10% (в зависимости от сценария и канала)
- Ответы стали «богаче», более человечными; бот проявляет больше эмпатии
- Саммари для операторов: ожидали сокращение AHT на 8 секунд — получили 11 секунд, tNPS вырос на 1,3% вместо ожидаемого 1%
Источник: Habr — нельзя просто заменить код промптами
«Нельзя просто так взять и заменить тысячи строк кода на промпты. То есть можно, но жизнь разработчикам это не упростит, а в некоторых случаях даже усложнит.»
Главный вывод команды: нужен баланс между традиционной логикой и генеративным AI. Была разработана концепция гибридной архитектуры: структурированная логика бота + LLM для финального ответа пользователю.
Родилась идея специализированного DSL для работы с LLM — структурированного псевдокода вместо многостраничных промптов на естественном языке.
- Переход к агентной экосистеме: вместо одного монолитного бота — специализированные LLM-агенты (по мобильной связи, финансовым услугам, техподдержке)
- Режим «болталки» — свободный диалог на произвольные темы
- Персонализированные рекомендации тарифов через LLM
- LLM-анализ причин переводов на оператора-человека
Источник: Habr — нельзя просто заменить код промптами
Проблема 1 — Задержка ответа: LLM отвечает в несколько раз медленнее классического скрипта. Для голосового ассистента это критично: пользователь слышит тишину и злится. Временное решение — бот произносит преамбулу «Сейчас проверю информацию…». Потребуется streaming-выдача.
Проблема 2 — Галлюцинации и «пассивная агрессия»: Модель «придумывала» факты или отвечала в неуместном тоне. Для борьбы с этим промпты заполнялись строгими ограничениями. Дошло до «угроз» модели штрафами $10–100 тыс. Итог: промпты разрослись до размеров «пятого тома "Войны и мира"» — такими же громоздкими, как тот код, от которого хотели уйти.
Проблема 3 — Недетерминизм: LLM может ответить на один и тот же запрос по-разному. Это сломало тест-кейсы, где тестировщик привык к строгим эталонным ответам. Время тестирования одной ветки диалога выросло.
Проблема 4 — LLM плохо делает то, что делает один if: Элементарная арифметика, проверки по справочникам, работа с датами — в классическом сценарии одна строчка кода. Для LLM нужны особые инструкции или дополнительный парсер. Подключать генерацию ради этого — «забивать гвозди микроскопом».
Итог по разработке: Time to Market вырос чуть ли не вдвое из-за итераций отладки промптов, поиска баланса и расширенного тестирования.
Источник: Habr — нельзя просто заменить код промптами (полный текст)
VK Tech использует Claude Code исключительно для R&D и проверки гипотез — не для разработки продуктов. Это принципиальное ограничение, явно обозначенное командой.
Также компания добавила в VK Teams AI-ассистента с записью и расшифровкой звонков.
Источник: Habr VK Tech — разработка с AI в 2025
VK Tech сформулировал три столпа разработки с AI:
- Ясность мышления — если не можешь чётко объяснить задачу, AI не решит её правильно. Узкое место сместилось: теперь важно не «как закодить», а «что именно строить».
- Экспертность в предметной области — AI ускоряет реализацию того, что ты знаешь. Когда видения нет, тратишь часы на неправильные подходы. Синтаксис фреймворка подскажет AI, архитектуру — нет.
- Ответственность за результат — «Каждая строка кода — ваша, независимо от того, кто её написал. 80% прироста продуктивности требуют 100% человеческого надзора.»
Практические паттерны, рекомендованные VK Tech:
- CLAUDE.md как «постоянная память» проекта (архитектура, правила, домен, workflow)
- Plan-then-Execute — сначала план без кода, потом выполнение по пунктам
- Очистка контекста (
/clear) после каждых 1–3 сообщений - Итерации по 30–60 минут вместо попыток построить систему целиком
Источник: Habr VK Tech — разработка с AI в 2025 (полный текст)
- Расширение применения Claude Code в R&D
- Развитие AI-функциональности в VK Teams
- Подтверждение не найдено для планов внедрения AI-ассистентов непосредственно в продуктовую разработку
Утверждение: 72% времени, сэкономленного благодаря AI, не конвертируется в дополнительную производительность.
Доказательство: Исследование, на которое ссылается VK в материале, охватывало реальные инженерные команды.
- Накладные расходы на переключение контекста — до 15% времени
- Проверка AI-кода требует 20–30% дополнительного времени
- 45% неудач связаны с «наивной верой» в автоматический прирост продуктивности
Источник: Habr — инженерное лидерство в эпоху AI
В конце 2023 года Т-Банк создал собственный AI-ассистент для разработчиков — как альтернативу GitHub Copilot. Причины: санкции, повышенные требования к безопасности данных, необходимость защиты внутренней информации.
Функциональность:
- Inline-подсказки — продолжение кода в реальном времени
- Блочные подсказки — готовые фрагменты кода для вставки
Параллельно Т-Банк создаёт собственную линейку LLM GEN-T. В 2025 году выпущена T-Pro 2.0 (Qwen3 32B + обучение на 500K русскоязычных инструкций). Скачивается более 15 тыс. раз в месяц.
Т-Банк — второй по значимости AI-работодатель в рейтинге ICT.Moscow (32 балла). Центр AI публикует исследования на ICML 2025 и ICLR 2025.
Источник: Т-Банк — AI-ассистент для разработчиков, Habr — T-Pro 2.0, Центр AI Т-Банка
Детальные публичные метрики (процент принятия подсказок, рост скорости разработки) Т-Банком не раскрывались.
Подтверждение не найдено для конкретных цифр производительности разработчиков с внутренним AI-ассистентом.
Публично подтверждено: ассистент используется в промышленной эксплуатации, команда регулярно его улучшает.
- Развитие агентных возможностей на базе T-Pro 2.0
- Применение моделей GEN-T во внутренних задачах (антифрод, рекомендации, NLU)
- Продолжение научных исследований в области LLM
Специфических post-mortem Т-Банка о сложностях не найдено. Главная очевидная причина создания собственного инструмента — невозможность использовать GitHub Copilot из-за санкций и требований безопасности. Это одновременно и ограничение, и стимул к развитию собственных компетенций.
Авито инвестирует 12 млрд рублей в GenAI до 2028 года, планируя получить выручку свыше 21 млрд рублей. Разработала собственные модели:
- A-Vibe (текстовая) — на базе Qwen2.5 7B
- A-Vision (мультимодальная) — на базе Qwen2.5 7B
Применение: автоматизация описания товаров, подсказки в мессенджере, консультирование покупателей, анализ отзывов.
Также внедрён ИИ-ассистент в M42 (внутренний BI-инструмент): доступ к 16 000+ метрикам, 120+ разрезам. Запущен LLM в мессенджере, обрабатывающий 13% вопросов покупателей.
Источник: iXBT — Авито 12 млрд в GenAI, Habr — M42 ИИ-ассистент, Habr — LLM в мессенджере
Утверждение: GenAI-решения, внедрённые в 2024 году, принесли 670 млн рублей дохода.
Доказательство: Приводится в публичном заявлении Авито с финансовыми данными.
Источник: iXBT — апрель 2025
- 62% аналитиков Авито активно используют M42, 66% регулярно строят графики и отчёты
- На 2025 год запланированы 20 новых GenAI-сценариев с потенциалом выручки свыше 1 млрд рублей
- Масштабирование собственных моделей A-Vibe и A-Vision
- Запуск 20 новых сценариев GenAI в 2025 году
- Расширение LLM-ассистента в мессенджере
Авито использует локальные LLM для обеспечения безопасности данных — чтобы не передавать внутреннюю информацию во внешние сервисы. Это требует собственной инфраструктуры и экспертизы для деплоя.
Источник: Habr — автоматизация рутины с локальной LLM
ЛАНИТ — один из крупнейших российских ИТ-интеграторов — активно исследует влияние AI на разработку, транслируя результаты через Habr-блог и TG-канал AI4Dev.
ЛАНИТ проанализировал отчёт DORA 2024 и сопоставил с собственными наблюдениями у заказчиков:
Парадокс производительности:
- 75,9% программистов используют AI
- 75% отмечают рост индивидуальной продуктивности
- НО: скорость доставки ПО снижается на 1,5% на каждые 25% роста внедрения AI
- Стабильность доставки снижается на 7,2% при том же уровне
Объяснение: AI создаёт больше кода → больше изменений → «старый водопровод не рассчитан на такой напор».
Вывод: «AI усиливает то, чем вы уже являетесь. Сильные основы + AI = x3 продуктивность. Слабые основы + AI = технический долг в масштабе.»
Источник: Habr ЛАНИТ — разработчики полюбили AI, но продукты стали хуже
Т-Банк, Авито, Яндекс — все создали собственные инструменты, потому что GitHub Copilot, Cursor и аналоги либо недоступны, либо несут риски утечки данных.
Источник: Т-Банк — AI-ассистент для разработчиков
31% российских компаний обеспокоены передачей данных в облачные AI-платформы. Авито решает через локальные LLM, Т-Банк — через собственную инфраструктуру.
Источник: Novosti IT Kanala — сложности ИИ в РФ
Попытка заменить сложные диалоговые сценарии промптами привела к тому, что промпты стали такими же громоздкими, как код. Поддерживать их не легче.
Источник: Habr MWS AI
Для клиентского сервиса с миллионами пользователей галлюцинации критичны. Промпт-инжиниринг требует больших усилий; универсального решения нет.
Индивидуальный прирост скорости написания кода не конвертируется в ускорение time-to-market. Методологии и процессы не успевают за новыми возможностями.
Источник: Habr ЛАНИТ, DORA 2024
43% российских компаний указывают на отсутствие специалистов как второй по значимости барьер внедрения AI.
Источник: Novosti IT Kanala — готовность к ИИ
Многие AI-проекты зависают на уровне пилотов. Проблема масштабирования — один из ключевых барьеров.
Источник: KT-Team — AI в корпорациях 2025
2025 год стал годом, когда компании-лидеры начали инвестировать в агентные экосистемы: не autocomplete, а автономные агенты с инструментами, способные решать сложные многошаговые задачи.
- МТС AI: от одного бота к сети специализированных LLM-агентов
- Яндекс: on-premise версия SourceCraft + агентные возможности
- Авито: масштабирование через собственные модели A-Vibe / A-Vision
Российские компании вынуждены строить свои модели и инфраструктуру. Это создаёт дефицит ресурсов, но одновременно формирует собственные компетенции, не зависящие от западных вендоров.
Источник: AiRassvet — эффективность ИИ в российском бизнесе 2025–2026
| Компания | Инструмент | Ключевая метрика | Подводный камень |
|---|---|---|---|
| Яндекс | SourceCraft / Code Assistant | 60% пользователей стали регулярными | Вендорлок на Yandex Cloud |
| Сбер | GigaCode / GigaChat 2.0 | Нет публичных цифр по разработке | Нет открытых данных по девелопменту |
| МТС AI | LLM в ботах / Kodify | +5–10% к автоматизации, AHT −11 сек | Time to Market вырос в 2 раза на пилоте |
| VK Tech | Claude Code (R&D only) | Только для гипотез, не для продукта | 72% сэкономленного времени теряется |
| Т-Банк | Собственный ассистент | Нет публичных метрик | Санкции → вынужден строить своё |
| Авито | A-Vibe, A-Vision, M42 AI | 670 млн руб. от GenAI в 2024 | Нужна собственная инфраструктура для локальных LLM |
| ЛАНИТ | Анализ / консалтинг | DORA: delivery stability −7,2% | Методологии не успевают за инструментами |
Research готов и сохранён в domain/ai/russian-companies-ai-in-software-development.md. Вот краткое резюме того, что удалось найти.
Яндекс — самый подготовленный игрок. SourceCraft + Code Assistant: 60% внутренних тестировщиков стали регулярными пользователями, генерация кода за 400 мс в 95% случаев. Планируют on-premise версию и агентные сценарии. Подводный камень: жёсткий вендорлок на Yandex Cloud.
МТС / MWS AI — наиболее открытая компания по части задокументированных провалов. Провели честный пилот и опубликовали всё: +5–10% к автоматизации ботов, AHT на операторов −11 сек — хорошо. Но Time to Market вырос вдвое: промпты стали такими же громоздкими, как заменяемый ими код. Главный вывод — нужна гибридная архитектура, а не замена кода на LLM.
VK Tech — используют Claude Code строго для R&D, не для продакшена. Сформулировали три столпа: ясность задачи, доменная экспертиза, личная ответственность за каждую строку. Зафиксировали: 72% сэкономленного времени теряется в переключении контекста и проверке кода.
Т-Банк — создали собственный ассистент как вынужденный ответ на санкции и требования безопасности. Публичных метрик по продуктивности нет, но сам факт: банк топ-4 по AI-найму в России строит собственные LLM (T-Pro 2.0, 15K+ скачиваний/мес).
Авито — 670 млн руб. дохода от GenAI за 2024 год при инвестиции 12 млрд до 2028. Создали собственные модели A-Vibe/A-Vision (Qwen2.5 7B). Решение по безопасности — локальные LLM без передачи данных наружу.
ЛАНИТ — честно транслируют DORA 2024: production delivery stability падает на 7,2% при росте AI-внедрения на 25%. Индивидуальная продуктивность растёт, скорость доставки продукта — нет.
Общий паттерн по России дополнительно к мировым трендам: санкции и требования безопасности вынуждают строить собственные инструменты — это одновременно и ограничение (ресурсы, кадры), и конкурентное преимущество на будущее.