Skip to content

Instantly share code, notes, and snippets.

@deploy595
Created February 25, 2026 03:18
Show Gist options
  • Select an option

  • Save deploy595/5855370a0571ab3e8510fe03d9f86426 to your computer and use it in GitHub Desktop.

Select an option

Save deploy595/5855370a0571ab3e8510fe03d9f86426 to your computer and use it in GitHub Desktop.

AI в разработке ПО: опыт российских компаний

Дата исследования: 25 февраля 2026 Формат: по компаниям — как, результаты, выводы, планы, подводные камни.


Контекст: масштабы внедрения в России

По исследованию State of DevOps Russia 2024, 44% российских компаний уже используют AI для разработки и тестирования ПО, 47% отметили положительный эффект на эффективность работы.

К декабрю 2025 года доля крупных компаний, использующих генеративный AI хотя бы в одной функции, превысила 71%. 78% фиксируют экономический эффект. Разрыв между теми, кто начал внедрение в 2023, и всеми остальными уже становится «фатальным».

Источники:


1. Яндекс

Как используют AI

Яндекс — лидер рейтинга ключевых ИИ-работодателей России (36 баллов из 36). В сентябре 2024 года компания выпустила Yandex Code Assistant — AI-ассистент для программистов на базе собственных нейросетей, интегрированный в платформу SourceCraft (запуск 26 февраля 2025 года, технический превью).

SourceCraft — это полноценная платформа разработки: код, git, CI/CD, сборка, деплой, анализ структуры проектов и PR. Code Assistant работает как плагин для VS Code, VSCodium и JetBrains IDE. Поддерживает 30+ языков программирования.

Ключевая практика — «догфудинг»: команда разрабатывала платформу, одновременно используя её для собственной разработки. Тысячи разработчиков Яндекса протестировали ассистент до публичного запуска.

Утверждение: Yandex Code Assistant генерирует продолжение кода в 95% случаев за 400 миллисекунд.

Доказательство: Указано на официальной странице сервиса и в материалах Habr от команды Яндекс Облака.

Источник: Timeweb — обзор Yandex Code Assistant, Habr — SourceCraft запуск

Результаты

Утверждение: 60% внутренних тестировщиков Яндекса стали постоянными пользователями Code Assistant.

Доказательство: Цифра приводится в официальных материалах Яндекса и на странице продукта на TAdviser.

Источник: TAdviser — Yandex Code Assistant 2, Parsers.vc — Yandex Code Assistant

Метрика качества — «счастье пользователя» (user happiness): учитывает длину принятых подсказок и соотношение принятых/отклонённых вариантов. Нестандартный подход, ориентированный на реальную полезность, а не просто процент принятия.

Планы

  • Интеграция с Yandex Cloud
  • On-premise версия для корпоративных заказчиков
  • Режим чата с разработчиком
  • Сканер секретов и уязвимостей в коде
  • Переход от code completion к агентным сценариям

Источник: Habr — SourceCraft, планы и догфудинг

Подводные камни

Утверждение: Yandex Code Assistant требует подключения к Yandex Cloud — жёсткая зависимость от конкретного вендора.

Доказательство: Сервис работает через облачную платформу Яндекса; альтернативные варианты развёртывания пока не представлены. Это контрастирует с решениями без вендорлока.

Источник: Habr — внедрение AI Code Assistant без вендорлока, Yandex Cloud Docs


2. Сбер / SberDevices

Как используют AI

Сбер выстраивает собственную AI-экосистему вокруг линейки GigaChat (Lite, Pro, Max). В декабре 2024 года модель GigaChat Lite (20B-A3B) выложена на HuggingFace в открытый доступ с контекстом 131K токенов. В феврале 2025 опубликована обновлённая instruct-версия.

Для разработчиков Сбер развивает GigaCode — ассистент для написания кода, конкурирующий с аналогичными решениями (GitHub Copilot, Cursor, Tabnine).

Умные колонки SberDevices полностью переведены на GigaChat 2.0.

Источник: Habr — GigaChat Lite в открытом доступе, Habr — GigaChat 2.0 в API

Результаты

  • Контекст диалога в умных колонках увеличен в 10 раз
  • Улучшено понимание нескольких команд в одном запросе
  • GigaChat 2.0 демонстрирует поддержку агентных сценариев в инструментах типа GPT Researcher и Aider
  • Поддержка вызовов функций и понимание инструкций значительно улучшены

Утверждение: GigaChat 2.0 Pro в открытых бенчмарках приближается к уровню GPT-4o на задачах свободного общения.

Доказательство: Приводится в пресс-материалах Сбера при запуске YandexGPT 4 (внешний ориентир), сравнения публиковались на Habr.

Источник: Habr — GigaCode сравнение ассистентов

Планы

  • Масштабирование агентных сценариев на базе GigaChat 2.0
  • Развитие GigaCode как инструмента для корпоративных разработчиков
  • Интеграция в DevEx (Developer Experience) продукты экосистемы Сбера

Подводные камни

Публичных детальных post-mortem от Сбера о сложностях внедрения AI в собственную разработку не обнаружено. Сбер преимущественно публикует маркетинговые материалы о возможностях моделей, но не об операционных уроках.

Подтверждение не найдено в проверяемых источниках для конкретных метрик производительности разработчиков, использующих GigaCode внутри Сбера.


3. МТС / MWS AI

Как используют AI

МТС AI (сейчас MWS AI) — одна из наиболее открыто публикующих свой опыт компаний. Команда провела пилот по внедрению LLM в чат-боты МТС (конец 2024 года, ~2,5 месяца). Суммарная аудитория ботов — 80+ млн пользователей, до 500 тыс. обращений в сутки.

Для разработчиков MWS AI создала линейку Kodify:

  • Kodify 2 — корпоративный on-premise AI-ассистент (7B параметров, 90+ языков, 32K контекст)
  • Kodify Nano — открытая версия (1,5B параметров, опубликована на Hugging Face)

Основа обеих моделей — Qwen Coder 2.5 с дообучением методом Direct Preference Optimization (DPO).

Источник: Habr — MTS AI, нельзя заменить код на промпты, MTS AI — Kodify Nano, Habr — новые ИИ-помощники

Результаты (пилот с LLM в ботах)

Подтверждённые цифры из пилота на реальных сценариях клиентского сервиса МТС:

  • Рост удовлетворённости пользователей и доли автоматизированных обращений на 5–10% (в зависимости от сценария и канала)
  • Ответы стали «богаче», более человечными; бот проявляет больше эмпатии
  • Саммари для операторов: ожидали сокращение AHT на 8 секунд — получили 11 секунд, tNPS вырос на 1,3% вместо ожидаемого 1%

Источник: Habr — нельзя просто заменить код промптами

Ключевые выводы

«Нельзя просто так взять и заменить тысячи строк кода на промпты. То есть можно, но жизнь разработчикам это не упростит, а в некоторых случаях даже усложнит.»

Главный вывод команды: нужен баланс между традиционной логикой и генеративным AI. Была разработана концепция гибридной архитектуры: структурированная логика бота + LLM для финального ответа пользователю.

Родилась идея специализированного DSL для работы с LLM — структурированного псевдокода вместо многостраничных промптов на естественном языке.

Планы

  • Переход к агентной экосистеме: вместо одного монолитного бота — специализированные LLM-агенты (по мобильной связи, финансовым услугам, техподдержке)
  • Режим «болталки» — свободный диалог на произвольные темы
  • Персонализированные рекомендации тарифов через LLM
  • LLM-анализ причин переводов на оператора-человека

Источник: Habr — нельзя просто заменить код промптами

Подводные камни (детально задокументированы)

Проблема 1 — Задержка ответа: LLM отвечает в несколько раз медленнее классического скрипта. Для голосового ассистента это критично: пользователь слышит тишину и злится. Временное решение — бот произносит преамбулу «Сейчас проверю информацию…». Потребуется streaming-выдача.

Проблема 2 — Галлюцинации и «пассивная агрессия»: Модель «придумывала» факты или отвечала в неуместном тоне. Для борьбы с этим промпты заполнялись строгими ограничениями. Дошло до «угроз» модели штрафами $10–100 тыс. Итог: промпты разрослись до размеров «пятого тома "Войны и мира"» — такими же громоздкими, как тот код, от которого хотели уйти.

Проблема 3 — Недетерминизм: LLM может ответить на один и тот же запрос по-разному. Это сломало тест-кейсы, где тестировщик привык к строгим эталонным ответам. Время тестирования одной ветки диалога выросло.

Проблема 4 — LLM плохо делает то, что делает один if: Элементарная арифметика, проверки по справочникам, работа с датами — в классическом сценарии одна строчка кода. Для LLM нужны особые инструкции или дополнительный парсер. Подключать генерацию ради этого — «забивать гвозди микроскопом».

Итог по разработке: Time to Market вырос чуть ли не вдвое из-за итераций отладки промптов, поиска баланса и расширенного тестирования.

Источник: Habr — нельзя просто заменить код промптами (полный текст)


4. VK / VK Tech

Как используют AI

VK Tech использует Claude Code исключительно для R&D и проверки гипотез — не для разработки продуктов. Это принципиальное ограничение, явно обозначенное командой.

Также компания добавила в VK Teams AI-ассистента с записью и расшифровкой звонков.

Источник: Habr VK Tech — разработка с AI в 2025

Ключевые выводы команды

VK Tech сформулировал три столпа разработки с AI:

  1. Ясность мышления — если не можешь чётко объяснить задачу, AI не решит её правильно. Узкое место сместилось: теперь важно не «как закодить», а «что именно строить».
  2. Экспертность в предметной области — AI ускоряет реализацию того, что ты знаешь. Когда видения нет, тратишь часы на неправильные подходы. Синтаксис фреймворка подскажет AI, архитектуру — нет.
  3. Ответственность за результат — «Каждая строка кода — ваша, независимо от того, кто её написал. 80% прироста продуктивности требуют 100% человеческого надзора.»

Практические паттерны, рекомендованные VK Tech:

  • CLAUDE.md как «постоянная память» проекта (архитектура, правила, домен, workflow)
  • Plan-then-Execute — сначала план без кода, потом выполнение по пунктам
  • Очистка контекста (/clear) после каждых 1–3 сообщений
  • Итерации по 30–60 минут вместо попыток построить систему целиком

Источник: Habr VK Tech — разработка с AI в 2025 (полный текст)

Планы

  • Расширение применения Claude Code в R&D
  • Развитие AI-функциональности в VK Teams
  • Подтверждение не найдено для планов внедрения AI-ассистентов непосредственно в продуктовую разработку

Подводные камни (задокументированы через исследование)

Утверждение: 72% времени, сэкономленного благодаря AI, не конвертируется в дополнительную производительность.

Доказательство: Исследование, на которое ссылается VK в материале, охватывало реальные инженерные команды.

  • Накладные расходы на переключение контекста — до 15% времени
  • Проверка AI-кода требует 20–30% дополнительного времени
  • 45% неудач связаны с «наивной верой» в автоматический прирост продуктивности

Источник: Habr — инженерное лидерство в эпоху AI


5. Т-Банк (Тинькофф)

Как используют AI

В конце 2023 года Т-Банк создал собственный AI-ассистент для разработчиков — как альтернативу GitHub Copilot. Причины: санкции, повышенные требования к безопасности данных, необходимость защиты внутренней информации.

Функциональность:

  • Inline-подсказки — продолжение кода в реальном времени
  • Блочные подсказки — готовые фрагменты кода для вставки

Параллельно Т-Банк создаёт собственную линейку LLM GEN-T. В 2025 году выпущена T-Pro 2.0 (Qwen3 32B + обучение на 500K русскоязычных инструкций). Скачивается более 15 тыс. раз в месяц.

Т-Банк — второй по значимости AI-работодатель в рейтинге ICT.Moscow (32 балла). Центр AI публикует исследования на ICML 2025 и ICLR 2025.

Источник: Т-Банк — AI-ассистент для разработчиков, Habr — T-Pro 2.0, Центр AI Т-Банка

Результаты

Детальные публичные метрики (процент принятия подсказок, рост скорости разработки) Т-Банком не раскрывались.

Подтверждение не найдено для конкретных цифр производительности разработчиков с внутренним AI-ассистентом.

Публично подтверждено: ассистент используется в промышленной эксплуатации, команда регулярно его улучшает.

Планы

  • Развитие агентных возможностей на базе T-Pro 2.0
  • Применение моделей GEN-T во внутренних задачах (антифрод, рекомендации, NLU)
  • Продолжение научных исследований в области LLM

Подводные камни

Специфических post-mortem Т-Банка о сложностях не найдено. Главная очевидная причина создания собственного инструмента — невозможность использовать GitHub Copilot из-за санкций и требований безопасности. Это одновременно и ограничение, и стимул к развитию собственных компетенций.


6. Авито

Как используют AI

Авито инвестирует 12 млрд рублей в GenAI до 2028 года, планируя получить выручку свыше 21 млрд рублей. Разработала собственные модели:

  • A-Vibe (текстовая) — на базе Qwen2.5 7B
  • A-Vision (мультимодальная) — на базе Qwen2.5 7B

Применение: автоматизация описания товаров, подсказки в мессенджере, консультирование покупателей, анализ отзывов.

Также внедрён ИИ-ассистент в M42 (внутренний BI-инструмент): доступ к 16 000+ метрикам, 120+ разрезам. Запущен LLM в мессенджере, обрабатывающий 13% вопросов покупателей.

Источник: iXBT — Авито 12 млрд в GenAI, Habr — M42 ИИ-ассистент, Habr — LLM в мессенджере

Результаты

Утверждение: GenAI-решения, внедрённые в 2024 году, принесли 670 млн рублей дохода.

Доказательство: Приводится в публичном заявлении Авито с финансовыми данными.

Источник: iXBT — апрель 2025

  • 62% аналитиков Авито активно используют M42, 66% регулярно строят графики и отчёты
  • На 2025 год запланированы 20 новых GenAI-сценариев с потенциалом выручки свыше 1 млрд рублей

Планы

  • Масштабирование собственных моделей A-Vibe и A-Vision
  • Запуск 20 новых сценариев GenAI в 2025 году
  • Расширение LLM-ассистента в мессенджере

Подводные камни

Авито использует локальные LLM для обеспечения безопасности данных — чтобы не передавать внутреннюю информацию во внешние сервисы. Это требует собственной инфраструктуры и экспертизы для деплоя.

Источник: Habr — автоматизация рутины с локальной LLM


7. ЛАНИТ (ГК ЛАНИТ)

Как используют AI

ЛАНИТ — один из крупнейших российских ИТ-интеграторов — активно исследует влияние AI на разработку, транслируя результаты через Habr-блог и TG-канал AI4Dev.

Ключевые выводы

ЛАНИТ проанализировал отчёт DORA 2024 и сопоставил с собственными наблюдениями у заказчиков:

Парадокс производительности:

  • 75,9% программистов используют AI
  • 75% отмечают рост индивидуальной продуктивности
  • НО: скорость доставки ПО снижается на 1,5% на каждые 25% роста внедрения AI
  • Стабильность доставки снижается на 7,2% при том же уровне

Объяснение: AI создаёт больше кода → больше изменений → «старый водопровод не рассчитан на такой напор».

Вывод: «AI усиливает то, чем вы уже являетесь. Сильные основы + AI = x3 продуктивность. Слабые основы + AI = технический долг в масштабе.»

Источник: Habr ЛАНИТ — разработчики полюбили AI, но продукты стали хуже


Общая картина: подводные камни российских компаний

1. Санкционные ограничения → вынужденные инхаус-решения

Т-Банк, Авито, Яндекс — все создали собственные инструменты, потому что GitHub Copilot, Cursor и аналоги либо недоступны, либо несут риски утечки данных.

Источник: Т-Банк — AI-ассистент для разработчиков

2. Проблема безопасности данных

31% российских компаний обеспокоены передачей данных в облачные AI-платформы. Авито решает через локальные LLM, Т-Банк — через собственную инфраструктуру.

Источник: Novosti IT Kanala — сложности ИИ в РФ

3. «Промпты как новый нечитаемый код» (МТС AI)

Попытка заменить сложные диалоговые сценарии промптами привела к тому, что промпты стали такими же громоздкими, как код. Поддерживать их не легче.

Источник: Habr MWS AI

4. Галлюцинации в продакшене

Для клиентского сервиса с миллионами пользователей галлюцинации критичны. Промпт-инжиниринг требует больших усилий; универсального решения нет.

5. Производительность разработчиков ≠ скорость доставки продукта

Индивидуальный прирост скорости написания кода не конвертируется в ускорение time-to-market. Методологии и процессы не успевают за новыми возможностями.

Источник: Habr ЛАНИТ, DORA 2024

6. Недостаток кадров с AI-компетенциями

43% российских компаний указывают на отсутствие специалистов как второй по значимости барьер внедрения AI.

Источник: Novosti IT Kanala — готовность к ИИ

7. Пилоты не переходят в промышленное применение

Многие AI-проекты зависают на уровне пилотов. Проблема масштабирования — один из ключевых барьеров.

Источник: KT-Team — AI в корпорациях 2025


Куда движутся

Ближайший тренд — агенты

2025 год стал годом, когда компании-лидеры начали инвестировать в агентные экосистемы: не autocomplete, а автономные агенты с инструментами, способные решать сложные многошаговые задачи.

  • МТС AI: от одного бота к сети специализированных LLM-агентов
  • Яндекс: on-premise версия SourceCraft + агентные возможности
  • Авито: масштабирование через собственные модели A-Vibe / A-Vision

Технологический суверенитет

Российские компании вынуждены строить свои модели и инфраструктуру. Это создаёт дефицит ресурсов, но одновременно формирует собственные компетенции, не зависящие от западных вендоров.

Источник: AiRassvet — эффективность ИИ в российском бизнесе 2025–2026


Сводная таблица

Компания Инструмент Ключевая метрика Подводный камень
Яндекс SourceCraft / Code Assistant 60% пользователей стали регулярными Вендорлок на Yandex Cloud
Сбер GigaCode / GigaChat 2.0 Нет публичных цифр по разработке Нет открытых данных по девелопменту
МТС AI LLM в ботах / Kodify +5–10% к автоматизации, AHT −11 сек Time to Market вырос в 2 раза на пилоте
VK Tech Claude Code (R&D only) Только для гипотез, не для продукта 72% сэкономленного времени теряется
Т-Банк Собственный ассистент Нет публичных метрик Санкции → вынужден строить своё
Авито A-Vibe, A-Vision, M42 AI 670 млн руб. от GenAI в 2024 Нужна собственная инфраструктура для локальных LLM
ЛАНИТ Анализ / консалтинг DORA: delivery stability −7,2% Методологии не успевают за инструментами

Research готов и сохранён в domain/ai/russian-companies-ai-in-software-development.md. Вот краткое резюме того, что удалось найти.


Итоги по компаниям

Яндекс — самый подготовленный игрок. SourceCraft + Code Assistant: 60% внутренних тестировщиков стали регулярными пользователями, генерация кода за 400 мс в 95% случаев. Планируют on-premise версию и агентные сценарии. Подводный камень: жёсткий вендорлок на Yandex Cloud.

МТС / MWS AI — наиболее открытая компания по части задокументированных провалов. Провели честный пилот и опубликовали всё: +5–10% к автоматизации ботов, AHT на операторов −11 сек — хорошо. Но Time to Market вырос вдвое: промпты стали такими же громоздкими, как заменяемый ими код. Главный вывод — нужна гибридная архитектура, а не замена кода на LLM.

VK Tech — используют Claude Code строго для R&D, не для продакшена. Сформулировали три столпа: ясность задачи, доменная экспертиза, личная ответственность за каждую строку. Зафиксировали: 72% сэкономленного времени теряется в переключении контекста и проверке кода.

Т-Банк — создали собственный ассистент как вынужденный ответ на санкции и требования безопасности. Публичных метрик по продуктивности нет, но сам факт: банк топ-4 по AI-найму в России строит собственные LLM (T-Pro 2.0, 15K+ скачиваний/мес).

Авито — 670 млн руб. дохода от GenAI за 2024 год при инвестиции 12 млрд до 2028. Создали собственные модели A-Vibe/A-Vision (Qwen2.5 7B). Решение по безопасности — локальные LLM без передачи данных наружу.

ЛАНИТ — честно транслируют DORA 2024: production delivery stability падает на 7,2% при росте AI-внедрения на 25%. Индивидуальная продуктивность растёт, скорость доставки продукта — нет.


Общий паттерн по России дополнительно к мировым трендам: санкции и требования безопасности вынуждают строить собственные инструменты — это одновременно и ограничение (ресурсы, кадры), и конкурентное преимущество на будущее.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment