CodeWithLLM-Updates
-
🤖 Інструменти ШІ для програмування: практичні приклади, покрокові інструкції та реальні застосування LLM. Навчіться ефективно працювати з сучасними асистентами програмування.

Зниження якості генерації коду
https://spectrum.ieee.org/ai-coding-degrades
Дата-саєнтіс Джеймі Твісс (Jamie Twiss) каже, що за його досвідом ШІ агенти генерації кода досягли плато у 2025 й зараз якість їх роботи почала знижуватися.

Його припущення. Раніше моделі часто помилялися в синтаксисі або структурі. Все далі більше сучасних користувачів ШІ генераторів коду це "вайб" програмісти. Якщо він прийняв код модель вважає, що вона впоралася. Так працює навчання на основі людського фідбеку, яке й отруює нові ітерації моделей та вчить "догоджати" користувачеві, маскуючи проблеми, замість того, щоб писати коректний та безпечний код.

https://news.ycombinator.com/item?id=46542036
Значна частина коментаторів вважає, що моделі не стають гіршими, просто змінюється їхня "архітектура можливостей", а старі методи промптингу вже не працюють. Розробники мають постійно адаптуватися. Робота з ШІ це не магічно правильні відповіді щоразу, а окрема інженерна дисципліна, яка потребує ретельної перевірки (audit) та складних інструментів контролю.

Деякі припускають, що великі провайдери на підписках динамічно підміняють великі моделі меншими (дистильованими) під час пікових навантажень. Через це користувачі періодично бачать "тупіння" ШІ.

Claude Max у Opencode
https://github.com/anomalyco/opencode/issues/7410
Юзери Opencode почали повідомляти, що їм приходять повідомлення о неможливості використовувати тарифний план Claude за 200$/місяць. Деякі думали, що це якась проблема з їх акаунтами, но схоже сама Anthropic вирішила боротися з сторонніми CLI.  

Один із коментаторів зауважив, що метод використання "Max" плану в Opencode ніколи не був офіційно дозволеним Anthropic, тому блокування було лише питанням часу.

Багато розробників у коментарях пишуть, що вони скасували свої платні підписки на Claude, оскільки без OpenCode він їм не підходить. Деякі користувачі переходять на внутрішній сервіс "Zen" від самих розробників OpenCode, який працює через API, але де оплата йде за фактично використані токени, а не фіксована сума за місяць.

https://news.ycombinator.com/item?id=46549823
Багато розробників на HN стверджують, що за останній час OpenCode став технічно кращий за офіційний інструмент Anthropic. Спільнота вважає що рішення про блокування пов'язано з телеметрією: використовуючи офіційний Claude Code CLI, ви за замовчуванням (або через маніпулятивні вікна) погоджуєтеся надавати Anthropic дані про те, як ви приймаєте або відхиляєте код. Це безцінно для навчання майбутніх моделей. Сторонні клієнти на кшталт OpenCode «крадуть» ці дані у Anthropic.

Надалі з’ясувалося, що «блокування» було досить примітивним: OpenCode просто імітував офіційну поведінку, надсилаючи системний промпт: «Ти — Claude Code, офіційний CLI від Anthropic». Спільнота вже знайшла «милиці»: зміна назв інструментів (наприклад, з великої літери) або оновлення плагінів на деякий час повертають працездатність.

https://github.com/anomalyco/opencode/releases/tag/v1.1.11
Opencode додали підтримку тарифного плану Codex від OpenAI.

Superset - мультітермінал для Агентів
https://superset.sh/
Тільки для Mac, плануються версії для Windows та Linux - Electron прога, термінал з табами спеціально адаптований щоб керувати роботою багатьох агентів Claude Code, OpenCode, OpenAI Codex та інш, які можна запустити одночасно.

Автоматично створює ізольовані git worktrees (гарна практика), налаштовує середовища, ізолює задачі для уникнення конфліктів, додає хуки для сповіщень та вбудований diff-viewer для швидкого ревью змін і створення PR. Майбутні плани включають хмарні воркспейси, обмін контекстом між агентами та оркестрацію.

Схоже за логікою на https://github.com/tmux/tmux що є відомим терміналом терміналів для Unix-подібних операційних систем (Linux, macOS, BSD тощо). Дозволяє створювати, керувати та доступатися до кількох термінальних сесій в одному вікні терміналу, включаючи розділення на панелі (panes), вікна (windows) та сесії (sessions).

Mysti як команда агентів
https://github.com/DeepMyst/Mysti
Розширення для VSCode дозволяє комбінувати будь-які дві різні моделі (спільний контекст) в режимі Brainstorm Mode щоб отримувати більш якісні поради. Вирішує проблему перемикання між платними підписками на різні AI-моделі для отримання альтернативних думок щодо складних архітектурних рішень. Зараз наявна підтримка моделей з Claude, Codex, Gemini & GitHub Copilot CLI.

Обговорення на ХН
https://news.ycombinator.com/item?id=46365105
Спільнота проявляє значний інтерес до ідеї multi-agent collaboration, активно ділиться власними воркфлоу та альтернативними інструментами. Багато учасників експериментують із подібними підходами вручну (наприклад, через Tmux-панелі з кількома CLI-агентами) і вважають, що дебати між моделями допомагають виявляти слабкі ідеї та покращувати рішення, особливо коли одна модель "застрягає".

Щодо Mysti присутня критика залежності від VS Code (багато хто віддає перевагу чистому CLI).

Нові моделі

Gemini 3 Flash
https://blog.google/products/gemini/gemini-3-flash/
Google потрохи розгортають свою молодшу мультимодальну агентну модель нової серії - за тестами скоріше ближче до Gemini 3 Pro ніж, до Gemini 2.5 Flash. Модель перевершує й Gemini 2.5 Pro за багатьма бенчмарками, будучи при цьому втричі швидшою та значно дешевшою. За деякими тестами модель краща за флагманські моделі інших компаній.

З моменту релізу Gemini 3 Flash стала моделлю за замовчуванням у мобільному додатку Gemini (замінюючи 2.5 Flash) та в AI Mode пошуку Google. В мене у Gemini CLI досі не з'явилися ні 3 Flash, ні 3 Pro - працювати з ними можна через Google AI Studio.

GLM-4.7
https://z.ai/blog/glm-4.7
Zhipu AI оновила свою модель GLM. 4.7 версія демонструє суттєвий прогрес порівняно з GLM-4.6 у багатомовному сценарію генерації коду. Підтримує "thinking before acting" у фреймворках на кшталт Claude Code, Kilo Code, Cline та Roo Code, забезпечуючи стабільність у складних завданнях. Також підтягнули якість генерації інтерфейсів.

Ваги моделі (MoE-архітектура, контекст до 200K токенів) публічно доступні на Hugging Face та ModelScope для локального розгортання. Доступ через API Z.ai, OpenRouter, чат на z.ai та спеціальний GLM Coding Plan ($3/місяць за перший місяць, потім по $6).

MiniMax M2.1
https://www.minimax.io/news/minimax-m21
Випуск покращеної моделі MiniMax M2 від китайської компанії MiniMax, орієнтованої на практичну розробку та агентні системи. Говорять, що модель значно посилена для роботи з не-пайтон мовами програмування (Rust, Java, Golang, C++, Kotlin, Objective-C, TypeScript, JavaScript тощо), перевершуючи Claude Sonnet 4.5 і наближаючись до Claude Opus 4.5 у багатомовних сценаріях.

Модель open-source. Вартість через API доволі низка, близько 10% від Claude Sonnet. Сумісність з популярними агентами: Claude Code, Droid (Factory AI), Cline, Kilo Code, Roo Code, BlackBox. Підтримка механізмів контексту (Skill.md, agent.md тощо).

Також мають веб платформу https://agent.minimax.io/ де можна затестувати як модель створює застосунки.

https://www.youtube.com/watch?v=kEPLuEjVr_4

Порівняння SWE-bench Verified: Gemini 3 Flash 78%, MiniMax M2.1 74%, GLM-4.7 73.8%.

MCP як незалежний стандарт
https://aaif.io/
https://openai.com/index/agentic-ai-foundation/
У грудні 2025 року Anthropic передала Model Context Protocol (MCP) до Agentic AI Foundation (AAIF) — спеціалізованого фонду під управлінням Linux Foundation. MCP став одним із засновницьких проектів новоствореного фонду. Разом з MCP до фонду увійшли проекти goose від Block та AGENTS.md від OpenAI.

Agent Skills як відкритий стандарт
https://claude.com/blog/organization-skills-and-directory
https://agentskills.io та https://claude.com/connectors
Agent Skills оголошений як незалежний відкритий стандарт 18 грудня 2025 року зі специфікацією та SDK, він не передавався до Linux Foundation або AAIF. Microsoft вже прийняв Agent Skills у VS Code та GitHub Copilot; також підтримують Cursor, Goose, Amp, OpenCode де є моделі від Anthropic.

Плейграунд Agent Skills
https://skillsplayground.com/
На цьому сайті якщо ввести свій API-ключ можна погратися з тим, які скіли як використовує яка модель.

Claude code 2.0.74
Додано інструмент LSP (Language Server Protocol) для функцій розуміння коду, таких як перехід до визначення, пошук посилань та підказки при наведенні. Це суттєво покращує досвід розробки, роблячи навігацію по коду швидшою та зручнішою. Поки що агент рідко використовує LSP самостійно. Відкритий проєкт OpenCode має підтримку LSP вже близько 6 місяців, що викликає здивування повільним прогресом пропрієтарного ПЗ.

Cursor візуальний редактор
https://cursor.com/blog/browser-visual-editor
Cursor представив візуальний редактор з функцією «Point and Prompt»: можна просто клікнути на будь-який елемент інтерфейсу та описати текстом, що саме треба змінити. Також дозволяє маніпулювати структурою сайту за допомогою перетягування (drag-and-drop) елементів у дереві DOM, змінюючи порядок кнопок чи налаштування сітки.

https://www.youtube.com/watch?v=1S8S89X-xbs

Бічна панель редактора надає візуальний контроль над властивостями компонентів (props) та стилями: від повзунків для типографіки до палітри кольорів. Оновлення має на меті стерти межу між дизайном та програмуванням, дозволяючи розробникам зосередитися на ідеях, а не на механічній роботі з кодом.

Claude Code плагін
https://code.claude.com/docs/en/plugin-marketplaces
Anthropic запустили plugins marketplace, схоже у відповідь на такий самий у Gemini CLI. Він не є окремим веб‑сайтом з інтерфейсом типу App Store. Це система всередині самого Claude Code, де marketplaces — це каталоги плагінів (часто на базі GitHub‑репозиторіїв), які додаються і керуються через slash‑команди.

https://www.youtube.com/watch?v=1uWJC2r6Sss

Також тепер є підказки варіантів запитів та хоткей для перемикання моделей під час промпту. Підагенти (subagents) можуть працювати паралельно. Додали кращу статистику використання та візуальну стрічку-індикатор заповнення контекстного вікна.

Тепер можна запускати завдання Claude Code прямо з мобільного додатка Claude для Android. Це не повноцінний термінал на телефоні, а асинхронна інтеграція, де Claude працює в хмарі.

Kiro Powers
https://kiro.dev/docs/powers/
Kiro тестує концепцію Powers для моделі яка вирішує проблему засмічення контекстного вікна через динамічну активацію інструментів, система аналізує запит користувача і вмикає лише потрібний "пакет знань". Це дуже схоже на "Skills" у моделях від Anthropic.

Коли до агента підключено багато інструментів (MCP-серверів), він змушений завантажувати сотні описів функцій одночасно. Це "з'їдає" до 40% ліміту ще до початку роботи, що призводить до нерелевантних порад. Нотомість кожен Power — це готовий набір, що містить інструкції (як і коли використовувати інструменти), конфігурацію сервера та автоматизовані сценарії.

Наприклад, якщо ви згадуєте "оплату", активується Power для Stripe, надаючи специфічні знання про API та безпеку. Як тільки ви переходите до роботи з базою даних, інструменти Stripe вимикаються, а замість них завантажується Power для Supabase або Neon. Це дозволяє агенту залишатися швидким, фокусуватися на конкретній темі та видавати код вищої якості.

Система пропонує відкриту екосистему з установкою в один клік для популярних сервісів (AWS, Figma, Stripe тощо).

Mistral Devstral 2 та Vibe
https://mistral.ai/news/devstral-2-vibe-cli
Європейська компанія Mistral AI відома своїми незалежними від США/Китаю LLM. Вони оновили модель для програмування та нарешті випустили свій CLI. Анонси є вкрай важливими для розвитку екосистеми штучного інтелекту з відкритим вихідним кодом у сфері розробки програмного забезпечення.

https://openrouter.ai/mistralai/devstral-2512:free
Нове покоління моделей має назву Devstral 2 (123B) та Devstral Small 2 (24B), випускаються під гнучкими ліцензіями: модифікована MIT для Devstral 2 та Apache 2.0 для Devstral Small 2. Devstral 2 демонструє вражаючі для відкритих моделей 72.2% на бенчмарку SWE-bench.

Версія Small може працювати локально на обладнанні NVIDIA, хоча для старшої моделі (через її щільність, а не MoE архітектуру) знадобиться серйозне залізо на кшталт Mac Studio або декількох GPU 3090/4090.

Поки що Devstral 2 пропонується безкоштовно через API. Модель вже є у Kilo Code та Cline. За відгуками, вона доволі посередня при генерації сайтів, фронтенду та анімації — краще працює з невеликими завданнями локальних скриптів на Python.

https://help.mistral.ai/en/articles/496007-get-started-with-mistral-vibe
Mistral Vibe CLI — це як Claude Code, інструмент командного рядка з відкритим кодом, що працює на Windows, macOS і Linux на базі моделей Devstral. Його також можна запускати в Zed. Є теми інтерфейсу, робота з GIT, підтримка MCP, агенти з кастомними налаштуваннями. Можливий як інтерактивний, так і запуск для самостійної роботи.

https://news.ycombinator.com/item?id=46205437
Коментатори звернули увагу, що “Vibe” звучить так, ніби продукт орієнтований на вайб-кодінг «погралися з агентом і хай він сам щось наклепає», а не на контрольовану роботу професійного програміста. Дехто прямо називає такий меседж “протилежним” тому, що потрібно в реальній роботі: підсилення людини, а не заміна процесу на «чат + інструменти, удачі».

Mintlify autopilot
https://www.mintlify.com/blog/autopilot
ШІ система відстеження змін у репозиторії. На кожен пуш аналізує як треба оновити документацію (як для людей, так й для ШІ). На панелі інструментів autopilot відображаєтся які зміни можуть вимагати змін у документації. Надалі агент Mintlify створює чернетку, яку ви можете доопрацьовувати. Він враховує контекст коду і тон документації.

Code Wiki
https://codewiki.google/
Google створили Code Wiki (public preview) — платформу, покликану вирішити проблему читання та розуміння існуючого коду. Система створює та підтримує структуровану вікі-сторінку для репозиторію, яка безперервно оновлюється.

Ключові особливості: автоматизація, Gemini чат, у відповідях гіперпосилання на файли коду. Система автоматично генерує опис, тому наявні завжди актуальні архітектурні, класові та послідовні діаграми.

Є вейтліст на доступ до версії Code Wiki, яка дозволить командам запускати ту саму систему локально та безпечно для внутрішніх, приватних репозиторіїв.

Qoder Repo Wiki
https://docs.qoder.com/user-guide/repo-wiki
Ця функція IDE Qoder автоматично генерує структуровану документацію для проєкту (максимум 10 000 файлів на проєкт, англійською та китайською мовами) та безперервно відстежує зміни як у коді, так і в самій документації.

Вона аналізує структуру та деталі реалізації проєкту, надаючи контекстні відомості, які дозволяють AI-агентам краще працювати. Генерація Wiki є динамічною.

Також підтримується синхронізація з Git. Генерований вміст зберігається в директорії для кожної вибраної мови (наприклад, repowiki/zh/, repowiki/en/), яку можна комітувати та пушити. Початкова Wiki створюється за один клік (до 120 хвилин для 4000 файлів). Після цього система постійно відстежує зміни в коді; при виявленні модифікацій у документованих файлах можна оновити лише зачеплені розділи.

Спочатку функція працювала тільки з Git-репозиторіями, але з 2 грудня 2025 додали можливіть генерації й для локальних проектів біз git.

DeepWiki (від Cognition AI)
https://deepwiki.com/
Безкоштовний ШІ-інструмент, що генерує "Wikipedia-подібну" документацію для GitHub-репозиторіїв (публічних та приватних). Аналізує код, README та конфіги, створює структуровані сторінки з діаграмами (архітектура, потоки), інтерактивними посиланнями на код та чат-інтерфейсом для запитів (natural language).

Підтримує >30,000 відкритих репозиторіїв, оновлення після комітів. Open-source версія доступна для локального запуску.

Підсумки року стандарту MCP
https://blog.modelcontextprotocol.io/posts/2025-11-25-first-mcp-anniversary/
У блозі розповідається, як за один рік MCP перетворився з невеликого експерименту з відкритим кодом на фактичний стандарт у галузі. Великі компанії, такі як Notion, Stripe, GitHub, OpenAI, Microsoft та Google, створили власні сервери для автоматизації робочих процесів. Для централізованого пошуку та керування цими серверами було запущено Реєстр MCP (MCP Registry), який став єдиним каталогом для всієї екосистеми.

Одночасно з річницею команда випускає нову версію специфікації MCP (листопад 2025 року). Серед ключових нововведень: підтримка робочих процесів на основі завдань (для тривалих операцій), спрощені та безпечніші механізми авторизації, а також система розширень (extensions), яка дозволяє додавати специфічний функціонал, не змінюючи ядро протоколу.

Каталог MCP-контейнерів
https://hub.docker.com/mcp
На сайті розмішена велика бібліотека готових до використання, контейнеризованих MCP-серверів, які створені спільнотою розробників і працюють на технології Docker. Сервери згруповані за категоріями. Мета платформи — спростити використання інструментів MCP.

Проблеми MCP
https://www.youtube.com/watch?v=4h9EQwtKNQ8

Автор стверджує, що хоча MCP — це чудова ідея в теорії, на практиці вона має серйозну проблему, яка робить її неефективною. Ця проблема — погане керування контекстом (context management).

Коли ШІ-агент підключається до MCP-серверів, усі описи доступних інструментів (tool definitions) завантажуються у "контекстне вікно" мовної моделі. Коли агент використовує інструмент, усі результати його роботи (включно з проміжними даними, які можуть бути непотрібними) також надсилаються в контекст.

Це займає величезну кількість токенів. Автор наводить приклад, де лише два підключені сервери займають 20 000 токенів. З кожною ітерацією стає тільки гірше. Цю проблему автор називає "гниттям контексту" (context rot).

Agent Skills як альтернатива
https://platform.claude.com/docs/en/agents-and-tools/agent-skills/overview
https://www.youtube.com/watch?v=fOxC44g8vig

Вихід який був колись запропонований Cloudflare (я описував) це знайшовши потрібний інструмент, агент генерує програмний код (наприклад, TypeScript) для виклику цього API. На цій ідеї сама Anthropic пізніше запропонувала Agent Skills - розбір технології в https://leehanchung.github.io/blogs/2025/10/26/claude-skills-deep-dive/

Opus 4.5 у Claude Code
https://www.anthropic.com/news/claude-opus-4-5
Вслід за Sonnet та Haiku оновилася до 4.5 й найбільша модель від Anthropic. Проблема версії 4 була в її дуже великій ціні на токени - тепер в 3 рази (!) дешевше. Тому значно збільшили загальні ліміти та Opus 4.5 додали в Claude Code як покращений режим планування. Вона здатна до "креативного вирішення проблем" — знаходити нестандартні, але легітимні рішення.

Головне - модель використовує значно менше токенів для досягнення результатів, що робить її швидшою та дешевшою у використанні.

Звісно на їх тестах у програмування та використанні тулзів Opus 4.5 обходить й Gemini 3 Pro й GPT-5.1. В одному з тестів модель впоралася зі складним завданням для інженерів краще, ніж будь-який кандидат-людина. Модель ефективніше керує контекстом, пам'яттю та може координувати роботу кількох "субагентів" для виконання складних завдань.

https://www.youtube.com/watch?v=5O39UDNQ8DY

Claude Code тепер доступний у десктопному додатку (research preview). Можна запускати кілька локальних та віддалених сесій Claude Code паралельно: один агент виправляє помилки, інший досліджує GitHub, третій оновлює документацію. Для паралельної роботи з репозиторіями використовуються git worktrees.

Чекаємо модель у більшості сучасних ШІ-додатків для генерації коду.

https://news.ycombinator.com/item?id=46037637
Декілька користувачів підкреслили, що важлива не стільки ціна за токен, скільки "вартість за успішне завдання". Розумніша модель, як Opus 4.5, робить менше помилок і потребує менше токенів для вирішення проблеми, що в кінцевому підсумку може зробити її дешевшою за "дешевші", але менш розумні моделі.

Clad Labs
https://www.cladlabs.ai/blog/introducing-clad-labs
Якщо Y Combinator дає грощі на це, то ми мабуть вже близько до кінця ШІ-бульбашки (див https://aibubblemonitor.com/). Я не зміг завантажити, бо не пройшов перевірку на код Private Beta Access.

Сайт це схоже спекулятивний дизайн, де наведено анонс середовища розробки (IDE) під назвою Chad IDE від компанії Clad Labs. Стаття написана як типовий анонс технологічного стартапу та містить вигадані (?) позитивні відгуки, вражаючі метрики (наприклад, "заощаджено 2,3 години на день"), а також абсурдний план розвитку, що включає "персоналізовані казино" та "алгоритми для знайомств між розробниками".

Chad IDE пропонує не боротися з відволікаючими факторами, а інтегрувати їх безпосередньо в IDE. Ідея полягає в тому, щоб утримати увагу розробника всередині робочого середовища, навіть під час очікування. Інтеграція з онлайн-казино Stake.us, щоб робити ставки під час компіляції коду, а також вбудовані міні-ігри. Можливість дивитися YouTube Shorts, Instagram Reels та TikTok прямо у вікні редактора коду. Інтеграція з Tinder, щоб свайпати профілі, поки генерується код.

https://www.youtube.com/watch?v=1uR4QPtXF4Y

Щоб пояснити рішення Y Combinator, автор відео заглиблюється в їхню інвестиційну філософію. Він наголошує, що YC робить ставку не на готові ідеї, а на засновників, і свідомо робить безліч ризикованих інвестицій. Багато їхніх найуспішніших компаній, як-от Twitch чи DoorDash, на початковому етапі здавалися абсурдними або навіть провальними. YC розуміє, що найкращі ідеї часто маскуються під дивні або незрозумілі, тому вони готові ризикувати з командами, які демонструють потенціал, навіть якщо їхній поточний продукт виглядає як жарт.

Майже всі великі ШІ-кодінг проекти додали вже модель Gemini 3 Pro. Сам Antigravity часто видає помилки зв'язку та працює дуже повільно.

GPT 5.1 Codex
https://openai.com/index/gpt-5-1-codex-max/
Після оновлення звичайної моделі до GPT 5.1 також оновили й її Codex варіант. Щоб відповісти Гуглу ще анонсували GPT‑5.1-Codex-Max. Все звісно стало ще краще. А працювати зможе ще довше.

Технологія "ущільнення" (compaction) дозволяє моделі працювати з мільйонами токенів, не втрачаючи важливої інформації. На практиці це відкриває можливості для рефакторингу цілих проєктів та автономної роботи протягом багатьох годин поспіль.

Модель вже доступна в інструменті Codex, а доступ через API з'явиться незабаром.

https://news.ycombinator.com/item?id=45982649
В обговоренні люди діляться історіями успіху. Наприклад, один розробник розповів, як Codex за 45 хвилин повністю переписав ключові частини його хобі-проєкту (авіасимулятора), виконавши складний рефакторинг, на який у людини пішло б набагато більше часу.

Також користувачі порівнюють новинку з Google Gemini і, хоча відзначають певні переваги останнього, більшість сходиться на думці, що для генерації коду Codex поки що дає стабільно кращі результати, рідше «галюцинує» і краще інтегрується в існуючий код.

Цікава розмова про «народну магію» промпт-інжинірингу: люди додають у свої інструкції спеціальні «слова-канарки» (наприклад, просять модель завжди звертатися до них «Містер Тінклберрі»), щоб перевірити, чи ШІ все ще уважно слідує початковим вказівкам у довгих сесіях.

Antigravity IDE
https://antigravity.google
Google анонсували свою відповідь на Cursor - клон VSCode (точніше Windsurf який вони купили у липні 2025 за $2.4 billion) під назвою Antigravity. До цього у них вже була IDE - тілки онлайн, яку випустили як Firebase Studio. Як кажуть маркетологи головна мета інструменту — допомогти розробникам «досягти злету», тобто значно прискорити та спростити розробку.

Під це створили ютуб-канал: https://www.youtube.com/@googleantigravity.

В цілому це такий собі клон VSC як й всі інші, додали до нього взаємодію Chrome. У панелі чату наразі до списку підтримуваних моделей входять: Gemini 3 Pro (у версіях High та Low), Claude Sonnet 4.5 (включно з версією Thinking для складних міркувань) та GPT-OSS 120B (Medium). Є два режими як то у Kiro - з планування та без нього.

Як фішку просувають Agent Manager (Менеджер Агентів) - вікно моніторингу активності агентів та які завдання виконують. Можна керувати їхньою роботою - бачимо ключові «артефакти» (створені файли, частини коду, результати API-запитів) та результати перевірок. Агент працює не на рівні VSC, а на рівні системи - це дозволяє виконувати складні, довготривалі завдання (наприклад, моніторити сайт, збирати дані, а потім генерувати звіт)

Gemini 3 Pro
https://blog.google/products/gemini/gemini-3/
Офіційно представлено й нову мультімодальну агентну модель серії Gemini, це буде лінійка 3. Pro — це повсякденна, повнофункціональна версія, доступна відразу в додатках, Пошуку та інструментах для розробників. Deep Think — це режим «покращеного міркування» з додатковою потужністю, який зараз тестується і призначений для тих, хто заплатив за Google AI Ultra.

Яка модель хороша можна почитати тут https://blog.google/technology/developers/gemini-3-developers/

Чому LLM не можуть по-справжньому створювати софт
https://news.ycombinator.com/item?id=44900116
Більш ніж 500 коментарів. Центральна ідея: LLM не мають абстрактну "ментальної моделі" як створювати щось — вони працюють лише з текстом. Вони не "розуміють" код, а лише імітують його написання. Багато коментаторів наголошують, що найцінніша частина їхньої роботи — це те, що відбувається до написання коду. 95% роботи це виявити неочевидні залежності, приховані вимоги або потенційні проблеми на перетині бізнес-логіки та технологій.

Учасники дискусії погоджуються, що LLM можуть бути корисними, але лише як інструмент в руках досвідченого фахівця, бо головна відповідальність та контроль завжди залишаються за людиною. На відміну від традиційних інструментів, LLM є недетермінованими, це робить їх ненадійними для складних завдань. Часто виправлення помилок в таких проектах займає більше часу, ніж написання коду власноруч.

AI Coding відстій
https://www.youtube.com/watch?v=0ZUkQF6boNg
Вже доволі відоме відео, де розробник з Coding Garden лається на те, в що перетворилося програмування. В результаті свого розчарування він вирішив взяти місячну перерву від усіх інструментів ШІ, щоб знову відчути радість від своєї роботи.

Ключова причина його невдоволення полягає в фундаментальній різниці між програмуванням і роботою зі ШІ. Програмування це логічна, передбачувана і пізнавана система, де однакові дії завжди призводять до однакового результату. Натомість ШІ є непередбачуваним.

Раніше він отримував задоволення від програмування завдяки відчуттю досягнення після вирішення складної проблеми чи виправлення помилки, "ого як я можу". Тепер його робота перетворилася на постійну суперечку з мовними моделями (LLM), які часто генерують не те що потрібно.

Той самий запит до моделі може щоразу давати різну відповідь. Ця відсутність стабільності робить неможливим створення надійних робочих процесів і суперечить самій природі програмування. Це позбавляє радості від процесу, замінюючи її роздратуванням.

Перелічує численні передові методи, які намагався застосувати, щоб зробити ШІ більш керованим: створення детальних файлів з інструкціями, покрокове планування завдань, використання агентів і примушування ШІ писати тести для самоперевірки. Але моделі все одно ігнорують правила, обходять проблеми (наприклад, прибираючи тести, що не проходять) і не забезпечують надійного результату.

Наприкінці автор спростовує тезу про те, що розробники, які не використовують ШІ, "відстають", адже освоїти ці інструменти можна швидко, а фундаментальні навички є важливішими й отримуются повільно з досвіду.

Він радить новачкам навчитися програмувати без ШІ.

https://www.youtube.com/watch?v=0ZUkQF6boNg

Коментарі під відео демонструють згоду з автором. Багато розробників відчули полегшення, побачивши, що їхнє розчарування є масовим явищем, а не особистою проблемою. Розробники порівнюють роботу зі ШІ з управлінням надмірно самовпевненим, але некомпетентним молодшим спеціалістом. Такий "помічник" запевняє, що все зрозумів, але насправді не слухає й робить що хоче. Виправлені помилки з'являються знову, інструмент ігнорує задані правила, а на його код неможливо покластися.

Багато коментаторів висловлюють занепокоєння, що початківці, які покладаються на ШІ, ніколи не навчаться програмувати по-справжньому. Це порівнюють із бездумним копіюванням коду зі Stack Overflow, але в гіршому масштабі. Новачки не розвивають фундаментальні навички вирішення проблем, що в довгостроковій перспективі робить їх слабшими фахівцями.

DPAI Arena
https://dpaia.dev/ https://github.com/dpaia
JetBrains представили Developer Productivity AI Arena (DPAI Arena) — ще одну "першу" відкриту платформу, яка оцінює ефективність ШІ агентів у створенні коду. Щоб забезпечити нейтральність та незалежність, JetBrains планує передати проєкт під управління фонду Linux Foundation.

Компанія вважає, що наявні методи тестування застаріли та оцінюють лише мовні моделі, а не повноцінні ШІ-агенти (хоча ж є https://www.swebench.com/). Платформа має на меті створити єдину, довірену екосистему для всієї індустрії. Зараз на сайті є тести тільки декількох CLI, Codex обходить Claude Code.

Ключовою особливістю DPAI Arena є її "багатотрекова" архітектура, яка імітує реальні завдання розробників. Замість одного тесту на виправлення помилок, платформа включає окремі треки для аналізу pull-request'ів, написання юніт-тестів, оновлення залежностей та перевірки відповідності стандартам кодування.

Athas Редактор коду
https://athas.dev/
З кінця травня 2025 року триває розробка легкого, безкоштовного та з відкритим кодом редактору коду. Це не форк VSC, а новий проєкт "з нуля" на Tauri одразу для всіх трьох платформ (Win-Linux-Mac), а не як Zed.

Поки що рання стадія, але якщо все піде за планом (roadmap), може виявитися дуже цікаво. Ідея "Vim-first, AI-enhanced, Git-integrated". Зараз реалізовано інтеграцію з Git, далі буде режим Vim. Заплановано вбудований ШІ-агент. Планується зробити на 100% кастомізованим, з підтримкою тем, мовних серверів та плагінів.

Інтерв'ю з 23-річним розробником з Туреччини на ім'я Мехмед
https://www.youtube.com/watch?v=Aq-VW3Ugtpo

Головна мета — створити єдине, мінімалістичне та швидке середовище для розробників, яке об'єднує інструменти, що зазвичай вимагають запуску кількох окремих програм. Вже реалізовано базовий функціонал Git та функціонал для перегляду вмісту баз даних SQLite.

Athas не просто має власний ШІ-чат, а інтегрується з існуючими CLI, такими як claude-code, тобто "перехоплює" виклик ШІ-асистента з вбудованого терміналу і відображає відповідь у зручному графічному інтерфейсі. Це дозволяє використовувати звичні інструменти безпосередньо в редакторі, не відкриваючи окремий термінал.

https://github.com/athasdev/athas/blob/master/CONTRIBUTING.md
Через github можна приєднатися до проєкту та вплинути на його майбутнє.