CodeWithLLM-Updates
-
🤖 Інструменти ШІ для програмування: практичні приклади, покрокові інструкції та реальні застосування LLM. Навчіться ефективно працювати з сучасними асистентами програмування.

Alibaba Qoder
https://qoder.com/ https://qoder.com/changelog
Не плутати з Qodo. Нова IDE (ще один клон VSC) з ШІ, на цей раз від китайського гіганта Alibaba. Пишуть, що їх система здатна розуміти глибше складну архітектуру проєкту, шаблони проєктування та логіку його роботи. Рішення: окрім графу коду та індексації, ще автоматично вести Wiki опису проєкту.

https://www.youtube.com/watch?v=xSWj_Pe3CWo

Пропонує два режими роботи які схожі на ті що в Amazon Kiro: у «Ррежимі агента» працю як вайб-кодер. У «Режимі запиту (Quest Mode)» бере на себе роль інженера (Spec-Driven Development), який самостійно планує роботу, розбиває завдання, створює реалізації функцій та автоматизує тестування, видаючи готовий до роботи код за заданими специфікаціями. Другий режим не працює без GIT-репозиторія. Є історія виконаних завдань. Можна запустити декілька завдань й вони в порівняні з Kiro не будуть ставати в чергу, а виконуватися паралельно.

Може працювати з Anthropic Claude, Google Gemini та OpenAI GPT, автоматично обираючи найбільш ефективну та економічну модель, схоже на Авто режим у Cursor. Ручного перемикання моделей (поки що?) немає. На сайті не має версії під Linux.

Наразі Qoder доступний безкоштовно в рамках публічного попереднього перегляду. Режим приватності в налаштуваннях не можна змінювати - за замовчуванням активований.

Amazon Kiro v0.2
https://kiro.dev/pricing/
IDE Kiro все ще в стадії тестової розробки, але вони вже запустили платні підписки. Можливо саме тому, що у v0.1 давали дуже багато безкоштовних токенів на Sonnet 4, то тепер закрили реєстрацію. Для нових користувачів тільки список очікування.

Безкоштовно буде тільки 50 vibe запитів на місяць, зараз ще всім новим користувачам накинули по 100 vibe та spec запитів, їх треба використати за 2 тижня. Що дуже прикро, в мене простий тест проект на 2 години забрав відразу 40 spec запитів. А 125 spec запитів тепер $20/місяць.

Крім того в порівняні з Cursor тут поки що майже нічого не має по функціоналу й різноманіттю моделей, а по відчуттям швидкість в 2-3 рази повільніше. Я не знаю хто буде за це платити зараз стільки.

LLM не замінять програмістів
https://zed.dev/blog/why-llms-cant-build-software
Провокаційний пост від Конрада Ірвіна з ZED. Він каже, що LLM досить добре генерують код, оновлюють його при виявленні проблем і запускають тести. Але люди-інженери працюють не так: вони вибудовують ментальні моделі того, що код робить й що повинен робити, й за цим виконують оновлення.

ШІ агенти не створюють ментальної моделі проекту та просто генерують код, схожий на той найкращій що завчили - тому плутаються, гублять контекст, вигадують зайві деталі, припускають, що написаний ними код працює, не можуть вирішити що робити, коли щось не працює і можуть просто видалити все та почати спочатку без глибшого розуміння проблеми.

Автор сумнівається що це можна виправити. LLM підходить для простих завдань, де вимоги чіткі, й де можуть "одноразово" його виконати та прогнати тест. А людина-інженер залишається "водієм", щоб код дійсно робив те, що від нього вимагається.

Обговорення
https://news.ycombinator.com/item?id=44900116
Коментарі демонструють дуже полярні погляди, але більшість підтримує основну тезу автора. LLM фокусуються на текстових шаблонах, а не на глибинному розумінні, можуть "хачити" тести, щоб вони пройшли, замість того, щоб виправляти справжні проблеми.

Деякі вважають, що добре налаштовані LLM можуть працювати на рівні або навіть краще за молодшого розробника для певних конкретних простих ізольованих завдань.

Багато людей скаржаться, що використання LLM у айті вимагає постійного та ретельного нагляду за агентом - надзвичайної деталізованих "рельсів". Тепер у галузі дивляться на навички формулювання проблем та високорівневого обходу недоліків LLM. Ця "ручна робота" є більш стомлюючою, ніж класичне написання коду самостійно.

Існує сильний розкол позицій щодо того, чи продовжує LLM-технологія швидко розвиватися, чи досягла плато і потребує нових архітектурних проривів.

AGENTS.md
https://agents.md/
Аналог README для агентів. Нарешті стандарт для маркдаун файлу, в який ми пишемо контекст та додаткові інструкції для агента. Це простий текстовий файл. Він буде корисним й для розробників-людей, бо більшість вже у README майже нічого не пише, а тут так не вийде. Бо для LLM потрібна більша деталізація та точність.

До цього якщо я на репозиторії використовую декілька ШІ-кодінг інструментів то доводилось для кожного мати свій файл, а ще якось думати про їх синхронізацію. Тепер достатньо тільки AGENTS.md у корені проекту. Можливо робити свої файлі для піддеректорій.

Вже підтримали: OpenAI Codex, Amp, Jules by Google, Cursor, Factory, RooCode, Aider (через конфіг), Gemini CLI (через конфіг), Kilo Code, OpenCode, Phoenix, Zed.

 При зростанні якості згенерованого коду розробка рухається від ручного написання до організації завдань та управління ШІ-агентами. Людська роль перетворюється на роль "менеджера проєкту", який ставить високорівневі цілі, розбиває їх на частини та направляє агентів, що застрягли або потребують зворотного зв'язку.

Росте попит на мобільні додатки щоб "кодити на ходу".

OMNARA
https://omnara.com/
Клієнт для мобільного пристрою з iOS поверх ШІ агентів (Claude Code, Cursor, GitHub Copilot, та інш). Надає можливість запускати та бачити роботу агентів з будь-якого місця, навіть з лісу чи пляжу. Миттєві сповіщення, коли агентам потрібна допомога та можливість реагувати на це.

Треба встановити Omnara SDK чи wrapper у своє робоче середовище.

Поки їм підтримку надає інкубатор Y Combinator, то використання безкоштовне. Їх бізнес-модель доволі хитка, наприклад Anthropic (розробник Claude) може сама додати подібний функціонал у свої додатки, чи хтось зробить телеграм бота.

У кого зараз ТОП-моделі безкоштовні
https://github.com/inmve/free-ai-coding
В цьому репозиторію є таблиця наявних проектів, яки дають безкоштовний обмежений доступ до найкращих моделей. Наприклад, Rovo Dev CLI дає 5м токенів у день на Claude Sonnet 4. Gemini CLI на модель Gemini 2.5 Pro дає 100 запитів у день. Також зазначено чи потрібно надавати номер кредитної картки.

На жаль автор не наводить чи надаємо так ми автоматично дозвіл на копіювання нашого коду цим компаніями та проектам.

Стаття "Код з ШІ з мінімальним бюджет/безкоштовно"
https://wuu73.org/blog/aiguide1.html
https://wuu73.org/blog/aiguide2.html
https://wuu73.org/blog/aiguide3.html
Автор за стратегію «Free AI Buffet» – набір інструментів, що об’єднує найкращі безкоштовні версії великих моделей (Claude 4 on Poe.com, GLM 4.5, Kimi K2, Qwen3, Gemini 2.5 Pro via AI Studio, Grok, Deepseek тощо). Кожна модель має свої переваги: швидка, інша – краща у плануванні, інша – у тестуванні, третя – у генерації коду.

Використовує Cline, але можна й Roo Code. Для планування і мозкового штурму використовує найрозумніші безкоштовні моделі у вебі (Gemini 2.5 Pro, o4‑mini, Claude  4, GPT‑5, o3).

Його робочий процес:

  1. Запустити AI Code Prep GUI (https://wuu73.org/aicp/) → підготувати контекст.
  2. Поставити запит у веб‑чат (Gemini, o4‑mini, Claude) – планування змін.
  3. Генерувати підказку для агента Cline → скопіювати промпт.
  4. Перенести в Cline (GPT‑4.1) – виконання.
  5. Якщо труднощі генерації, то змінювати в Cline моделі.

Обговорення https://news.ycombinator.com/item?id=44850913. Багато користувачів ставили під сумнів заявлену "безкоштовність", вказуючи, що вона досягається ціною передачі особистих даних та коду компаніям для навчання моделей. Дехто вважає, що це прийнятна плата за доступ до передових технологій, особливо для тих, хто не може дозволити собі платні підписки.

Люди активно ділилися своїми улюбленими інструментами: aider, slupe, SelectToSearch, LM Studio, Continue.dev, Zed, OpenRouter, Chutes.ai, Cherry.ai, Rovodev CLI, CodeWebChat, Windsurf, Amazon Q Dev.

Google Jules
https://jules.google/docs/usage-limits
З 6 серпня Google Jules після двох місяців більше не у статусі бета. Були презентовані ліміти та тарифні плани. Також модель тепер Gemini 2.5 thinking.

Базовий образ Jules за замовчуванням включає Playwright для тестування фронтенду. Він може тестувати веб‑додатки і показувати результати у вигляді скріншоту. На вхід теж тепер приймає зображення.

З 15 серпня підняли ліміт диску Jules VM до 20GB та додали можливість в будь-який момент зберегти наявний прогрес у репозіторий.

Додали можливість агенту перед тим як щось робити згенерувати ще уточнюючи питання. Також тепер може сам вирішити пошукати в інтернеті релевантний контент, документацію чи фрагменти коду під завдання.

Додали агента-критика, який як говорять краще ніж просто лінтер, чи набір тестів. Після генерації він виявляє приховані баги, пропущені граничні випадки та неефективний код так надає зворотній зв'язок Jules.

1M контекст для Sonnet 4
https://www.anthropic.com/news/1m-context
Найпопулярніша  модель для генерацію код Claude Sonnet 4 відтепер підтримує до 1 мільйона токенів контексту, що є 5-кратним збільшенням та допоможе Claude Code розуміти більші кодові бази. Також для запитів понад 200к токенів ціни за вхідні та вихідні дані збільшуються.

Виступи з Code w/ Claude
https://www.youtube.com/watch?v=gv0WHhKelSE

Кел Руеб з Anthropic розповідає як краще працювати з Claude Code. Він є одним з основних розробників Claude Code, займається промтингом, системними підказками, описом інструментів та їхньою оцінкою.

На відміну від інших підходів, Claude Code не індексує та не вбудовує всю кодову базу. Замість цього він досліджує та розуміє її, як людина, використовуючи "агентний пошук" (інструменти типу globgrepfind). Він може ітеративно уточнювати свої пошукові запити.

Найкращі практики:  claude.md розміщений у робочій директорії або домашній директорії для задання важливого контексту; коли потрібно очищувати /clear чи /compact підсумовувати контекст робочого чату; налаштувати автоматичного підтвердження для безпечних команд та використовувати Shift+Tab для автоматичного прийняття дій; проговорити с агентом план дій перед виконанням та підтвердити його; використовувати скріншоти.

Уточнення з Q&A: не можна мати кілька  claude.md в одній директорії, але можна посилатися на інші файли за допомогою @-синтаксису.

Розширені техніки: запускати одночасно 2-4 інстанції Claude Code для паралельної роботи; швидко зупиняти агента при невірних діях через escape, подвійне натискання дозволяє повернутися до розмові та скоригувати дії; headless використання наприклад, в GitHub Actions.

Уточнення з Q&A: наразі найкращий спосіб обміну контекстом між кількома агентами – це запис інформації у спільний Markdown-файл.


Orta Therox про використання Claude Code
https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/
Порівняє з моментом, коли фотографія прийшла й замінила ручне малювання. Claude Code дозволяє експериментувати з ідеями, які раніше були б занадто витратними за часом. Кардинально спростив процес створення прототипів ігор.

Перелічує безліч великих, трудомістких завдань, які він виконав самостійно за 6 тижнів - тепер їх можна виконувати як фонові "побічні проекти".

Поради успіху: монорепозиторії щоб агент знав увесь код проекту; використання мейнстрім зрілих, добре документованих технологій та фреймворків; стандартні CRUD-додатки; не дуже великі та не старі кодові бази.

 Радить не перейматися вибором різних моделей (Sonnet, Opus, Gemini CLI тощо). Він успішно використовує Claude Code зі стандартним обліковим записом. Якщо агент "застряг", це, ймовірно, означає, що користувач погано сформулював завдання, а не проблема в інструменті.

Пост викликав жваве обговорення на https://news.ycombinator.com/item?id=44746621 - останнім часом багато розробників висловлюють здивування та захоплення можливостями Claude Code, називаючи його "зміною гри" та "подарунком з небес". Інструмент знімає тягар запам'ятовування деталей, рутинної роботи та страху чистого аркуша.

Порівняння. Деякі вважають Amp кращим за Claude Code. Gemini CLI загалом оцінюється як значно гірший. Cursor має змішані відгуки. Github Copilot переважно використовується для автодоповнення, а його агентна частина вважається менш корисною.

Поради: заохочувати агента писати тести (TDD) та використовувати їх для валідації змін. Є можливість налаштувати спеціалізованих суб-агентів для перевірки коду на відповідність стандартам, виявлення надмірного інжинірингу тощо. Агент чудово працює з терміналом, тому його можна використовувати для виконання Git-операцій, Docker-команд, запуску лінтерів, компіляторів, тестування та інших CLI-інінструментів. Навіть можливе використання Claude Code SDK для інтеграції в CI/CD або інші автоматизовані процеси.

Люди висловлюють серйозне занепокоєння щодо використання таких інструментів "джуніорами", які можуть генерувати повільний, небезпечний або просто жахливий код, не розуміючи його. Компанії можуть замінити їх "сеньйорами" з AI-інструментами, що потенційно створює "розрив" у підготовці майбутніх поколінь розробників. Деякі вважають, що це може призвести до масового безробіття у країнах з дешевою робочою силою.

Також висловлюють занепокоєння щодо високої вартості Claude Max підписок та їхньої недоступності для значної частини світової спільноти розробників.

Cursor Agent CLI
https://cursor.com/blog/cli
Через те, що компанія Anthropic колись обрала шлях створення агента для програмування в терміналі, і сам проєкт Claude Code є успішним та добре працює, виникла нова мода створювати такі варіації кодинг-асистентів.

OpenAI повторили, зробивши Codex, хоча він був не такий успішний, та з виходом GPT-5 став значно краще працювати. Google зробили свій варіант, його скопіювала китайська Qwen. І так далі.

https://www.youtube.com/watch?v=Nj1MZxYhQIs

Ось і Cursor не витримав і на додаток до свого клону VSCode запустив і CLI. Зараз у стадії бета тестування. Чомусь на старті GPT-5 модель у Cursor IDE працює так собі, а от у CLI добре. Також можна обрати будь-яку модель, яка доступна на рівні підписки вашого облікового запису, на відміну від Claude Code, де прив’язка тільки до Anthropic.

Cursor скопіював і погане – у Windows працює лише через WSL, тобто вбудований Linux. І хоча вони у своєму маркетинговому матеріалі прямо пишуть "доступний всюди", користувачам Windows (якихсь жалюгідних 73% користувачів комп'ютерів) не можна його запустити напряму. Але чи потрібно...

Нові моделі від OpenAI

GPT-OSS для самостійного розгортання
https://openai.com/index/introducing-gpt-oss/
OpenAI, компанія, відома своїми потужними, але переважно закритими моделями GPT, нещодавно представила нове сімейство моделей з відкритими вагами під назвою GPT-OSS (Open Source Software). Їх можна запускати їх локально або на власній інфраструктурі.

Це значний крок, оскільки GPT-OSS є першим "відкритим" релізом OpenAI після GPT-2. Моделі мають архітектуру MoE. Розроблені для складних завдань міркування, агентних завдань (виконання коду Python та веб-перегляд) та універсального використання.

Моделі розгорнуті у багатьох провайдерів.
https://openrouter.ai/openai/gpt-oss-120b
Після випуску GPT-OSS спільнота розробників почала тестувати їхні можливості. І хоча, судячи з графіків від OpenAI, це дуже круті моделі, саме при генерації коду вони показують середні результати, особливо менша модель на 20b. Можливо, в найближчому майбутньому з'являться їхні дотреновані версії.


GPT-5 для гарних інтерфейсів
https://openai.com/index/introducing-gpt-5/
Нова флагманська модель, новий стандарт для інших. Вміє регулювати свої зусилля та агентно довго працювати з кодом.
https://cursor.com/blog/gpt-5
На презентації був один з розробників Cursor і сказав, що тепер це основна модель для їх додатка і її можна прямо брати та використовувати у своїй роботі, а не для тестових проєктів.

https://www.youtube.com/watch?v=BUDmHYI6e3g

https://openai.com/index/introducing-gpt-5-for-developers/
Демонструє значне покращення у генерації front-end та розумінні великих репозиторіїв. Частіше створює більш красиві та адаптивні вебсайти, додатки та ігри. Модель наразі доступна у майже всіх великих продуктах ШІ-програмування: Cursor, Windsurf, Vercel, JetBrains, Factory, Lovable, Gitlab, Augment Code, GitHub, Cognition.

Має стати кращим помічником програмісту і менше його дратувати та відмовлятися працювати.

модель GLM-4.5
https://z.ai/blog/glm-4.5
Нова агентна модель GLM-4.5, розроблена китайською компанією Z.ai (раніше Zhipu AI), значно покращує можливості генерації складного коду, представлені в попередній версії GLM-4. Модель тепер може створювати складні речі, такі як інтерактивні міні-ігри та фізичні симуляції, у форматах HTML, SVG, Python та інших.

Має розмір 355b MoE, де активних 12b параметрів. Демонструє дуже добрі результати у вирішенні реальних інженерних завдань та створенні інтерфейсів. Демонструє надійне володіння багатоетапним використанням інструментів та динамічною генерацією коду - перевершує минулих лідерів відкритих моделей Kimi K2 та Qwen3-Coder.

У чаті https://chat.z.ai/ є окрема кнопка для створення фул-стек додатків. В анонсі як приклад показано каталог покемонів. Чат безкоштовний, за API токени ціна є дешевшою порівняно із середнім показником.

horizon-alpha horizon-beta
https://openrouter.ai/openrouter/horizon-beta
На цьому тижні невідомий провайдер https://openrouter.ai/provider/stealth виставив для тестування модель Horizon, спочатку альфа, а тепер й бета версію. Використання безкоштовне. Модель гарно генерує інтерфейс й піднялась до 4 місця в рейтингу "Програмування" на OpenRouter.

Ті хто досліджували токенизатор, відмічають що це схоже на той що використовує Qwen, можливо це майбутня Qwen4.

Charm Crush CLI
https://charm.land/
https://github.com/charmbracelet/crush
Ще один інтелектуальний кодінг-асистент, який інтегрується у термінал. Для моделей, які підтримують таку можливість, вмикається режим "Agent". Є перемикання моделі в будь-який момент між відповідями. Чати зберігаються як сесії, їх можна повертати.

За допомогою catwalk працює з моделями від Anthropic, OpenAI, Groq, OpenRouter, Google Gemini, AWS Bedrock, Azure OpenAI та можна додати власні через OpenAI/Anthropic-сумісні API. Зараз не підтримує підключення підписних планів, від тієї ж Anthropic — тільки ключі з оплатою за токени.

Використовує LSP (Language Server Protocol) для розуміння коду, як це роблять IDE (підсвітка синтаксису, автодоповнення тощо), показує diff. Підтримує MCP.

https://www.youtube.com/watch?v=3crlgrd86r0

Головний плюс — це інтерфейс, який тут зроблений на найвищому рівні: зручно і зрозуміло, що зараз відбувається. Інтерфейс правильно відмальовується, навіть якщо ресайзити вікно терміналу, що інші тулзи не вміють.

Класно що Ctrl+p завжди відкриває меню. Але мені не вистачає хоткея "перегенеруй відповідь".

Останнім часом бачив все більше проектів на гітхаб, які допомагають запустити декілька версій Claude Code та координувати їх роботу.

Crystal - Multi-Session Claude Code Manager
https://github.com/stravu/crystal
Crystal це незалежний проект від stravu - десктоп аплікація (зроблена на Електрон фреймворкі), яка дозволяє працювати з багатьма Claude Code одночасно. Кожна сесія агента працює в ізольованому Git worktree. Це гарантує, що зміни, внесені ШІ, не впливають на основний код, доки розробник не вирішить їх інтегрувати.

https://www.youtube.com/watch?v=vGwxhBR81zY

 Crystal працює з будь-яким технологічним стеком (Python, TypeScript, Electron тощо) та інтегрується з існуючими проектами. Побудований навколо Claude Code, оскільки розробник вважає його найкращим та найрентабельнішим агентом на ринку, особливо для інтенсивного використання токенів. Використання Crystal значно прискорює процес розробки - сам Crystal був створений за 2-3 тижні.

Claude Code Subagents
https://docs.anthropic.com/en/docs/claude-code/sub-agents
У відповідь на запит розробників й сама компанія Anthropic додала функцію запуску декількох під-агентів. Можна створювати агентів для перевірки безпеки коду, генерації тестів, міграції баз даних тощо - налаштовуються за допомогою простих файлів Markdown, які можна зберігати глобально або на рівні конкретного проєкту. Anthropic рекомендує генерувати початкові версії суб-агентів за допомогою самого Claude.

Кожен суб-агент працює з власним ізольованим контекстом та набором інструментів. Замість одного універсального ШІ-помічника, розробники отримують команду спеціалізованих агентів, кожен з яких має свою експертизу.

Qwen3-Coder
https://qwenlm.github.io/blog/qwen3-coder/
Команда китайців Qwen, яка стоїть за розробкою передових ШІ-моделей, оголосила про випуск Qwen3-Coder. Модель Qwen3-Coder-480B-A35B-Instruct використовує архітектуру Mixture-of-Experts з 480 мільярдами параметрів (з яких 35 мільярдів активні), підтримує вікно контексту до 256к токенів "з коробки" і може бути розширена до 1 мільйона токенів. Очікується випуск інших розмірів.

На етапі пост-навчання команда Qwen масштабувала навчання з підкріпленням для коду (Code RL), зосередившись на реальних завданнях, де успіх виконання легко перевірити. Крім того, запровадили довгострокове навчання з підкріпленням (Long-Horizon RL або Agent RL), щоб навчити модель вирішувати складні інженерні задачі, такі як SWE-Bench, шляхом багатоетапної взаємодії із середовищем, включаючи планування, використання інструментів та отримання зворотного зв'язку.

Модель може інтегруватися з Claude Code та Cline.

https://qwenlm.github.io/blog/qwen3-coder/
Для взаємодії з Qwen3-Coder, розробники представили інструмент командного рядка CLI – Qwen Code, це по суті китайська копія Gemini Code.

Ми отримуємо продуктивність рівня Claude 4 Sonnet, тільки значно дешевше.
https://openrouter.ai/qwen/qwen3-coder

Zed без AI
https://zed.dev/blog/disable-ai-features
Нарешті – вже дістало, що в усі інструменти кодінгу лізе ШІ :) Тепер Zed дозволяє повністю відключити ці непотрібні функції через файл settings.json.

Багато компаній забороняють використання ШІ-інструментів. Деякі фахівці мають етичні, філософські або екологічні застереження щодо використання ШІ та віддають перевагу повному контролю над кодом та робочим процесом без небажаних пропозицій чи втручання ШІ.

GitHub Spark
https://github.blog/changelog/2025-07-23-github-spark-in-public-preview-for-copilot-pro-subscribers/
MS випустив GitHub Spark, який дозволяє перетворити ідею на готовий, розгорнутий застосунок буквально за лічені хвилини. Створює повноцінний репозиторій на GitHub з GitHub Actions та Dependabot, забезпечуючи повну синхронізацію.

Spark самостійно побудує повноцінний застосунок, включаючи як фронтенд, так і бекенд. Все це працює на базі ШІ-моделей, таких як Claude Sonnet 4. Хостинг, розгортання та інтеграція з GitHub-авторизацією – все вже включено "з коробки". Є можливість інтегрувати запити на моделі від OpenAI, Meta, DeepSeek та інших, без необхідності керування API-ключами.

Наразі доступний у публічному попередньому перегляді для підписників Copilot Pro+.

Terragon
https://www.terragonlabs.com/
Claude Code у хмарі, який працює як паралельні фонові агенти в окремому сендбоксі, але з доступом до репозиторіїв github. Починайте або керуйте завданнями з веб-панелі, Terry CLI, коментарів GitHub або вашого телефону — працюйте з будь-якого місця.

AWS Kiro v0.1.0 (попередня версія)
https://kiro.dev/
Нова "агентна IDE" (як то Cursor та Windsurf) від Amazon Web Services (AWS), яка була представлена 14 липня 2025 року. Побудована на Visual Studio Code. Приємна візуальна тема. Підтримує MCP. Наразі використовує тільки дві моделі Claude Sonnet 4.0 та 3.7.

Доступна безкоштовно у попередній версії (preview), і включає ліміти, що дозволяють випробувати продукт без перебоїв. У майбутньому планується запровадження різних тарифних планів: Free, Pro та Pro+.

https://www.youtube.com/watch?v=Z9fUPyowRLI

Фішка це механізм, що допомагає переходити від швидкого прототипування ("vibe coding") до створення повноцінного, готового до виробництва коду ("viable code"). Kiro створює детальні структуровані артефакти: документи з вимогами (requirements.md), дизайнерські документи (design.md) та списки завдань (tasks.md).

Ще є Гачки (Hooks), які налаштовують автоматизацію, керовану подіями, наприклад, оновлення документації або генерацію тестів при збереженні файлу. Та Керування (Steering), яке дозволяє визначати файли описів для спрямування поведінки агентів, додавання контексту, стандартів та бажаних робочих процесів.


Розробник Kiro, NathanKP, активно взаємодіє з користувачами у обговоренні https://news.ycombinator.com/item?id=44560662. Багато людей висловлюють розчарування тим, що Kiro є черговим форком VS Code -  повідомляють про високе споживання CPU та RAM.

Деякі вважають, що Kiro "запізнився на вечірку", оскільки ринок вже змістився до термінальних агентів, як Claude Code. Я теж думав що це буде саме консольний агент.

Зараз у мене (у порівняні з Cursor та Windsurf) працює доволі повільно. Також я не знайшов чекпоїнтів - можна відміняти тільки окремі правки агента.