CodeWithLLM-Updates
-

Cursor 2.0
https://cursor.com/changelog/2-0
https://cursor.com/blog/composer
Значне оновлення одного з головних ШІ кодінг інструментів. Cursor вирішили відповісти Windsurf (до речі вони оновили й свою модель SWE до 1.5) та теж створили свою власну модель спеціально для розробки ПЗ. Назвали "Composer" та говорять, що в 4 рази швидшою за аналогічні за інтелектом моделі, але я думаю це просто щоб менше платити зовнішнім провайдерам.

Головною новинкою є можливість запускати до восьми агентів одночасно (Multi-Agents) та новий інтерфейс для керування цими агентами. Кожен працює в ізольованій копії коду, що запобігає конфліктам. З'явився голосовий режим для керування агентом.

https://www.youtube.com/watch?v=Q7NXyjIW88E

Функції браузера та ізольованих терміналів (пісочниць) вийшли з бета-версії. Enterprise-клієнти отримали розширений контроль над безпекою, включаючи налаштування ізольованих терміналів та журнал аудиту для відстеження дій адміністраторів.

https://news.ycombinator.com/item?id=45748725
Реакція спільноти змішана, але дуже активна, з чітким поділом на прихильників та скептиків. Прихильники підкреслюють, що загальний досвід роботи ("flow") є неперевершеним, оскільки він дозволяє не відволікатися і залишатися в потоці розробки та називають Cursor єдиним ШІ-агентом, який відчувається як серйозний продукт, а не прототип. Нову модель Composer хвалять за її надзвичайну швидкість.

Деякі скаржаться на те, що запити "зависають" або програма аварійно завершує роботу, особливо на Windows. Кілька коментаторів зазначили, що саме через проблеми з надійністю вони перейшли на Claude Code, який виявився "швидшим і на 100% надійним".

Також є скепсис щодо непрозорості: компанію критикують за розмиті графіки без конкретних назв моделей та за використання внутрішнього, закритого бенчмарку (Cursor Bench) для оцінки продуктивності. Багато хто хоче знати, яка саме модель лежить в основі Composer (чи це файн-тюн відкритої моделі), але розробники ухиляються від прямої відповіді.

ForrestKnight про ШІ кодінґ
Посібник про те, як ефективно та професійно використовувати ШІ для написання коду як це роблять досвідчені розробники.

https://www.youtube.com/watch?v=5fhcklZe-qE

Для складного планування використовуйте потужніші моделі, а для генерації коду — швидші та дешевші. Не перемикайте моделі без потреби в одній розмові.

ШІ може швидко проаналізувати чужий код чи бібліотеки, пояснити архітектуру, намалювати схему взаємодії компонентів.

  1. Підготовка. На початку роботи використайте ШІ щоб проаналізувати весь проєкт й побудувати для нього опис контексту. Створіть файли з правилами (глобальними для всіх проєктів і специфічними для конкретного). Вкажіть там ваш стек технологій (напр., TypeScript, Postgress), стандарти, правила іменування гілок тощо.
  2. Конкретика. На початку нового чату вказуйте, які файли потрібно змінити, на який код звернути увагу. Пишіть детально, наприклад "Додай булеве поле editable до таблиці users, віддай його через API, і на фронтенді показуй кнопку лише якщо це поле true". Додавайте логи, скріншоти з помилкою.
  3. Керувати.  ШІ спочатку складає детальний покроковий план реалізації. Ви перевіряєте, коригуєте, і лише потім даєте команду генерувати код. Не можна сліпо довіряти його виборам.
  4. Редагувати. Аналізуйте згенерований код. Треба й можна власноруч редагувати та доводити до якісного. Запитуйте, чому ШІ обрав те чи інше рішення, які є ризики.
  5. Команда агентів. Можна запустити одного агента для написання коду, другого — для написання тестів, а третього — для рев'ю коду першого.
  6. Можна давати команди Git природною мовою як то "створи гілку для релізу і перенеси туди виправлення багів".

Kimi CLI
https://github.com/MoonshotAI/kimi-cli
https://www.kimi.com/coding/docs/kimi-cli.html
Новий термінальний кодінг агент від китайської Moonshot AI. Написаний на Python. Зараз у стадії technical preview. Як провайдера можна використовувати тільки Kimi чи Moonshot API платформи. https://www.kimi.com/coding/docs/ - є тарифні плани з музичними назвами за 49 / 99 / 199 єн на місяць.

З цікавого: за аналогією з Wrap можна перемикатися між агентом і звичайним терміналом. Підтримує ACL, тобто може працювати всередині Zed (які, до речі, нарешті випустили версію для Windows). Але сама Kimi CLI не підтримує Windows, лише Mac та Linux наразі.

Cline CLI
https://docs.cline.bot/cline-cli/overview
https://cline.ghost.io/cline-cli-return-to-the-primitives/
Cline CLI Preview представлений як фундаментальний «примітив», який працює на єдиному агентському циклі Cline Core (який використовує відоме розширення). Він не залежить від моделі, платформи чи середовища виконання. Це базова інфраструктура, на якій розробники можуть створювати власні інтерфейси та автоматизовані процеси.

Замість того, щоб розробляти з нуля складні механізми (управління станом, маршрутизацію запитів, логування), команди можуть використовувати Cline як готову основу. Теж зараз тільки macOS та Linux.

Claude Code в хмарі
https://www.anthropic.com/news/claude-code-on-the-web
Відповідь на популярність Google Jules. Онлайн сервіс дозволяє делегувати декілька задач Claude Code паралельно з браузера. Новий інтерфейс також доступний у вигляді ранньої версії в мобільному додатку для iOS. Наразі перебуває на етапі бета-тестування та доступний для планів Pro та Max.

Користувачі можуть підключити свої репозиторії на GitHub, описати завдання, після чого система самостійно напише код, відстежуючи прогрес у реальному часі та автоматично створюючи pull-запити. Кожне завдання виконується в ізольованому середовищі («пісочниці») для захисту коду та даних.

https://www.youtube.com/watch?v=hmKRlgEdau4

Claude Haiku 4.5
https://www.anthropic.com/news/claude-haiku-4-5
Вийшло оновлення швидкої та дешевої моделі Haiku. За продуктивністю в генерації коду вже на рівні моделі попереднього покоління Sonnet 4, але при цьому працює вдвічі швидше (160-220 токенів/сек) і коштує втричі дешевше.

Більшість буде використовувати архітектурний підхід: використовувати розумнішу модель (наприклад, Sonnet 4.5) як «оркестратора», який розбиває складну проблему на менші підзадачі. Ці підзадачі потім паралельно виконуються «командою» з кількох Haiku 4.5.

Схоже, що Haiku 4.5 значно точніше вносить зміни в код порівняно з моделями GPT-5.

Навички для моделей Claude
https://www.anthropic.com/news/skills
https://simonwillison.net/2025/Oct/16/claude-skills/
По суті, «Agent Skills» (Навички Агента) — це папка, що містить онбордінг, інструкції, ресурси та виконуваний код. Це дозволяє навчити Claude спеціалізованим завданням, таким як робота з внутрішніми API, дотримання стандартів кодування. Інтегровані в усі продукти Claude, через API з'явився новий endpoint /v1/skills для керування. У Claude Code їх можна встановлювати як плагіни з маркетплейсу або вручну, додаючи в папку ~/.claude/skills.

Саймон Віллісон вважає, що нова функція — це величезний прорив, потенційно важливіший за протокол MCP. На відміну від MCP, що є складним протоколом, Навичка — це всього лише папка з Markdown-файлом, який містить інструкції, та опціональними скриптами. Цей підхід не вигадує нових стандартів, а спирається на вже існуючу здатність LLM-агентів читати файли та виконувати код, що робить його неймовірно гнучким та інтуїтивним. Оскільки вони є простими файлами, їх легко створювати та поширювати.

https://www.youtube.com/watch?v=kHg1TfSNSFI

Порівнюючи з MCP, Навички мають ключову перевагу в ефективності використання токенів: замість завантаження тисяч токенів для опису інструментів, модель зчитує лише короткий опис навички, а повні інструкції завантажує лише за потреби.

https://news.ycombinator.com/item?id=45607117
https://news.ycombinator.com/item?id=45619537
Багато коментаторів відзначають, що за своєю суттю Навички — це лише спосіб динамічно додавати інструкції в контекст моделі, коли це необхідно. Їхня опозиція каже, що в цій простоті і є геніальність. Навички — нова парадигма організації та динамічної збірки контексту. Всі в цілому сходяться на думці, що це вдаліша та легковажна альтернатива MCP, яка позбавляє нас від перевантаження контексту та пожирання тисяч токенів.

Користувачі помітили, що Навички — це, по суті, формалізація вже існуючого патерну AGENTS.md (або CLAUDE.md), де в одному файлі зібрані інструкції для агента, куди йому дивитися коли йому щось необхідно. Але Skills роблять цей процес більш стандартним, організованим та масштабованим. LLM знає стандарт і може допомогти в генерації Навички.

Оцінюємо ШІ асистентів
https://www.youtube.com/watch?v=tCGju2JB5Fw

Троє розробників (Вес, Скотт та СіДжей) обговорюють та ранжують різноманітні інструменти, діляться власним досвідом використання, оцінюючи зручність інтерфейсу, якість генерованого коду та унікальні можливості кожного інструменту.

Окремої критики зазнали такі сервіси, як Replit та Lovable, за їхню агресивну та часом непрозору маркетингову стратегію з залученням інфлюенсерів. Для серйозної розробки краще підходять CLI-інструменти або IDE, тоді як для швидких експериментів ідеальні браузерні рішення.

У підсумку S-tier отримали Claude Code, Open Code та ChatGPT. Claude Code хвалять за його здатність чітко дотримуватися інструкцій та планувати роботу, Open Code — за відкритість та можливість використовувати власні API-ключі, а ChatGPT залишається незамінним для швидких запитів без контексту всього проєкту. Більшість інших інструментів були оцінені як середні — вони корисні, але не пропонують унікальних переваг.


Рейтінг вайб-кодінгу
https://www.youtube.com/watch?v=ebacH8tdXug

Це відео є гумористичною відповіддю на минулий, і автор одразу попереджає, що його рейтинг не слід сприймати всерйоз. Theo розглядає інструменти не за технічними можливостями, а за так званим «вайбом» (vibe coding). Головний пріоритет — наскільки дозволяє створювати щось, не дивлячись на код і не розуміючи технічних деталей.

Автор жартує, що «справжні вайб-кодери» уникають бачити код. Тому Cursor, VS Code Copilot, Open Code та Codex, отримують найнижчу оцінку бо вони є асистентами для справжніх розробників, які вимагають активної участі, написання та перегляду коду. Руйнують «вайб».

Найвищу оцінку отримала платформа, що максимально абстрагує від коду й це V0 від Vercel - має простий інтерфейс, замінює технічні терміни (наприклад, "fork" на "duplicate") та пропонує потужні інтеграції, які можна налаштувати кількома кліками без жодних знань про API.

На диво Claude Code отримав A-tier за здатність виконувати завдання автономно, приховуючи від користувача технічну реалізацію.

Майже всі сучасні ШІ інструменти додали модель Claude Sonnet 4.5.

Cursor 1.7
https://cursor.com/changelog/1-7
Відповідаючи на Kiro та Github SpecKit Cursor переробив режим Планування, тепер він створю описи, плани та таскліст перед тим як почати. Термінал нарешті запускає команди у окремому sandbox, на Windows пофіксили взаємодію з PowerShell. У таскбарі ОС тепер можна бачити список агентів й що вони роблять.

https://www.youtube.com/watch?v=WInPBmCK3l4

Також агент може відкривати Браузер та робити скріншоти, навчився читати зображення с диску.

Kiro v0.3.0
https://kiro.dev/changelog/spec-mvp-tasks-intelligent-diagnostics-and-ai-commit-messages/
Kiro нарешті замінили окремі ліміти двох режимів на одні бали, яки рахуються де завгодно, тепер це працює як у Windsurf. Додали Sonnet 4.5, але дивно що коефіцієнт як у Sonnet 4, тільки Auto режим 1 кредит. Все ще не зробили можливість перетягнути файл чи теки у зону чату, щоб послатися на неї як на контекст, тільки через хештег.

Codex Github Action
https://github.com/openai/codex-action
OpenAI на DevDay[2025] анонсували що Codex вийшов з бети — тепер стабільний і з розширеними можливостями. Є Codex Github Action, вбудована галерея віджетів та підтримка MCP. Для інтеграції є Codex SDK.

Також OpenAI перетворює ChatGPT на "операційну систему" для ШІ-агентів. Тепер можна писати власні додатки та агенти всередині ChatGPT, підключати платежі, авторизацію та метрики.

Gemini CLI Extensions
https://blog.google/technology/developers/gemini-cli-extensions/
Google запустили окремий сайт для Gemini CLI https://geminicli.com/ з розділом документації. Розширення для Gemini CLI — нова функція, що дозволяє розробникам налаштовувати та підключати різні програмами, інтегруючи такі сервіси, як Dynatrace, Figma, Stripe, Snyk та інші.

Система є відкритою, що дозволяє будь-кому створювати власні розширення, а Google вже випустила набір для інтеграції зі своїми продуктами (Google Cloud, Firebase, Flutter).

Jules CLI
https://jules.google/docs/changelog/
У хмарного агента Jules доволі недосконалий веб інтерфейс з якого мало чого зрозуміло що він робить зараз - але дають аж 15 завдань на день без оплати за токени. Тепер можна локально встановити npm install -g @google/jules, всі команди jules help. Windows не підтримує.

CLI має можливість створення завдань, перегляд активних сесій (jules remote list) та моніторинг з терміналу у зручному візуальному форматі. Підтримує скриптування через поєднання з такими утилітами як gh, jq чи cat.

Наявна можливість взяти код з активної сесії Jules та застосувати його на локальній машині для негайного тестування змін без очікування коміту в GitHub.

ТАКОЖ

  • З 30 вересня 2025 року Jules має змогу вчитися з взаємодії: зберігати налаштування, підказки та виправлення.
  • З 29 вересня 2025 року Ви можете точно вказувати Jules, з якими файлами працювати для будь-якого завдання.
  • З 23 вересня 2025 року Jules може читати та відповідати на коментарі у pull requests.

Code Mode
https://blog.cloudflare.com/code-mode/
Новий підхід під назвою «Code Mode» покращує взаємодію ШІ з зовнішніми інструментами. Замість того, щоб змушувати великі мовні моделі (LLM) безпосередньо "викликати інструменти" через протокол MCP, що є для них неприродним, пропонується просити їх писати програмний код на TypeScript, який звертається до цих інструментів через API.

Система автоматично перетворює інструменти, доступні через протокол MCP, на зрозумілий TypeScript API з документацією. Згенерований ШІ код виконується в безпечній ізольованій «пісочниці». Сам протокол MCP залишається важливим, оскільки він надає стандартизований спосіб для підключення до сервісів, отримання їх опису та безпечної авторизації, що дозволяє системі керувати доступом, не залучаючи до цього безпосередньо ШІ.

Такий метод набагато ефективніший, оскільки LLM навчені на величезних масивах реального коду і краще справляються з його написанням, аніж з використанням спеціалізованих, штучно створених команд.

Технологічною основою для цієї «пісочниці» є платформа Cloudflare Workers, яка використовує легкі та надзвичайно швидкі V8-ізоляти замість повільних контейнерів. Це забезпечує високу ефективність і безпеку: код повністю ізольований від інтернету і може взаємодіяти лише з дозволеними інструментами.