CodeWithLLM-Updates
-

Codex IDE
https://developers.openai.com/codex/ide
Openai ще раз змінили що треба називати Codex. Це тепер не тільки стара модель й новий агент у CLI та у ChatGPT, це тепер й розширення для IDE (VSCode, Cursor та Windsurf).

З нього можна як локально змінювати код, так й посилати завдання й у хмару. Працює у Mac та Linux. Підтримка Windows все ще є експериментальною.

https://www.youtube.com/watch?v=SgJaSmD3u3k

https://help.openai.com/en/articles/11369540-using-codex-with-your-chatgpt-plan
Відповідь фіксованим тарифним планам у Claude Code. Головне, що Codex підтримує платні плани Chat GPT (окрім Enterprise чи Edu але це поки що), який у багатьох є. Plus це 30-150 повідомлень на 5 годин, у Pro це
300-1500.

ByteRover 2.0
https://www.byterover.dev/blog/byterover-2-0
Вийшла нова версія ByteRover 2.0 з покращеним інтерфейсом та двома ключовими функціями. Context Composer: Інструмент для збору та керування точним контекстом для ШІ-агентів з різних джерел (документи, зображення, веб тощо). Git for AI Memory: Дозволяє керувати версіями пам'яті ШІ-агентів, відстежувати зміни та співпрацювати, подібно до Git для коду.


xAI: Grok Code Fast 1
https://openrouter.ai/x-ai/grok-code-fast-1
https://vercel.com/ai-gateway/models/grok-code-fast-1
Вийшла нова MoE модель від xAI Grok Code Fast 1 для генерації коду. Розроблена для "агентного програмування" (agentic coding), швидка й відносно дешева. Контекстне вікно 256к токенів.

https://github.blog/changelog/2025-08-26-grok-code-fast-1-is-rolling-out-in-public-preview-for-github-copilot/
Модель доступна у GitHub Copilot користувачам планів Copilot Pro, Pro+, Business та Enterprise. Можна також використовувати власний ключ API (BYOK). Безкоштовний доступ надається до 2 вересня 2025 року.

Додана й в Cursor.

Zed та підтримка CLI агентів
https://zed.dev/blog/bring-your-own-agent-to-zed
Zed у партнерстві з Google інтегрували Gemini CLI у IDE через новий Agent Client Protocol (ACP).

Це відкритий протокол на основі JSON-RPC, що дозволяє підключати будь-яких агентів до Zed (аналогічно тому, як LSP працює для мов). Дані для ШІ не надсилаються на сервери Zed. Протокол під ліцензією Apache — можна створювати власних агентів або підключати їх до інших редакторів (наприклад, Neovim вже підтримує).

Коли Win версія?
https://zed.dev/windows
Нарешті Zed отримає нативну підтримку для Windows, про що просили тисячі користувачів. Розробники зіткнулася з рядом викликів та активно працюють над цим.

Компанія запрошує користувачів долучитися до закритого бета-тестування.

Alibaba Qoder
https://qoder.com/ https://qoder.com/changelog
Не плутати з Qodo. Нова IDE (ще один клон VSC) з ШІ, на цей раз від китайського гіганта Alibaba. Пишуть, що їх система здатна розуміти глибше складну архітектуру проєкту, шаблони проєктування та логіку його роботи. Рішення: окрім графу коду та індексації, ще автоматично вести Wiki опису проєкту.

https://www.youtube.com/watch?v=xSWj_Pe3CWo

Пропонує два режими роботи які схожі на ті що в Amazon Kiro: у «Ррежимі агента» працю як вайб-кодер. У «Режимі запиту (Quest Mode)» бере на себе роль інженера (Spec-Driven Development), який самостійно планує роботу, розбиває завдання, створює реалізації функцій та автоматизує тестування, видаючи готовий до роботи код за заданими специфікаціями. Другий режим не працює без GIT-репозиторія. Є історія виконаних завдань. Можна запустити декілька завдань й вони в порівняні з Kiro не будуть ставати в чергу, а виконуватися паралельно.

Може працювати з Anthropic Claude, Google Gemini та OpenAI GPT, автоматично обираючи найбільш ефективну та економічну модель, схоже на Авто режим у Cursor. Ручного перемикання моделей (поки що?) немає. На сайті не має версії під Linux.

Наразі Qoder доступний безкоштовно в рамках публічного попереднього перегляду. Режим приватності в налаштуваннях не можна змінювати - за замовчуванням активований.

Amazon Kiro v0.2
https://kiro.dev/pricing/
IDE Kiro все ще в стадії тестової розробки, але вони вже запустили платні підписки. Можливо саме тому, що у v0.1 давали дуже багато безкоштовних токенів на Sonnet 4, то тепер закрили реєстрацію. Для нових користувачів тільки список очікування.

Безкоштовно буде тільки 50 vibe запитів на місяць, зараз ще всім новим користувачам накинули по 100 vibe та spec запитів, їх треба використати за 2 тижня. Що дуже прикро, в мене простий тест проект на 2 години забрав відразу 40 spec запитів. А 125 spec запитів тепер $20/місяць.

Крім того в порівняні з Cursor тут поки що майже нічого не має по функціоналу й різноманіттю моделей, а по відчуттям швидкість в 2-3 рази повільніше. Я не знаю хто буде за це платити зараз стільки.

LLM не замінять програмістів
https://zed.dev/blog/why-llms-cant-build-software
Провокаційний пост від Конрада Ірвіна з ZED. Він каже, що LLM досить добре генерують код, оновлюють його при виявленні проблем і запускають тести. Але люди-інженери працюють не так: вони вибудовують ментальні моделі того, що код робить й що повинен робити, й за цим виконують оновлення.

ШІ агенти не створюють ментальної моделі проекту та просто генерують код, схожий на той найкращій що завчили - тому плутаються, гублять контекст, вигадують зайві деталі, припускають, що написаний ними код працює, не можуть вирішити що робити, коли щось не працює і можуть просто видалити все та почати спочатку без глибшого розуміння проблеми.

Автор сумнівається що це можна виправити. LLM підходить для простих завдань, де вимоги чіткі, й де можуть "одноразово" його виконати та прогнати тест. А людина-інженер залишається "водієм", щоб код дійсно робив те, що від нього вимагається.

Обговорення
https://news.ycombinator.com/item?id=44900116
Коментарі демонструють дуже полярні погляди, але більшість підтримує основну тезу автора. LLM фокусуються на текстових шаблонах, а не на глибинному розумінні, можуть "хачити" тести, щоб вони пройшли, замість того, щоб виправляти справжні проблеми.

Деякі вважають, що добре налаштовані LLM можуть працювати на рівні або навіть краще за молодшого розробника для певних конкретних простих ізольованих завдань.

Багато людей скаржаться, що використання LLM у айті вимагає постійного та ретельного нагляду за агентом - надзвичайної деталізованих "рельсів". Тепер у галузі дивляться на навички формулювання проблем та високорівневого обходу недоліків LLM. Ця "ручна робота" є більш стомлюючою, ніж класичне написання коду самостійно.

Існує сильний розкол позицій щодо того, чи продовжує LLM-технологія швидко розвиватися, чи досягла плато і потребує нових архітектурних проривів.

AGENTS.md
https://agents.md/
Аналог README для агентів. Нарешті стандарт для маркдаун файлу, в який ми пишемо контекст та додаткові інструкції для агента. Це простий текстовий файл. Він буде корисним й для розробників-людей, бо більшість вже у README майже нічого не пише, а тут так не вийде. Бо для LLM потрібна більша деталізація та точність.

До цього якщо я на репозиторії використовую декілька ШІ-кодінг інструментів то доводилось для кожного мати свій файл, а ще якось думати про їх синхронізацію. Тепер достатньо тільки AGENTS.md у корені проекту. Можливо робити свої файлі для піддеректорій.

Вже підтримали: OpenAI Codex, Amp, Jules by Google, Cursor, Factory, RooCode, Aider (через конфіг), Gemini CLI (через конфіг), Kilo Code, OpenCode, Phoenix, Zed.

 При зростанні якості згенерованого коду розробка рухається від ручного написання до організації завдань та управління ШІ-агентами. Людська роль перетворюється на роль "менеджера проєкту", який ставить високорівневі цілі, розбиває їх на частини та направляє агентів, що застрягли або потребують зворотного зв'язку.

Росте попит на мобільні додатки щоб "кодити на ходу".

OMNARA
https://omnara.com/
Клієнт для мобільного пристрою з iOS поверх ШІ агентів (Claude Code, Cursor, GitHub Copilot, та інш). Надає можливість запускати та бачити роботу агентів з будь-якого місця, навіть з лісу чи пляжу. Миттєві сповіщення, коли агентам потрібна допомога та можливість реагувати на це.

Треба встановити Omnara SDK чи wrapper у своє робоче середовище.

Поки їм підтримку надає інкубатор Y Combinator, то використання безкоштовне. Їх бізнес-модель доволі хитка, наприклад Anthropic (розробник Claude) може сама додати подібний функціонал у свої додатки, чи хтось зробить телеграм бота.

У кого зараз ТОП-моделі безкоштовні
https://github.com/inmve/free-ai-coding
В цьому репозиторію є таблиця наявних проектів, яки дають безкоштовний обмежений доступ до найкращих моделей. Наприклад, Rovo Dev CLI дає 5м токенів у день на Claude Sonnet 4. Gemini CLI на модель Gemini 2.5 Pro дає 100 запитів у день. Також зазначено чи потрібно надавати номер кредитної картки.

На жаль автор не наводить чи надаємо так ми автоматично дозвіл на копіювання нашого коду цим компаніями та проектам.

Стаття "Код з ШІ з мінімальним бюджет/безкоштовно"
https://wuu73.org/blog/aiguide1.html
https://wuu73.org/blog/aiguide2.html
https://wuu73.org/blog/aiguide3.html
Автор за стратегію «Free AI Buffet» – набір інструментів, що об’єднує найкращі безкоштовні версії великих моделей (Claude 4 on Poe.com, GLM 4.5, Kimi K2, Qwen3, Gemini 2.5 Pro via AI Studio, Grok, Deepseek тощо). Кожна модель має свої переваги: швидка, інша – краща у плануванні, інша – у тестуванні, третя – у генерації коду.

Використовує Cline, але можна й Roo Code. Для планування і мозкового штурму використовує найрозумніші безкоштовні моделі у вебі (Gemini 2.5 Pro, o4‑mini, Claude  4, GPT‑5, o3).

Його робочий процес:

  1. Запустити AI Code Prep GUI (https://wuu73.org/aicp/) → підготувати контекст.
  2. Поставити запит у веб‑чат (Gemini, o4‑mini, Claude) – планування змін.
  3. Генерувати підказку для агента Cline → скопіювати промпт.
  4. Перенести в Cline (GPT‑4.1) – виконання.
  5. Якщо труднощі генерації, то змінювати в Cline моделі.

Обговорення https://news.ycombinator.com/item?id=44850913. Багато користувачів ставили під сумнів заявлену "безкоштовність", вказуючи, що вона досягається ціною передачі особистих даних та коду компаніям для навчання моделей. Дехто вважає, що це прийнятна плата за доступ до передових технологій, особливо для тих, хто не може дозволити собі платні підписки.

Люди активно ділилися своїми улюбленими інструментами: aider, slupe, SelectToSearch, LM Studio, Continue.dev, Zed, OpenRouter, Chutes.ai, Cherry.ai, Rovodev CLI, CodeWebChat, Windsurf, Amazon Q Dev.

Google Jules
https://jules.google/docs/usage-limits
З 6 серпня Google Jules після двох місяців більше не у статусі бета. Були презентовані ліміти та тарифні плани. Також модель тепер Gemini 2.5 thinking.

Базовий образ Jules за замовчуванням включає Playwright для тестування фронтенду. Він може тестувати веб‑додатки і показувати результати у вигляді скріншоту. На вхід теж тепер приймає зображення.

З 15 серпня підняли ліміт диску Jules VM до 20GB та додали можливість в будь-який момент зберегти наявний прогрес у репозіторий.

Додали можливість агенту перед тим як щось робити згенерувати ще уточнюючи питання. Також тепер може сам вирішити пошукати в інтернеті релевантний контент, документацію чи фрагменти коду під завдання.

Додали агента-критика, який як говорять краще ніж просто лінтер, чи набір тестів. Після генерації він виявляє приховані баги, пропущені граничні випадки та неефективний код так надає зворотній зв'язок Jules.

1M контекст для Sonnet 4
https://www.anthropic.com/news/1m-context
Найпопулярніша  модель для генерацію код Claude Sonnet 4 відтепер підтримує до 1 мільйона токенів контексту, що є 5-кратним збільшенням та допоможе Claude Code розуміти більші кодові бази. Також для запитів понад 200к токенів ціни за вхідні та вихідні дані збільшуються.

Виступи з Code w/ Claude
https://www.youtube.com/watch?v=gv0WHhKelSE

Кел Руеб з Anthropic розповідає як краще працювати з Claude Code. Він є одним з основних розробників Claude Code, займається промтингом, системними підказками, описом інструментів та їхньою оцінкою.

На відміну від інших підходів, Claude Code не індексує та не вбудовує всю кодову базу. Замість цього він досліджує та розуміє її, як людина, використовуючи "агентний пошук" (інструменти типу globgrepfind). Він може ітеративно уточнювати свої пошукові запити.

Найкращі практики:  claude.md розміщений у робочій директорії або домашній директорії для задання важливого контексту; коли потрібно очищувати /clear чи /compact підсумовувати контекст робочого чату; налаштувати автоматичного підтвердження для безпечних команд та використовувати Shift+Tab для автоматичного прийняття дій; проговорити с агентом план дій перед виконанням та підтвердити його; використовувати скріншоти.

Уточнення з Q&A: не можна мати кілька  claude.md в одній директорії, але можна посилатися на інші файли за допомогою @-синтаксису.

Розширені техніки: запускати одночасно 2-4 інстанції Claude Code для паралельної роботи; швидко зупиняти агента при невірних діях через escape, подвійне натискання дозволяє повернутися до розмові та скоригувати дії; headless використання наприклад, в GitHub Actions.

Уточнення з Q&A: наразі найкращий спосіб обміну контекстом між кількома агентами – це запис інформації у спільний Markdown-файл.


Orta Therox про використання Claude Code
https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/
Порівняє з моментом, коли фотографія прийшла й замінила ручне малювання. Claude Code дозволяє експериментувати з ідеями, які раніше були б занадто витратними за часом. Кардинально спростив процес створення прототипів ігор.

Перелічує безліч великих, трудомістких завдань, які він виконав самостійно за 6 тижнів - тепер їх можна виконувати як фонові "побічні проекти".

Поради успіху: монорепозиторії щоб агент знав увесь код проекту; використання мейнстрім зрілих, добре документованих технологій та фреймворків; стандартні CRUD-додатки; не дуже великі та не старі кодові бази.

 Радить не перейматися вибором різних моделей (Sonnet, Opus, Gemini CLI тощо). Він успішно використовує Claude Code зі стандартним обліковим записом. Якщо агент "застряг", це, ймовірно, означає, що користувач погано сформулював завдання, а не проблема в інструменті.

Пост викликав жваве обговорення на https://news.ycombinator.com/item?id=44746621 - останнім часом багато розробників висловлюють здивування та захоплення можливостями Claude Code, називаючи його "зміною гри" та "подарунком з небес". Інструмент знімає тягар запам'ятовування деталей, рутинної роботи та страху чистого аркуша.

Порівняння. Деякі вважають Amp кращим за Claude Code. Gemini CLI загалом оцінюється як значно гірший. Cursor має змішані відгуки. Github Copilot переважно використовується для автодоповнення, а його агентна частина вважається менш корисною.

Поради: заохочувати агента писати тести (TDD) та використовувати їх для валідації змін. Є можливість налаштувати спеціалізованих суб-агентів для перевірки коду на відповідність стандартам, виявлення надмірного інжинірингу тощо. Агент чудово працює з терміналом, тому його можна використовувати для виконання Git-операцій, Docker-команд, запуску лінтерів, компіляторів, тестування та інших CLI-інінструментів. Навіть можливе використання Claude Code SDK для інтеграції в CI/CD або інші автоматизовані процеси.

Люди висловлюють серйозне занепокоєння щодо використання таких інструментів "джуніорами", які можуть генерувати повільний, небезпечний або просто жахливий код, не розуміючи його. Компанії можуть замінити їх "сеньйорами" з AI-інструментами, що потенційно створює "розрив" у підготовці майбутніх поколінь розробників. Деякі вважають, що це може призвести до масового безробіття у країнах з дешевою робочою силою.

Також висловлюють занепокоєння щодо високої вартості Claude Max підписок та їхньої недоступності для значної частини світової спільноти розробників.

Cursor Agent CLI
https://cursor.com/blog/cli
Через те, що компанія Anthropic колись обрала шлях створення агента для програмування в терміналі, і сам проєкт Claude Code є успішним та добре працює, виникла нова мода створювати такі варіації кодинг-асистентів.

OpenAI повторили, зробивши Codex, хоча він був не такий успішний, та з виходом GPT-5 став значно краще працювати. Google зробили свій варіант, його скопіювала китайська Qwen. І так далі.

https://www.youtube.com/watch?v=Nj1MZxYhQIs

Ось і Cursor не витримав і на додаток до свого клону VSCode запустив і CLI. Зараз у стадії бета тестування. Чомусь на старті GPT-5 модель у Cursor IDE працює так собі, а от у CLI добре. Також можна обрати будь-яку модель, яка доступна на рівні підписки вашого облікового запису, на відміну від Claude Code, де прив’язка тільки до Anthropic.

Cursor скопіював і погане – у Windows працює лише через WSL, тобто вбудований Linux. І хоча вони у своєму маркетинговому матеріалі прямо пишуть "доступний всюди", користувачам Windows (якихсь жалюгідних 73% користувачів комп'ютерів) не можна його запустити напряму. Але чи потрібно...

Нові моделі від OpenAI

GPT-OSS для самостійного розгортання
https://openai.com/index/introducing-gpt-oss/
OpenAI, компанія, відома своїми потужними, але переважно закритими моделями GPT, нещодавно представила нове сімейство моделей з відкритими вагами під назвою GPT-OSS (Open Source Software). Їх можна запускати їх локально або на власній інфраструктурі.

Це значний крок, оскільки GPT-OSS є першим "відкритим" релізом OpenAI після GPT-2. Моделі мають архітектуру MoE. Розроблені для складних завдань міркування, агентних завдань (виконання коду Python та веб-перегляд) та універсального використання.

Моделі розгорнуті у багатьох провайдерів.
https://openrouter.ai/openai/gpt-oss-120b
Після випуску GPT-OSS спільнота розробників почала тестувати їхні можливості. І хоча, судячи з графіків від OpenAI, це дуже круті моделі, саме при генерації коду вони показують середні результати, особливо менша модель на 20b. Можливо, в найближчому майбутньому з'являться їхні дотреновані версії.


GPT-5 для гарних інтерфейсів
https://openai.com/index/introducing-gpt-5/
Нова флагманська модель, новий стандарт для інших. Вміє регулювати свої зусилля та агентно довго працювати з кодом.
https://cursor.com/blog/gpt-5
На презентації був один з розробників Cursor і сказав, що тепер це основна модель для їх додатка і її можна прямо брати та використовувати у своїй роботі, а не для тестових проєктів.

https://www.youtube.com/watch?v=BUDmHYI6e3g

https://openai.com/index/introducing-gpt-5-for-developers/
Демонструє значне покращення у генерації front-end та розумінні великих репозиторіїв. Частіше створює більш красиві та адаптивні вебсайти, додатки та ігри. Модель наразі доступна у майже всіх великих продуктах ШІ-програмування: Cursor, Windsurf, Vercel, JetBrains, Factory, Lovable, Gitlab, Augment Code, GitHub, Cognition.

Має стати кращим помічником програмісту і менше його дратувати та відмовлятися працювати.

модель GLM-4.5
https://z.ai/blog/glm-4.5
Нова агентна модель GLM-4.5, розроблена китайською компанією Z.ai (раніше Zhipu AI), значно покращує можливості генерації складного коду, представлені в попередній версії GLM-4. Модель тепер може створювати складні речі, такі як інтерактивні міні-ігри та фізичні симуляції, у форматах HTML, SVG, Python та інших.

Має розмір 355b MoE, де активних 12b параметрів. Демонструє дуже добрі результати у вирішенні реальних інженерних завдань та створенні інтерфейсів. Демонструє надійне володіння багатоетапним використанням інструментів та динамічною генерацією коду - перевершує минулих лідерів відкритих моделей Kimi K2 та Qwen3-Coder.

У чаті https://chat.z.ai/ є окрема кнопка для створення фул-стек додатків. В анонсі як приклад показано каталог покемонів. Чат безкоштовний, за API токени ціна є дешевшою порівняно із середнім показником.

horizon-alpha horizon-beta
https://openrouter.ai/openrouter/horizon-beta
На цьому тижні невідомий провайдер https://openrouter.ai/provider/stealth виставив для тестування модель Horizon, спочатку альфа, а тепер й бета версію. Використання безкоштовне. Модель гарно генерує інтерфейс й піднялась до 4 місця в рейтингу "Програмування" на OpenRouter.

Ті хто досліджували токенизатор, відмічають що це схоже на той що використовує Qwen, можливо це майбутня Qwen4.

Charm Crush CLI
https://charm.land/
https://github.com/charmbracelet/crush
Ще один інтелектуальний кодінг-асистент, який інтегрується у термінал. Для моделей, які підтримують таку можливість, вмикається режим "Agent". Є перемикання моделі в будь-який момент між відповідями. Чати зберігаються як сесії, їх можна повертати.

За допомогою catwalk працює з моделями від Anthropic, OpenAI, Groq, OpenRouter, Google Gemini, AWS Bedrock, Azure OpenAI та можна додати власні через OpenAI/Anthropic-сумісні API. Зараз не підтримує підключення підписних планів, від тієї ж Anthropic — тільки ключі з оплатою за токени.

Використовує LSP (Language Server Protocol) для розуміння коду, як це роблять IDE (підсвітка синтаксису, автодоповнення тощо), показує diff. Підтримує MCP.

https://www.youtube.com/watch?v=3crlgrd86r0

Головний плюс — це інтерфейс, який тут зроблений на найвищому рівні: зручно і зрозуміло, що зараз відбувається. Інтерфейс правильно відмальовується, навіть якщо ресайзити вікно терміналу, що інші тулзи не вміють.

Класно що Ctrl+p завжди відкриває меню. Але мені не вистачає хоткея "перегенеруй відповідь".