CodeWithLLM-Updates
-

Claude Max у Opencode
https://github.com/anomalyco/opencode/issues/7410
Юзери Opencode почали повідомляти, що їм приходять повідомлення о неможливості використовувати тарифний план Claude за 200$/місяць. Деякі думали, що це якась проблема з їх акаунтами, но схоже сама Anthropic вирішила боротися з сторонніми CLI.  

Один із коментаторів зауважив, що метод використання "Max" плану в Opencode ніколи не був офіційно дозволеним Anthropic, тому блокування було лише питанням часу.

Багато розробників у коментарях пишуть, що вони скасували свої платні підписки на Claude, оскільки без OpenCode він їм не підходить. Деякі користувачі переходять на внутрішній сервіс "Zen" від самих розробників OpenCode, який працює через API, але де оплата йде за фактично використані токени, а не фіксована сума за місяць.

https://news.ycombinator.com/item?id=46549823
Багато розробників на HN стверджують, що за останній час OpenCode став технічно кращий за офіційний інструмент Anthropic. Спільнота вважає що рішення про блокування пов'язано з телеметрією: використовуючи офіційний Claude Code CLI, ви за замовчуванням (або через маніпулятивні вікна) погоджуєтеся надавати Anthropic дані про те, як ви приймаєте або відхиляєте код. Це безцінно для навчання майбутніх моделей. Сторонні клієнти на кшталт OpenCode «крадуть» ці дані у Anthropic.

Надалі з’ясувалося, що «блокування» було досить примітивним: OpenCode просто імітував офіційну поведінку, надсилаючи системний промпт: «Ти — Claude Code, офіційний CLI від Anthropic». Спільнота вже знайшла «милиці»: зміна назв інструментів (наприклад, з великої літери) або оновлення плагінів на деякий час повертають працездатність.

https://github.com/anomalyco/opencode/releases/tag/v1.1.11
Opencode додали підтримку тарифного плану Codex від OpenAI.

Зниження якості генерації коду
https://spectrum.ieee.org/ai-coding-degrades
Дата-саєнтіс Джеймі Твісс (Jamie Twiss) каже, що за його досвідом ШІ агенти генерації кода досягли плато у 2025 й зараз якість їх роботи почала знижуватися.

Його припущення. Раніше моделі часто помилялися в синтаксисі або структурі. Все далі більше сучасних користувачів ШІ генераторів коду це "вайб" програмісти. Якщо він прийняв код модель вважає, що вона впоралася. Так працює навчання на основі людського фідбеку, яке й отруює нові ітерації моделей та вчить "догоджати" користувачеві, маскуючи проблеми, замість того, щоб писати коректний та безпечний код.

https://news.ycombinator.com/item?id=46542036
Значна частина коментаторів вважає, що моделі не стають гіршими, просто змінюється їхня "архітектура можливостей", а старі методи промптингу вже не працюють. Розробники мають постійно адаптуватися. Робота з ШІ це не магічно правильні відповіді щоразу, а окрема інженерна дисципліна, яка потребує ретельної перевірки (audit) та складних інструментів контролю.

Деякі припускають, що великі провайдери на підписках динамічно підміняють великі моделі меншими (дистильованими) під час пікових навантажень. Через це користувачі періодично бачать "тупіння" ШІ.

Експеримент з автономного кодінгу
https://cursor.com/blog/scaling-agents
Cursor запустили сотні ШІ-агентів одночасно для роботи над одним спільним проєктом протягом тижнів без втручання людини. Суть полягає в тому, щоб перейти від формату «один чат-бот вирішує одну задачу» до формату «віртуальної IT-компанії», де агенти працюють паралельно, не заважаючи один одному.

Головний висновок — просте збільшення кількості агентів ефективне для вирішення складних завдань, якщо правильно налаштувати промпти та моделі (Opus 4.5 схильна «зрізати кути», GPT-5.2 краще у довготривалому плануванні). Рішенням став ієрархічний підхід «Планувальники та Виконавці» (Planners and Workers). Планувальники безперервно досліджують код і створюють задачі, а Виконавці реалізують їх, не відволікаючись на загальну координацію.

Агенти написали понад мільйон рядків коду, створивши з нуля веббраузер, емулятор Windows 7 та клон Excel.

https://www.youtube.com/watch?v=U7s_CaI93Mo

Агенти створили браузер, алі він не працює
https://emsh.cat/cursor-implied-success-without-evidence/
Блогу embedding-shapes розвінчує цей "успіх". Автор стверджує, що експеримент Cursor — це маркетингова ілюзія та фікція, а результат роботи агентів — неробоче сміття: проєкт неможливо зібрати. Команда cargo build видає десятки помилок. Агенти тижнями писали код, але, схоже, жодного разу не перевіряли його на працездатність і ігнорували помилки компіляції.

Це "AI slop" тобто згенерований текст, який виглядає як код, але не має за собою реальної логіки чи робочої структури. Агенти просто "нагнали" обсяг (мільйон рядків), але не виконали базовий мінімум: створити програму, яка хоча б запускається і відкриває простий HTML-файл. Тобто вони створили код, а не програму.

https://news.ycombinator.com/item?id=46646777
Користувачі (зокрема nindalf) заглянули у файл залежностей (Cargo.toml) і виявили, що "браузер" використовує готові компоненти від Servo (двигун від Mozilla/Igalia) для парсингу HTML та CSS, а також бібліотеку QuickJS для JavaScript. Заява Cursor про те, що агенти написали все це "з нуля" (from scratch), була визнана брехнею. Код, який згенерували агенти, — це переважно "клей", що з'єднує чужі готові бібліотеки.

Спільнота підтвердила висновки автора статті embedding-shapes: код не компілюється, тести провалені, а історія комітів показує, що агенти просто генерували гігабайти тексту без перевірки працездатності. Заяви про "мільйони рядків коду" та "автономних агентів" розраховані на менеджерів та інвесторів, які не будуть перевіряти репозиторій. Ситуацію порівнюють із шахрайством (fraud).

Початок роботи з Codex
https://www.youtube.com/watch?v=px7XlbYgk7I
OpenAI зробили детальний воркшоп на 53 хвилини про те, як почати працювати з Codex, їх інструментом генерації коду. Презентація охоплює всі етапи: від встановлення до просунутих сценаріїв використання.

Різниця між Codex у терміналі (CLI), як розширення для VS Code та у хмарі. Що робить файл AGENTS.md. Як підключати зовнішні сервіси (наприклад, Jira, Figma, бази даних документації) через MCP-сервери.

https://www.youtube.com/watch?v=px7XlbYgk7I

Ефективний промптинг: Використання @ для посилання на конкретні файли. Можливість додавати скріншоти (наприклад, макети UI) для генерації коду. Відновлення сесій (codex resume) для продовження роботи над складним завданням.

Просунуті сценарії: Code Review. Написання юніт-тестів та документації. Автоматичне виправлення тестів, що впали, у CI/CD пайплайнах. Генерація діаграм (Mermaid sequence diagrams) для пояснення роботи коду.

Як працює Codex
https://openai.com/index/unrolling-the-codex-agent-loop/
Останнім часом зростає недовіра до Anthropic. Багато хто підкреслює що Claude code не є open‑source проєктом. На фоні цього у OpenAI з їхнім Codex з’явилася можливість просування. Вони випустили статтю, де, перш за все, підкреслили, що їхній проєкт open‑source, будь‑хто може перевірити код і пояснили, як він працює.

В основі роботи Codex CLI лежить «цикл агента» (agent loop), який координує взаємодію між користувачем, AI-моделлю та інструментами. Цей цикл повторюється, доки модель не надасть фінальну текстову відповідь користувачеві. Побудова початкового промпту є складною процедурою: він формується з системних інструкцій, списку доступних інструментів (як вбудованих, так і зовнішніх через MCP-сервери) та опису локального середовища.

З точки зору архітектури, Codex використовує підхід без збереження стану (stateless), відмовляючись від параметра previous_response_id. Це означає, що вся необхідна інформація передається заново в кожному запиті, що дозволяє підтримувати політику «Нульового збереження даних» (Zero Data Retention) для корпоративних клієнтів. Можна використовувати gpt-oss⁠ модель за допомогою ollama 0.13.4+⁠ чи LM Studio 0.3.39+⁠ повністью локально.

https://news.ycombinator.com/item?id=46737630
Багатьох приємно здивував перехід на Rust (проєкт codex-rs), який став основним варіантом, хоча декого плутає спосіб встановлення через npm. Високо оцінили механізм компактизації контексту (/responses/compact), називаючи його найкращим порівняно з конкурентами.

Адаптація Agents Skills
https://agentskills.io/home
На те що Anthropic запустила Skills API (skills-2025-10-02) та відкрила стандарт 18 грудня 2025, OpenAI з GPT-5.2 Thinking тихо відповіли майже відразу додавши /home/oai/skills до ChatGPT та підтримку skills.md у Codex. MS інтегрували підтримку у VS Code теж у грудні. Сursor теж.

https://opencode.ai/docs/skills/ у OpenCode CLI v1.0.186, 22 грудня 2025 р.
https://qwenlm.github.io/qwen-code-docs/en/users/features/skills/ у Qwen code v0.6.0, 26 грудня 2025 р.
https://geminicli.com/docs/cli/skills/ у Gemini CLI v0.23.0, 7 січня 2026 р.

Clawdbot
https://molt.bot/ та https://www.clawhub.ai/
Саме Skills роблять Clawdbot/Moltbot таким потужним інструментом.

Atlassian, Figma, Canva, Stripe, Notion, Zapier як це булу з Model Context Protocol (MCP) рік тому також випустили свої skills.

Почали з'являтися каталоги

https://github.com/runkids/skillshare - синхронизація skills між Claude Code, ClawdBot, OpenCode та інш

Оновлення ollama
https://github.com/ollama/ollama/releases
Ollama це проект для автоматизації та спрощення розгортання відкритих моделей локально. Він дозволяє зробити так, щоб генерація відбувалася безпосередньо на власном залізі, що дозволяє захищати приватні данні та не залежити від доступу до мережі.

v0.14 - додалил сумісніть з Anthropic API. Тепер будь-яку відкриту модель можна підключити до Claude Code.

https://docs.ollama.com/integrations/claude-code
v0.15 - Нова зручна команда запуску ollama launch для використання моделей Ollama з Claude Code, Codex, OpenCode та Droid без окремого налаштування.

https://www.youtube.com/watch?v=3x2q6-5XbQ8

Звісно якість генерації буде нижче ніж через моделі Anthropic, але 100% приватно та без інтернету.

https://docs.ollama.com/integrations/clawdbot
Потім додали ollama launch clawdbot щоб запускати Clawdbot/Moltbot/OpenClaw з локальними моделями.