CodeWithLLM-Updates
-

Mintlify autopilot
https://www.mintlify.com/blog/autopilot
ШІ система відстеження змін у репозиторії. На кожен пуш аналізує як треба оновити документацію (як для людей, так й для ШІ). На панелі інструментів autopilot відображаєтся які зміни можуть вимагати змін у документації. Надалі агент Mintlify створює чернетку, яку ви можете доопрацьовувати. Він враховує контекст коду і тон документації.

Code Wiki
https://codewiki.google/
Google створили Code Wiki (public preview) — платформу, покликану вирішити проблему читання та розуміння існуючого коду. Система створює та підтримує структуровану вікі-сторінку для репозиторію, яка безперервно оновлюється.

Ключові особливості: автоматизація, Gemini чат, у відповідях гіперпосилання на файли коду. Система автоматично генерує опис, тому наявні завжди актуальні архітектурні, класові та послідовні діаграми.

Є вейтліст на доступ до версії Code Wiki, яка дозволить командам запускати ту саму систему локально та безпечно для внутрішніх, приватних репозиторіїв.

Qoder Repo Wiki
https://docs.qoder.com/user-guide/repo-wiki
Ця функція IDE Qoder автоматично генерує структуровану документацію для проєкту (максимум 10 000 файлів на проєкт, англійською та китайською мовами) та безперервно відстежує зміни як у коді, так і в самій документації.

Вона аналізує структуру та деталі реалізації проєкту, надаючи контекстні відомості, які дозволяють AI-агентам краще працювати. Генерація Wiki є динамічною.

Також підтримується синхронізація з Git. Генерований вміст зберігається в директорії для кожної вибраної мови (наприклад, repowiki/zh/, repowiki/en/), яку можна комітувати та пушити. Початкова Wiki створюється за один клік (до 120 хвилин для 4000 файлів). Після цього система постійно відстежує зміни в коді; при виявленні модифікацій у документованих файлах можна оновити лише зачеплені розділи.

Спочатку функція працювала тільки з Git-репозиторіями, але з 2 грудня 2025 додали можливіть генерації й для локальних проектів біз git.

DeepWiki (від Cognition AI)
https://deepwiki.com/
Безкоштовний ШІ-інструмент, що генерує "Wikipedia-подібну" документацію для GitHub-репозиторіїв (публічних та приватних). Аналізує код, README та конфіги, створює структуровані сторінки з діаграмами (архітектура, потоки), інтерактивними посиланнями на код та чат-інтерфейсом для запитів (natural language).

Підтримує >30,000 відкритих репозиторіїв, оновлення після комітів. Open-source версія доступна для локального запуску.

Mistral Devstral 2 та Vibe
https://mistral.ai/news/devstral-2-vibe-cli
Європейська компанія Mistral AI відома своїми незалежними від США/Китаю LLM. Вони оновили модель для програмування та нарешті випустили свій CLI. Анонси є вкрай важливими для розвитку екосистеми штучного інтелекту з відкритим вихідним кодом у сфері розробки програмного забезпечення.

https://openrouter.ai/mistralai/devstral-2512:free
Нове покоління моделей має назву Devstral 2 (123B) та Devstral Small 2 (24B), випускаються під гнучкими ліцензіями: модифікована MIT для Devstral 2 та Apache 2.0 для Devstral Small 2. Devstral 2 демонструє вражаючі для відкритих моделей 72.2% на бенчмарку SWE-bench.

Версія Small може працювати локально на обладнанні NVIDIA, хоча для старшої моделі (через її щільність, а не MoE архітектуру) знадобиться серйозне залізо на кшталт Mac Studio або декількох GPU 3090/4090.

Поки що Devstral 2 пропонується безкоштовно через API. Модель вже є у Kilo Code та Cline. За відгуками, вона доволі посередня при генерації сайтів, фронтенду та анімації — краще працює з невеликими завданнями локальних скриптів на Python.

https://help.mistral.ai/en/articles/496007-get-started-with-mistral-vibe
Mistral Vibe CLI — це як Claude Code, інструмент командного рядка з відкритим кодом, що працює на Windows, macOS і Linux на базі моделей Devstral. Його також можна запускати в Zed. Є теми інтерфейсу, робота з GIT, підтримка MCP, агенти з кастомними налаштуваннями. Можливий як інтерактивний, так і запуск для самостійної роботи.

https://news.ycombinator.com/item?id=46205437
Коментатори звернули увагу, що “Vibe” звучить так, ніби продукт орієнтований на вайб-кодінг «погралися з агентом і хай він сам щось наклепає», а не на контрольовану роботу професійного програміста. Дехто прямо називає такий меседж “протилежним” тому, що потрібно в реальній роботі: підсилення людини, а не заміна процесу на «чат + інструменти, удачі».

Cursor візуальний редактор
https://cursor.com/blog/browser-visual-editor
Cursor представив візуальний редактор з функцією «Point and Prompt»: можна просто клікнути на будь-який елемент інтерфейсу та описати текстом, що саме треба змінити. Також дозволяє маніпулювати структурою сайту за допомогою перетягування (drag-and-drop) елементів у дереві DOM, змінюючи порядок кнопок чи налаштування сітки.

https://www.youtube.com/watch?v=1S8S89X-xbs

Бічна панель редактора надає візуальний контроль над властивостями компонентів (props) та стилями: від повзунків для типографіки до палітри кольорів. Оновлення має на меті стерти межу між дизайном та програмуванням, дозволяючи розробникам зосередитися на ідеях, а не на механічній роботі з кодом.

Claude Code плагін
https://code.claude.com/docs/en/plugin-marketplaces
Anthropic запустили plugins marketplace, схоже у відповідь на такий самий у Gemini CLI. Він не є окремим веб‑сайтом з інтерфейсом типу App Store. Це система всередині самого Claude Code, де marketplaces — це каталоги плагінів (часто на базі GitHub‑репозиторіїв), які додаються і керуються через slash‑команди.

https://www.youtube.com/watch?v=1uWJC2r6Sss

Також тепер є підказки варіантів запитів та хоткей для перемикання моделей під час промпту. Підагенти (subagents) можуть працювати паралельно. Додали кращу статистику використання та візуальну стрічку-індикатор заповнення контекстного вікна.

Тепер можна запускати завдання Claude Code прямо з мобільного додатка Claude для Android. Це не повноцінний термінал на телефоні, а асинхронна інтеграція, де Claude працює в хмарі.

Kiro Powers
https://kiro.dev/docs/powers/
Kiro тестує концепцію Powers для моделі яка вирішує проблему засмічення контекстного вікна через динамічну активацію інструментів, система аналізує запит користувача і вмикає лише потрібний "пакет знань". Це дуже схоже на "Skills" у моделях від Anthropic.

Коли до агента підключено багато інструментів (MCP-серверів), він змушений завантажувати сотні описів функцій одночасно. Це "з'їдає" до 40% ліміту ще до початку роботи, що призводить до нерелевантних порад. Нотомість кожен Power — це готовий набір, що містить інструкції (як і коли використовувати інструменти), конфігурацію сервера та автоматизовані сценарії.

Наприклад, якщо ви згадуєте "оплату", активується Power для Stripe, надаючи специфічні знання про API та безпеку. Як тільки ви переходите до роботи з базою даних, інструменти Stripe вимикаються, а замість них завантажується Power для Supabase або Neon. Це дозволяє агенту залишатися швидким, фокусуватися на конкретній темі та видавати код вищої якості.

Система пропонує відкриту екосистему з установкою в один клік для популярних сервісів (AWS, Figma, Stripe тощо).

MCP як незалежний стандарт
https://aaif.io/
https://openai.com/index/agentic-ai-foundation/
У грудні 2025 року Anthropic передала Model Context Protocol (MCP) до Agentic AI Foundation (AAIF) — спеціалізованого фонду під управлінням Linux Foundation. MCP став одним із засновницьких проектів новоствореного фонду. Разом з MCP до фонду увійшли проекти goose від Block та AGENTS.md від OpenAI.

Agent Skills як відкритий стандарт
https://claude.com/blog/organization-skills-and-directory
https://agentskills.io та https://claude.com/connectors
Agent Skills оголошений як незалежний відкритий стандарт 18 грудня 2025 року зі специфікацією та SDK, він не передавався до Linux Foundation або AAIF. Microsoft вже прийняв Agent Skills у VS Code та GitHub Copilot; також підтримують Cursor, Goose, Amp, OpenCode де є моделі від Anthropic.

Плейграунд Agent Skills
https://skillsplayground.com/
На цьому сайті якщо ввести свій API-ключ можна погратися з тим, які скіли як використовує яка модель.

Claude code 2.0.74
Додано інструмент LSP (Language Server Protocol) для функцій розуміння коду, таких як перехід до визначення, пошук посилань та підказки при наведенні. Це суттєво покращує досвід розробки, роблячи навігацію по коду швидшою та зручнішою. Поки що агент рідко використовує LSP самостійно. Відкритий проєкт OpenCode має підтримку LSP вже близько 6 місяців, що викликає здивування повільним прогресом пропрієтарного ПЗ.

Нові моделі

Gemini 3 Flash
https://blog.google/products/gemini/gemini-3-flash/
Google потрохи розгортають свою молодшу мультимодальну агентну модель нової серії - за тестами скоріше ближче до Gemini 3 Pro ніж, до Gemini 2.5 Flash. Модель перевершує й Gemini 2.5 Pro за багатьма бенчмарками, будучи при цьому втричі швидшою та значно дешевшою. За деякими тестами модель краща за флагманські моделі інших компаній.

З моменту релізу Gemini 3 Flash стала моделлю за замовчуванням у мобільному додатку Gemini (замінюючи 2.5 Flash) та в AI Mode пошуку Google. В мене у Gemini CLI досі не з'явилися ні 3 Flash, ні 3 Pro - працювати з ними можна через Google AI Studio.

GLM-4.7
https://z.ai/blog/glm-4.7
Zhipu AI оновила свою модель GLM. 4.7 версія демонструє суттєвий прогрес порівняно з GLM-4.6 у багатомовному сценарію генерації коду. Підтримує "thinking before acting" у фреймворках на кшталт Claude Code, Kilo Code, Cline та Roo Code, забезпечуючи стабільність у складних завданнях. Також підтягнули якість генерації інтерфейсів.

Ваги моделі (MoE-архітектура, контекст до 200K токенів) публічно доступні на Hugging Face та ModelScope для локального розгортання. Доступ через API Z.ai, OpenRouter, чат на z.ai та спеціальний GLM Coding Plan ($3/місяць за перший місяць, потім по $6).

MiniMax M2.1
https://www.minimax.io/news/minimax-m21
Випуск покращеної моделі MiniMax M2 від китайської компанії MiniMax, орієнтованої на практичну розробку та агентні системи. Говорять, що модель значно посилена для роботи з не-пайтон мовами програмування (Rust, Java, Golang, C++, Kotlin, Objective-C, TypeScript, JavaScript тощо), перевершуючи Claude Sonnet 4.5 і наближаючись до Claude Opus 4.5 у багатомовних сценаріях.

Модель open-source. Вартість через API доволі низка, близько 10% від Claude Sonnet. Сумісність з популярними агентами: Claude Code, Droid (Factory AI), Cline, Kilo Code, Roo Code, BlackBox. Підтримка механізмів контексту (Skill.md, agent.md тощо).

Також мають веб платформу https://agent.minimax.io/ де можна затестувати як модель створює застосунки.

https://www.youtube.com/watch?v=kEPLuEjVr_4

Порівняння SWE-bench Verified: Gemini 3 Flash 78%, MiniMax M2.1 74%, GLM-4.7 73.8%.

Superset - мультітермінал для Агентів
https://superset.sh/
Тільки для Mac, плануються версії для Windows та Linux - Electron прога, термінал з табами спеціально адаптований щоб керувати роботою багатьох агентів Claude Code, OpenCode, OpenAI Codex та інш, які можна запустити одночасно.

Автоматично створює ізольовані git worktrees (гарна практика), налаштовує середовища, ізолює задачі для уникнення конфліктів, додає хуки для сповіщень та вбудований diff-viewer для швидкого ревью змін і створення PR. Майбутні плани включають хмарні воркспейси, обмін контекстом між агентами та оркестрацію.

Схоже за логікою на https://github.com/tmux/tmux що є відомим терміналом терміналів для Unix-подібних операційних систем (Linux, macOS, BSD тощо). Дозволяє створювати, керувати та доступатися до кількох термінальних сесій в одному вікні терміналу, включаючи розділення на панелі (panes), вікна (windows) та сесії (sessions).

Mysti як команда агентів
https://github.com/DeepMyst/Mysti
Розширення для VSCode дозволяє комбінувати будь-які дві різні моделі (спільний контекст) в режимі Brainstorm Mode щоб отримувати більш якісні поради. Вирішує проблему перемикання між платними підписками на різні AI-моделі для отримання альтернативних думок щодо складних архітектурних рішень. Зараз наявна підтримка моделей з Claude, Codex, Gemini & GitHub Copilot CLI.

Обговорення на ХН
https://news.ycombinator.com/item?id=46365105
Спільнота проявляє значний інтерес до ідеї multi-agent collaboration, активно ділиться власними воркфлоу та альтернативними інструментами. Багато учасників експериментують із подібними підходами вручну (наприклад, через Tmux-панелі з кількома CLI-агентами) і вважають, що дебати між моделями допомагають виявляти слабкі ідеї та покращувати рішення, особливо коли одна модель "застрягає".

Щодо Mysti присутня критика залежності від VS Code (багато хто віддає перевагу чистому CLI).