CodeWithLLM-Updates
-
🤖 Інструменти ШІ для програмування: практичні приклади, покрокові інструкції та реальні застосування LLM. Навчіться ефективно працювати з сучасними асистентами програмування.

Cursor візуальний редактор
https://cursor.com/blog/browser-visual-editor
Cursor представив візуальний редактор з функцією «Point and Prompt»: можна просто клікнути на будь-який елемент інтерфейсу та описати текстом, що саме треба змінити. Також дозволяє маніпулювати структурою сайту за допомогою перетягування (drag-and-drop) елементів у дереві DOM, змінюючи порядок кнопок чи налаштування сітки.

https://www.youtube.com/watch?v=1S8S89X-xbs

Бічна панель редактора надає візуальний контроль над властивостями компонентів (props) та стилями: від повзунків для типографіки до палітри кольорів. Оновлення має на меті стерти межу між дизайном та програмуванням, дозволяючи розробникам зосередитися на ідеях, а не на механічній роботі з кодом.

Claude Code плагін
https://code.claude.com/docs/en/plugin-marketplaces
Anthropic запустили plugins marketplace, схоже у відповідь на такий самий у Gemini CLI. Він не є окремим веб‑сайтом з інтерфейсом типу App Store. Це система всередині самого Claude Code, де marketplaces — це каталоги плагінів (часто на базі GitHub‑репозиторіїв), які додаються і керуються через slash‑команди.

https://www.youtube.com/watch?v=1uWJC2r6Sss

Також тепер є підказки варіантів запитів та хоткей для перемикання моделей під час промпту. Підагенти (subagents) можуть працювати паралельно. Додали кращу статистику використання та візуальну стрічку-індикатор заповнення контекстного вікна.

Тепер можна запускати завдання Claude Code прямо з мобільного додатка Claude для Android. Це не повноцінний термінал на телефоні, а асинхронна інтеграція, де Claude працює в хмарі.

Kiro Powers
https://kiro.dev/docs/powers/
Kiro тестує концепцію Powers для моделі яка вирішує проблему засмічення контекстного вікна через динамічну активацію інструментів, система аналізує запит користувача і вмикає лише потрібний "пакет знань". Це дуже схоже на "Skills" у моделях від Anthropic.

Коли до агента підключено багато інструментів (MCP-серверів), він змушений завантажувати сотні описів функцій одночасно. Це "з'їдає" до 40% ліміту ще до початку роботи, що призводить до нерелевантних порад. Нотомість кожен Power — це готовий набір, що містить інструкції (як і коли використовувати інструменти), конфігурацію сервера та автоматизовані сценарії.

Наприклад, якщо ви згадуєте "оплату", активується Power для Stripe, надаючи специфічні знання про API та безпеку. Як тільки ви переходите до роботи з базою даних, інструменти Stripe вимикаються, а замість них завантажується Power для Supabase або Neon. Це дозволяє агенту залишатися швидким, фокусуватися на конкретній темі та видавати код вищої якості.

Система пропонує відкриту екосистему з установкою в один клік для популярних сервісів (AWS, Figma, Stripe тощо).

Mistral Devstral 2 та Vibe
https://mistral.ai/news/devstral-2-vibe-cli
Європейська компанія Mistral AI відома своїми незалежними від США/Китаю LLM. Вони оновили модель для програмування та нарешті випустили свій CLI. Анонси є вкрай важливими для розвитку екосистеми штучного інтелекту з відкритим вихідним кодом у сфері розробки програмного забезпечення.

https://openrouter.ai/mistralai/devstral-2512:free
Нове покоління моделей має назву Devstral 2 (123B) та Devstral Small 2 (24B), випускаються під гнучкими ліцензіями: модифікована MIT для Devstral 2 та Apache 2.0 для Devstral Small 2. Devstral 2 демонструє вражаючі для відкритих моделей 72.2% на бенчмарку SWE-bench.

Версія Small може працювати локально на обладнанні NVIDIA, хоча для старшої моделі (через її щільність, а не MoE архітектуру) знадобиться серйозне залізо на кшталт Mac Studio або декількох GPU 3090/4090.

Поки що Devstral 2 пропонується безкоштовно через API. Модель вже є у Kilo Code та Cline. За відгуками, вона доволі посередня при генерації сайтів, фронтенду та анімації — краще працює з невеликими завданнями локальних скриптів на Python.

https://help.mistral.ai/en/articles/496007-get-started-with-mistral-vibe
Mistral Vibe CLI — це як Claude Code, інструмент командного рядка з відкритим кодом, що працює на Windows, macOS і Linux на базі моделей Devstral. Його також можна запускати в Zed. Є теми інтерфейсу, робота з GIT, підтримка MCP, агенти з кастомними налаштуваннями. Можливий як інтерактивний, так і запуск для самостійної роботи.

https://news.ycombinator.com/item?id=46205437
Коментатори звернули увагу, що “Vibe” звучить так, ніби продукт орієнтований на вайб-кодінг «погралися з агентом і хай він сам щось наклепає», а не на контрольовану роботу професійного програміста. Дехто прямо називає такий меседж “протилежним” тому, що потрібно в реальній роботі: підсилення людини, а не заміна процесу на «чат + інструменти, удачі».

Mintlify autopilot
https://www.mintlify.com/blog/autopilot
ШІ система відстеження змін у репозиторії. На кожен пуш аналізує як треба оновити документацію (як для людей, так й для ШІ). На панелі інструментів autopilot відображаєтся які зміни можуть вимагати змін у документації. Надалі агент Mintlify створює чернетку, яку ви можете доопрацьовувати. Він враховує контекст коду і тон документації.

Code Wiki
https://codewiki.google/
Google створили Code Wiki (public preview) — платформу, покликану вирішити проблему читання та розуміння існуючого коду. Система створює та підтримує структуровану вікі-сторінку для репозиторію, яка безперервно оновлюється.

Ключові особливості: автоматизація, Gemini чат, у відповідях гіперпосилання на файли коду. Система автоматично генерує опис, тому наявні завжди актуальні архітектурні, класові та послідовні діаграми.

Є вейтліст на доступ до версії Code Wiki, яка дозволить командам запускати ту саму систему локально та безпечно для внутрішніх, приватних репозиторіїв.

Qoder Repo Wiki
https://docs.qoder.com/user-guide/repo-wiki
Ця функція IDE Qoder автоматично генерує структуровану документацію для проєкту (максимум 10 000 файлів на проєкт, англійською та китайською мовами) та безперервно відстежує зміни як у коді, так і в самій документації.

Вона аналізує структуру та деталі реалізації проєкту, надаючи контекстні відомості, які дозволяють AI-агентам краще працювати. Генерація Wiki є динамічною.

Також підтримується синхронізація з Git. Генерований вміст зберігається в директорії для кожної вибраної мови (наприклад, repowiki/zh/, repowiki/en/), яку можна комітувати та пушити. Початкова Wiki створюється за один клік (до 120 хвилин для 4000 файлів). Після цього система постійно відстежує зміни в коді; при виявленні модифікацій у документованих файлах можна оновити лише зачеплені розділи.

Спочатку функція працювала тільки з Git-репозиторіями, але з 2 грудня 2025 додали можливіть генерації й для локальних проектів біз git.

DeepWiki (від Cognition AI)
https://deepwiki.com/
Безкоштовний ШІ-інструмент, що генерує "Wikipedia-подібну" документацію для GitHub-репозиторіїв (публічних та приватних). Аналізує код, README та конфіги, створює структуровані сторінки з діаграмами (архітектура, потоки), інтерактивними посиланнями на код та чат-інтерфейсом для запитів (natural language).

Підтримує >30,000 відкритих репозиторіїв, оновлення після комітів. Open-source версія доступна для локального запуску.

Підсумки року стандарту MCP
https://blog.modelcontextprotocol.io/posts/2025-11-25-first-mcp-anniversary/
У блозі розповідається, як за один рік MCP перетворився з невеликого експерименту з відкритим кодом на фактичний стандарт у галузі. Великі компанії, такі як Notion, Stripe, GitHub, OpenAI, Microsoft та Google, створили власні сервери для автоматизації робочих процесів. Для централізованого пошуку та керування цими серверами було запущено Реєстр MCP (MCP Registry), який став єдиним каталогом для всієї екосистеми.

Одночасно з річницею команда випускає нову версію специфікації MCP (листопад 2025 року). Серед ключових нововведень: підтримка робочих процесів на основі завдань (для тривалих операцій), спрощені та безпечніші механізми авторизації, а також система розширень (extensions), яка дозволяє додавати специфічний функціонал, не змінюючи ядро протоколу.

Каталог MCP-контейнерів
https://hub.docker.com/mcp
На сайті розмішена велика бібліотека готових до використання, контейнеризованих MCP-серверів, які створені спільнотою розробників і працюють на технології Docker. Сервери згруповані за категоріями. Мета платформи — спростити використання інструментів MCP.

Проблеми MCP
https://www.youtube.com/watch?v=4h9EQwtKNQ8

Автор стверджує, що хоча MCP — це чудова ідея в теорії, на практиці вона має серйозну проблему, яка робить її неефективною. Ця проблема — погане керування контекстом (context management).

Коли ШІ-агент підключається до MCP-серверів, усі описи доступних інструментів (tool definitions) завантажуються у "контекстне вікно" мовної моделі. Коли агент використовує інструмент, усі результати його роботи (включно з проміжними даними, які можуть бути непотрібними) також надсилаються в контекст.

Це займає величезну кількість токенів. Автор наводить приклад, де лише два підключені сервери займають 20 000 токенів. З кожною ітерацією стає тільки гірше. Цю проблему автор називає "гниттям контексту" (context rot).

Agent Skills як альтернатива
https://platform.claude.com/docs/en/agents-and-tools/agent-skills/overview
https://www.youtube.com/watch?v=fOxC44g8vig

Вихід який був колись запропонований Cloudflare (я описував) це знайшовши потрібний інструмент, агент генерує програмний код (наприклад, TypeScript) для виклику цього API. На цій ідеї сама Anthropic пізніше запропонувала Agent Skills - розбір технології в https://leehanchung.github.io/blogs/2025/10/26/claude-skills-deep-dive/

Opus 4.5 у Claude Code
https://www.anthropic.com/news/claude-opus-4-5
Вслід за Sonnet та Haiku оновилася до 4.5 й найбільша модель від Anthropic. Проблема версії 4 була в її дуже великій ціні на токени - тепер в 3 рази (!) дешевше. Тому значно збільшили загальні ліміти та Opus 4.5 додали в Claude Code як покращений режим планування. Вона здатна до "креативного вирішення проблем" — знаходити нестандартні, але легітимні рішення.

Головне - модель використовує значно менше токенів для досягнення результатів, що робить її швидшою та дешевшою у використанні.

Звісно на їх тестах у програмування та використанні тулзів Opus 4.5 обходить й Gemini 3 Pro й GPT-5.1. В одному з тестів модель впоралася зі складним завданням для інженерів краще, ніж будь-який кандидат-людина. Модель ефективніше керує контекстом, пам'яттю та може координувати роботу кількох "субагентів" для виконання складних завдань.

https://www.youtube.com/watch?v=5O39UDNQ8DY

Claude Code тепер доступний у десктопному додатку (research preview). Можна запускати кілька локальних та віддалених сесій Claude Code паралельно: один агент виправляє помилки, інший досліджує GitHub, третій оновлює документацію. Для паралельної роботи з репозиторіями використовуються git worktrees.

Чекаємо модель у більшості сучасних ШІ-додатків для генерації коду.

https://news.ycombinator.com/item?id=46037637
Декілька користувачів підкреслили, що важлива не стільки ціна за токен, скільки "вартість за успішне завдання". Розумніша модель, як Opus 4.5, робить менше помилок і потребує менше токенів для вирішення проблеми, що в кінцевому підсумку може зробити її дешевшою за "дешевші", але менш розумні моделі.

Clad Labs
https://www.cladlabs.ai/blog/introducing-clad-labs
Якщо Y Combinator дає грощі на це, то ми мабуть вже близько до кінця ШІ-бульбашки (див https://aibubblemonitor.com/). Я не зміг завантажити, бо не пройшов перевірку на код Private Beta Access.

Сайт це схоже спекулятивний дизайн, де наведено анонс середовища розробки (IDE) під назвою Chad IDE від компанії Clad Labs. Стаття написана як типовий анонс технологічного стартапу та містить вигадані (?) позитивні відгуки, вражаючі метрики (наприклад, "заощаджено 2,3 години на день"), а також абсурдний план розвитку, що включає "персоналізовані казино" та "алгоритми для знайомств між розробниками".

Chad IDE пропонує не боротися з відволікаючими факторами, а інтегрувати їх безпосередньо в IDE. Ідея полягає в тому, щоб утримати увагу розробника всередині робочого середовища, навіть під час очікування. Інтеграція з онлайн-казино Stake.us, щоб робити ставки під час компіляції коду, а також вбудовані міні-ігри. Можливість дивитися YouTube Shorts, Instagram Reels та TikTok прямо у вікні редактора коду. Інтеграція з Tinder, щоб свайпати профілі, поки генерується код.

https://www.youtube.com/watch?v=1uR4QPtXF4Y

Щоб пояснити рішення Y Combinator, автор відео заглиблюється в їхню інвестиційну філософію. Він наголошує, що YC робить ставку не на готові ідеї, а на засновників, і свідомо робить безліч ризикованих інвестицій. Багато їхніх найуспішніших компаній, як-от Twitch чи DoorDash, на початковому етапі здавалися абсурдними або навіть провальними. YC розуміє, що найкращі ідеї часто маскуються під дивні або незрозумілі, тому вони готові ризикувати з командами, які демонструють потенціал, навіть якщо їхній поточний продукт виглядає як жарт.

Майже всі великі ШІ-кодінг проекти додали вже модель Gemini 3 Pro. Сам Antigravity часто видає помилки зв'язку та працює дуже повільно.

GPT 5.1 Codex
https://openai.com/index/gpt-5-1-codex-max/
Після оновлення звичайної моделі до GPT 5.1 також оновили й її Codex варіант. Щоб відповісти Гуглу ще анонсували GPT‑5.1-Codex-Max. Все звісно стало ще краще. А працювати зможе ще довше.

Технологія "ущільнення" (compaction) дозволяє моделі працювати з мільйонами токенів, не втрачаючи важливої інформації. На практиці це відкриває можливості для рефакторингу цілих проєктів та автономної роботи протягом багатьох годин поспіль.

Модель вже доступна в інструменті Codex, а доступ через API з'явиться незабаром.

https://news.ycombinator.com/item?id=45982649
В обговоренні люди діляться історіями успіху. Наприклад, один розробник розповів, як Codex за 45 хвилин повністю переписав ключові частини його хобі-проєкту (авіасимулятора), виконавши складний рефакторинг, на який у людини пішло б набагато більше часу.

Також користувачі порівнюють новинку з Google Gemini і, хоча відзначають певні переваги останнього, більшість сходиться на думці, що для генерації коду Codex поки що дає стабільно кращі результати, рідше «галюцинує» і краще інтегрується в існуючий код.

Цікава розмова про «народну магію» промпт-інжинірингу: люди додають у свої інструкції спеціальні «слова-канарки» (наприклад, просять модель завжди звертатися до них «Містер Тінклберрі»), щоб перевірити, чи ШІ все ще уважно слідує початковим вказівкам у довгих сесіях.

Antigravity IDE
https://antigravity.google
Google анонсували свою відповідь на Cursor - клон VSCode (точніше Windsurf який вони купили у липні 2025 за $2.4 billion) під назвою Antigravity. До цього у них вже була IDE - тілки онлайн, яку випустили як Firebase Studio. Як кажуть маркетологи головна мета інструменту — допомогти розробникам «досягти злету», тобто значно прискорити та спростити розробку.

Під це створили ютуб-канал: https://www.youtube.com/@googleantigravity.

В цілому це такий собі клон VSC як й всі інші, додали до нього взаємодію Chrome. У панелі чату наразі до списку підтримуваних моделей входять: Gemini 3 Pro (у версіях High та Low), Claude Sonnet 4.5 (включно з версією Thinking для складних міркувань) та GPT-OSS 120B (Medium). Є два режими як то у Kiro - з планування та без нього.

Як фішку просувають Agent Manager (Менеджер Агентів) - вікно моніторингу активності агентів та які завдання виконують. Можна керувати їхньою роботою - бачимо ключові «артефакти» (створені файли, частини коду, результати API-запитів) та результати перевірок. Агент працює не на рівні VSC, а на рівні системи - це дозволяє виконувати складні, довготривалі завдання (наприклад, моніторити сайт, збирати дані, а потім генерувати звіт)

Gemini 3 Pro
https://blog.google/products/gemini/gemini-3/
Офіційно представлено й нову мультімодальну агентну модель серії Gemini, це буде лінійка 3. Pro — це повсякденна, повнофункціональна версія, доступна відразу в додатках, Пошуку та інструментах для розробників. Deep Think — це режим «покращеного міркування» з додатковою потужністю, який зараз тестується і призначений для тих, хто заплатив за Google AI Ultra.

Яка модель хороша можна почитати тут https://blog.google/technology/developers/gemini-3-developers/

Чому LLM не можуть по-справжньому створювати софт
https://news.ycombinator.com/item?id=44900116
Більш ніж 500 коментарів. Центральна ідея: LLM не мають абстрактну "ментальної моделі" як створювати щось — вони працюють лише з текстом. Вони не "розуміють" код, а лише імітують його написання. Багато коментаторів наголошують, що найцінніша частина їхньої роботи — це те, що відбувається до написання коду. 95% роботи це виявити неочевидні залежності, приховані вимоги або потенційні проблеми на перетині бізнес-логіки та технологій.

Учасники дискусії погоджуються, що LLM можуть бути корисними, але лише як інструмент в руках досвідченого фахівця, бо головна відповідальність та контроль завжди залишаються за людиною. На відміну від традиційних інструментів, LLM є недетермінованими, це робить їх ненадійними для складних завдань. Часто виправлення помилок в таких проектах займає більше часу, ніж написання коду власноруч.

AI Coding відстій
https://www.youtube.com/watch?v=0ZUkQF6boNg
Вже доволі відоме відео, де розробник з Coding Garden лається на те, в що перетворилося програмування. В результаті свого розчарування він вирішив взяти місячну перерву від усіх інструментів ШІ, щоб знову відчути радість від своєї роботи.

Ключова причина його невдоволення полягає в фундаментальній різниці між програмуванням і роботою зі ШІ. Програмування це логічна, передбачувана і пізнавана система, де однакові дії завжди призводять до однакового результату. Натомість ШІ є непередбачуваним.

Раніше він отримував задоволення від програмування завдяки відчуттю досягнення після вирішення складної проблеми чи виправлення помилки, "ого як я можу". Тепер його робота перетворилася на постійну суперечку з мовними моделями (LLM), які часто генерують не те що потрібно.

Той самий запит до моделі може щоразу давати різну відповідь. Ця відсутність стабільності робить неможливим створення надійних робочих процесів і суперечить самій природі програмування. Це позбавляє радості від процесу, замінюючи її роздратуванням.

Перелічує численні передові методи, які намагався застосувати, щоб зробити ШІ більш керованим: створення детальних файлів з інструкціями, покрокове планування завдань, використання агентів і примушування ШІ писати тести для самоперевірки. Але моделі все одно ігнорують правила, обходять проблеми (наприклад, прибираючи тести, що не проходять) і не забезпечують надійного результату.

Наприкінці автор спростовує тезу про те, що розробники, які не використовують ШІ, "відстають", адже освоїти ці інструменти можна швидко, а фундаментальні навички є важливішими й отримуются повільно з досвіду.

Він радить новачкам навчитися програмувати без ШІ.

https://www.youtube.com/watch?v=0ZUkQF6boNg

Коментарі під відео демонструють згоду з автором. Багато розробників відчули полегшення, побачивши, що їхнє розчарування є масовим явищем, а не особистою проблемою. Розробники порівнюють роботу зі ШІ з управлінням надмірно самовпевненим, але некомпетентним молодшим спеціалістом. Такий "помічник" запевняє, що все зрозумів, але насправді не слухає й робить що хоче. Виправлені помилки з'являються знову, інструмент ігнорує задані правила, а на його код неможливо покластися.

Багато коментаторів висловлюють занепокоєння, що початківці, які покладаються на ШІ, ніколи не навчаться програмувати по-справжньому. Це порівнюють із бездумним копіюванням коду зі Stack Overflow, але в гіршому масштабі. Новачки не розвивають фундаментальні навички вирішення проблем, що в довгостроковій перспективі робить їх слабшими фахівцями.

DPAI Arena
https://dpaia.dev/ https://github.com/dpaia
JetBrains представили Developer Productivity AI Arena (DPAI Arena) — ще одну "першу" відкриту платформу, яка оцінює ефективність ШІ агентів у створенні коду. Щоб забезпечити нейтральність та незалежність, JetBrains планує передати проєкт під управління фонду Linux Foundation.

Компанія вважає, що наявні методи тестування застаріли та оцінюють лише мовні моделі, а не повноцінні ШІ-агенти (хоча ж є https://www.swebench.com/). Платформа має на меті створити єдину, довірену екосистему для всієї індустрії. Зараз на сайті є тести тільки декількох CLI, Codex обходить Claude Code.

Ключовою особливістю DPAI Arena є її "багатотрекова" архітектура, яка імітує реальні завдання розробників. Замість одного тесту на виправлення помилок, платформа включає окремі треки для аналізу pull-request'ів, написання юніт-тестів, оновлення залежностей та перевірки відповідності стандартам кодування.

Athas Редактор коду
https://athas.dev/
З кінця травня 2025 року триває розробка легкого, безкоштовного та з відкритим кодом редактору коду. Це не форк VSC, а новий проєкт "з нуля" на Tauri одразу для всіх трьох платформ (Win-Linux-Mac), а не як Zed.

Поки що рання стадія, але якщо все піде за планом (roadmap), може виявитися дуже цікаво. Ідея "Vim-first, AI-enhanced, Git-integrated". Зараз реалізовано інтеграцію з Git, далі буде режим Vim. Заплановано вбудований ШІ-агент. Планується зробити на 100% кастомізованим, з підтримкою тем, мовних серверів та плагінів.

Інтерв'ю з 23-річним розробником з Туреччини на ім'я Мехмед
https://www.youtube.com/watch?v=Aq-VW3Ugtpo

Головна мета — створити єдине, мінімалістичне та швидке середовище для розробників, яке об'єднує інструменти, що зазвичай вимагають запуску кількох окремих програм. Вже реалізовано базовий функціонал Git та функціонал для перегляду вмісту баз даних SQLite.

Athas не просто має власний ШІ-чат, а інтегрується з існуючими CLI, такими як claude-code, тобто "перехоплює" виклик ШІ-асистента з вбудованого терміналу і відображає відповідь у зручному графічному інтерфейсі. Це дозволяє використовувати звичні інструменти безпосередньо в редакторі, не відкриваючи окремий термінал.

https://github.com/athasdev/athas/blob/master/CONTRIBUTING.md
Через github можна приєднатися до проєкту та вплинути на його майбутнє.

Cerebras GLM 4.6
https://inference-docs.cerebras.ai/support/change-log
Cerebras оголосив про заміну моделі Qwen3 Coder 480B на нову GLM 4.6, це стосується й підписки Cerebras Code ($50 чи $ 200/місяц). Модель підходить для швидких ітерацій UI та рефакторингу.

  • GLM 4.6 працює на швидкості 1000 токенів/секунду - це швидко, але вже ж приблизно вдвічі повільніша за Qwen3 Coder
  • Якість коду наближається до Claude Sonnet 4.5, що робить її конкурентоспроможною, але на складних завдання легко плутається
  • Менше помилок у викликах інструментів порівняно з Qwen3, але іноді переключається на китайську мову або обривається

https://news.ycombinator.com/item?id=45852751
В обговорені пришли до думки, що заміна має сенс для Cerebras (GLM 4.6 - відкрита модель з чіткою дорожньою картою), але для користувачів це крок вбік, а не вперед. Qwen3 був кращим вибором для багатьох завдань.

Claude Code Resources
https://github.com/jmckinley/claude-code-resources
jmckinley зібрав у себе в репозиторію різні гайди як краще задавати контекст для Cluade Code.

З його точки зору, Що насправді має значення:

  • CLAUDE.md - AI-контекст вашого проекту (найважливіше!)
  • Управління контекстом - Зберігайте розмови зосередженими (<80%)
  • Планування першочергове - Думайте перед генерацією коду
  • Безпека Git - Фіч-гілки + контрольні точки

Э приклади налаштувань агентів: тести, безпека, так ревью коду.

MiniMax M2 та Agent
https://www.minimax.io/news/minimax-m2
MiniMax представила нову модель M2 та продукт на її основі — MiniMax Agent. Модель створена спеціально для кодінг агентів: вміє планувати кроки та використовувати інструменти (браузер, інтерпретатор коду тощо). Має 229 мільярдів параметрів, з яких 10 мільярдів є активними, та контекстне вікно у 200 тисяч токенів.

Головна ідея це знайти баланс між високою продуктивністю, низькою ціною та високою швидкістю. Модель є повністю відкритою.

https://www.youtube.com/watch?v=dHg6VrDjuMQ

Окрім офіційної інформації, практичні тести та огляди підтверджують, що MiniMax M2 є надзвичайно потужною моделлю, однією з найкращих відкритих моделей для програмування на сьогодні. Модель успішно впоралася зі створенням симуляції операційної системи з робочими додатками, такими як Paint і термінал, та згенерувала креативні вебсайти з унікальним стилем та інтерактивними елементами.

Водночас M2 продемонструвала наявність етичних обмежень, відмовившись створювати сайт на шахрайську тематику, і не змогла впоратися з надскладним завданням, як-от симулятор збірки ПК, що вказує на її поточні межі.

https://agent.minimax.io/
MiniMax Agent онлайн має два режими: Lightning Mode (Блискавичний режим): Для швидких та простих завдань (відповіді на питання, легке кодування). Pro Mode (Професійний режим): Для складних і тривалих завдань (глибокі дослідження, розробка ПЗ, створення звітів). Зайти можна тільки через Google. Є інтеграція з Supabase та каталог MCP. Є застосунки для iOS та Andriod.

Pro Mode тимчасово безкоштовний, API також тимчасово безкоштовний (до 7 листопада). Я не знайшов на сайті нічого про контроль приватності коду.

https://platform.minimax.io/subscribe/coding-plan
Підписка на місяць на модель MiniMax M2, є три варіанти з обмеженнями кожні 5 годин - 100/300/1000 запитів. Найдешевша коштує 10 доларів, що можна порівняти з Github Copilot. Рекомендують використовувати Claude Code. Також підтримують Cursor, Trae, Cline, Kilo Code, Roo Code, Grok CLI, Codex CLI, Droid, OpenCode.

Github Universe 25
https://github.com/events/universe/recap
https://github.blog/news-insights/company-news/welcome-home-agents/
Анонсували Agent HQ - майбутня відкрита платформа дозволить розробникам керувати, відстежувати та налаштовувати будь-яких ШІ-агентів (від OpenAI, Google, Anthropic та інших) в одному місці. Mission Control це уніфікований інтерфейс у GitHub, Mobile, CLI та VS Code для керування роботою агентів.

GitHub Copilot отримав оновлення інтеграції в робочі процеси. Тепер йому можна доручати завдання з Slack, Microsoft Teams та інших інструментів - використовуватиме контекст обговорень для виконання роботи.

https://github.blog/changelog/2025-10-28-custom-agents-for-github-copilot/
https://github.blog/changelog/2025-10-28-github-copilot-cli-use-custom-agents-and-delegate-to-copilot-coding-agent/
Користувацькі агенти через Markdown файл конфігурації у папці .github/agents вашого репозиторію. Можна визначити "персону": прописати інструкції, інструменти, MCP. Викликати своїх налаштованих агентів можна з Copilot CLI за допомогою команди /agent.

https://github.blog/changelog/2025-10-28-new-public-preview-features-in-copilot-code-review-ai-reviews-that-see-the-full-picture/
Також представлено "агентний" огляд коду, де Copilot у поєднанні з CodeQL автоматично знаходить і виправляє вразливості безпеки. Для команд GitHub Code Quality — це нова функція для аналізу якості, надійності та підтримуваності коду в масштабах усієї організації.

Для VS Code анонсовано новий Plan Mode, який дозволяє створювати покроковий план реалізації завдання перед написанням коду. Нарешті є підтримка стандарту задання контексту AGENTS.md.

Cursor 2.0
https://cursor.com/changelog/2-0
https://cursor.com/blog/composer
Значне оновлення одного з головних ШІ кодінг інструментів. Cursor вирішили відповісти Windsurf (до речі вони оновили й свою модель SWE до 1.5) та теж створили свою власну модель спеціально для розробки ПЗ. Назвали "Composer" та говорять, що в 4 рази швидшою за аналогічні за інтелектом моделі, але я думаю це просто щоб менше платити зовнішнім провайдерам.

Головною новинкою є можливість запускати до восьми агентів одночасно (Multi-Agents) та новий інтерфейс для керування цими агентами. Кожен працює в ізольованій копії коду, що запобігає конфліктам. З'явився голосовий режим для керування агентом.

https://www.youtube.com/watch?v=Q7NXyjIW88E

Функції браузера та ізольованих терміналів (пісочниць) вийшли з бета-версії. Enterprise-клієнти отримали розширений контроль над безпекою, включаючи налаштування ізольованих терміналів та журнал аудиту для відстеження дій адміністраторів.

https://news.ycombinator.com/item?id=45748725
Реакція спільноти змішана, але дуже активна, з чітким поділом на прихильників та скептиків. Прихильники підкреслюють, що загальний досвід роботи ("flow") є неперевершеним, оскільки він дозволяє не відволікатися і залишатися в потоці розробки та називають Cursor єдиним ШІ-агентом, який відчувається як серйозний продукт, а не прототип. Нову модель Composer хвалять за її надзвичайну швидкість.

Деякі скаржаться на те, що запити "зависають" або програма аварійно завершує роботу, особливо на Windows. Кілька коментаторів зазначили, що саме через проблеми з надійністю вони перейшли на Claude Code, який виявився "швидшим і на 100% надійним".

Також є скепсис щодо непрозорості: компанію критикують за розмиті графіки без конкретних назв моделей та за використання внутрішнього, закритого бенчмарку (Cursor Bench) для оцінки продуктивності. Багато хто хоче знати, яка саме модель лежить в основі Composer (чи це файн-тюн відкритої моделі), але розробники ухиляються від прямої відповіді.