CodeWithLLM-Updates
-

https://hub.continue.dev/

Творці чат-плагіна Continue для VS Code та JetBrains додали на своєму сайті розділ, який виглядає як каталог асистентів для програмування.

Це гарна ідея, адже після роботи в тому ж Cursor асистент починає накопичувати системні інструкції, повторення команд, налаштування MCP серверів та додатково проіндексованими документами, було б круто мати "зліпки" таких налаштувань. Зараз в мережі почали з'являтися каталоги системних інструкцій та каталоги MCP.

На прикладі https://hub.continue.dev/continuedev/clean-code можна побачити, що це пакети налаштувань для чату, які складаються з таких блоків:

  • Models (Моделі): Блоки для визначення моделей для різних ролей, таких як чат, автозавершення, редагування, ембедер та реранкер.
  • Rules (Правила): Блоки правил - це системні інструкції, вміст правил вставляється на початку для всіх запитів чату.
  • Docs (Документи): Блоки, що вказують на сайти документації, які будуть індексуватися локально, а потім на них можна посилатися як на контекст за допомогою @Docs у чаті.
  • Prompts (Підказки): Блоки підказок - це заздалегідь написані швидкі команди, багаторазові підказки, на які можна посилатися в будь-який час під час чату.
  • Context (Контекст): Блоки, що визначають провайдера контексту, на який можна посилатися в чаті з @, щоб отримати дані з зовнішніх джерел, таких як файли, папки, URL-адреси, Jira, Confluence, Github.
  • Data (Дані): Плагін автоматично збирає дані про те, як ви створюєте код. За замовчуванням, ці дані зберігаються в .continue/dev_data на локальному комп'ютері. Можна налаштувати власні місця призначення, включаючи віддалені HTTP та локальні каталоги файлів.
  • MCP Servers (Сервери MCP)

Проблема з цим в тому, що працює воно як софт 5 років тому, треба самому все клацати і лазити по сайту-каталогу. Було б гарно, якщо б сам ШІ чат пропонував свої налаштування з доступних блоків, а не я їх дивитися та вибирав.

https://www.cursor.com/changelog/chat-tabs-custom-modes-sound-notification

Cursor 0.48.x

Радість. Як я писав вже у гілці 0.46 і після в 0.47 було зроблено неприємне інтерфейсне рішення все запхнути в один таб-чат та це було дуже незручно, після того як я вже звик до двох. Нарешті все поправили і тепер можна ще більше: через "+" відкривати скільки завгодно табів і в них включати які завгодно режими.

На кожен режим (агент, питання, ручний - раніше "Edit" з "Ask" плуталось і так перейменували) тепер можна задати свій хоткей і зафіксувати модель.

В налаштування можна включити можливість створювати додаткові режими (custom modes) з вибором моделі, хоткею, купи налаштувань, MCP і навіть кастомної інструкції. Дуже гарна відповідь плагіну Roo Code!

Так само тепер якщо в чаті контекст-вікно починає обрізати початок розмови, про це буде дрібним шрифтом написано знизу.

Поки що у списку немає нових моделей deepseek-v3.1 та gemini-2.5-pro, але думаю скоро з'являться.

https://www.zbeegnew.dev/tech/build_your_own_ai_coding_assistant_a_cost-effective_alternative_to_cursor/

У статті зображено, як створити економічно вигідну альтернативу AI асистентам, таким як Cursor, використовуючи $20/місяць Claude Pro та Model Context Protocol (MCP).

Код https://github.com/ZbigniewTomanek/my-mcp-server

Автор, Збігнєв Томанек, ділиться своїм досвідом використання Claude з MCP для автоматизації складного завдання впровадження Kerberos аутентифікації для кластера Hadoop, скоротивши обсяг роботи з цілого дня до кількох хвилин.

Основні моменти:

  1. Проблема: AI інструменти, такі як Cursor, є дорогими та викликають у нього занепокоєння щодо конфіденційності.

  2. Рішення: Використовуйте Claude Pro (20 доларів США на місяць) із власноруч створеним MCP сервером, щоб досягти аналогічної функціональності без додаткових витрат і з більшим контролем над даними.

  3. Пояснення MCP: MCP - це відкритий протокол, який дозволяє програмам надавати контекст великим мовним моделям (LLM). Автор використовує Python SDK для створення простого MCP сервера (код на гітхаб).

  4. Приклад Kerberos: Автор детально описує, як Claude, використовуючи інструменти MCP, проаналізував файли проєкту, створив вичерпний план, згенерував файли конфігурації та виправив помилки для впровадження Kerberos.

  5. Економія коштів: Використання Claude Pro + MCP заощаджує гроші порівняно зі спеціалізованими AI інструментами для кодування.

  6. Конфіденційність даних: Код і дані залишаються на машині користувача, підвищуючи конфіденційність.

  7. Інструменти MCP: Сервер MCP автора включає інструменти для операцій з файловою системою, виконання команд оболонки, пошуку за регулярними виразами та редагування файлів.

  8. Цикл самовдосконалення: Claude може аналізувати та вдосконалювати власні інструменти, що веде до AI-оптимізованих інтерфейсів та налаштованих інструментів.

  9. Переваги власного MCP: MCP + Claude Pro пропонує економічну ефективність, контроль даних, налаштування, самовдосконалення та автоматизацію складних завдань.

https://appgen.groqlabs.com/

Ще один експериментальний проект, який дає змогу створювати невеликі програми (як пишуть мікрододатки, micro-app) за допомогою текстоового опису. Він інтегрований із платформою Groq (не плутати з Grok Елона Маска)

LPU™ Inference Engine від Groq — це апаратно-програмна платформа, яка забезпечує дуже велику швидкість обчислень, якість та енергоефективність. На ньому розгорнуті відкриті моделі середнього розміру, такі як llama3, gemma2, deepseek-r1-distill, mixtral, qwen.

Зазвичай контекстне вікно невелике, а в безкоштовному варіанті обмеження — 6 тисяч токенів на хвилину, тобто великі кодові бази він справді не зможе охопити.

Код відкритий: https://github.com/groq/groq-appgen - можна розгорнути на своєму комп'ютері, сегенерувавши АПІ ключ у консолі розробника.

Дуже цікавою фішкою Appgen є можливість натиснути на кнопку у вигляді олівця та намалювати мишкою ескіз того, як має виглядати інтерфейс.

https://appgen.groqlabs.com/gallery
При бажанні можна расширати свій "твір" у галерею, чи подивитися роботи інших.

За замовчуванням зараз стоїть модель qwen-2.5-coder-32b, але можна перемкнути на deepseek-r1-distill-llama-70b-specdec.
Загалом я не бачу в цьому якоїсь цінності, окрім можливості порівняти підходи до генерації коду у доступних моделей.

Покращення інтерфейсу вебчат-платформ

https://gemini.google.com/
Компанія Google нарешті додала до свого чату зі штучним інтелектом Gemini функцію Canvas. Gemini Canvas може генерувати код HTML, CSS та JavaScript безпосередньо в інтерфейсі. Підтримується допомога у створенні скриптів на Python, веб-додатків та ігор. Можливість відкрити код Python у Google Colab для виконання.

Усі оновлення презентовані у відео
https://www.youtube.com/watch?v=Yk-Ju-fqPP4

https://claude.ai/chats
Першими з’явилися Anthropic Claude Artifacts (середина 2024 року, загальнодоступні з серпня). Це результати, які генеруються під час чату з Claude та відображаються в окремому вікні поруч із основним діалогом. Для коду з’явилася можливість «Попереднього перегляду». Підтримується рендеринг коду React, HTML та JavaScript. Доступні такі бібліотеки, як Lodash і Papa Parse.

https://chatgpt.com/
У жовтні 2024 року OpenAI відповіли на це, додавши функцію Canvas до ChatGPT. Стало можливо виділяти певні ділянки коду для цілеспрямованого редагування або отримання пояснень. Передбачені гарячі клавіші для роботи з кодом, такі як перевірка коду, додавання журналів/коментарів, виправлення помилок і переклад на інші мови. Функція історії версій дозволяє переглядати та відновлювати попередні стани коду. Також з’явилася можливість безпосередньо виконувати код Python у браузері за допомогою кнопки «Виконати». Підтримується рендеринг коду React та HTML.

Мені дуже сподобались можливості Artifacts швидко генерувати невеликий код, але Canvas у ChatGPT постійно помилявся, глючив і втрачав контекст, тому я швидко перестав ним користуватися.

https://chat.mistral.ai/chat
Le Chat Canvas з'явився на початку 2025 року як інтерфейс для спільної роботи з LLM Mistral. Підтримує рендеринг коду React та HTML. Користувачі можуть виділяти код для отримання пояснень або внесення змін.

У Gemini Canvas також є вікно для inline-запитів щодо виділеного блоку.

❌ Поки що не мають функції Canvas/Artifacts чати Grok та DeepSeek.

Якщо вам цікаво, як працюють запити до LLM-моделей у популярних системах для програмування (та не тільки), можна зайти на GitHub до одного з багатьох репозиторіїв "витіклих" промтів як то leaked-system-prompts і почитати їх.

Там є Cursor Windsurf bolt.new github copilot v0.dev та інші.

https://www.youtube.com/watch?v=6g2r2BIj7bw

Також існує група кастомних промтів, які можуть змінювати поведінку, наприклад, Cursor/Windsurf як Devin — це скоріше рішення для експериментів з цікавості, ніж для роботи.

https://base44.com/

Base44 - одна з нових ШІ-платформ створення веб-застосунків "без коду" (no-code). Пропонує широкий спектр можливостей для розробки, включаючи роботу з базами даних, інтеграціями та логікою застосунку. Код можна переглядати, але можливість його редагування доступна лише в платній версії (від $20/місяць).

https://www.youtube.com/watch?v=jKanknpPDI4

Створення застосунків на Base44 відбувається дуже швидко. Можна завантажувати свої данні - створити з таблиці CSV. Дозволяє не турбуватися про аутентифікацію, відправку пошти, інтеграцію з API та інші складні аспекти. Нещодавно додали інтеграцію з платіжною системою Stripe в-один-клік.

Є можливість використовувати власні домени та створювати публічні застосунки без необхідності входу в систему.  Вбудовані інструменти аналітики дозволяють відстежувати використання та зростання користувачів

Якщо Lovable краще працює як інструмент для створення лендінгів, то Base44, позиціонується як платформа для створення повноцінних застосунків.

https://github.com/przeprogramowani/ai-rules-builder

Онлайн генератор текстових промтів-описів проекту для ШІ систем Copilot, Cursor, Windsurf, Aider, Junie.

Хоча інтерфейс дуже незручний, адже потрібно багато клацати туди-сюди, це вже перший крок до кастомізації, а не просто до каталогів, як було раніше.


Якщо почитати доки, що пишуть самі творці таких програм, вони рекомендують тримати цей файл якомога меншого розміру. Швидше за все, мову програмування проекту ШІ сам може визначити :)

Приклад від aider тут.

Гарне просте правило: додавати туди "патч", якщо ШІ кілька разів вас не розуміє і робить не те. Можна додавати навіть просто з чату, наприклад у Cursor "будь ласка, напиши мені cursorrule, щоб ти припинив робити {цю конкретну річ}".

Це може в результаті виглядати приблизно так:

DO NOT GIVE ME HIGH LEVEL SHIT, IF I ASK FOR FIX OR EXPLANATION, I WANT ACTUAL CODE OR EXPLANATION! I DON'T WANT "Here's how you can blablabla"
- Be casual unless otherwise specified
- Be terse
- Suggest solutions that I didn't think about-anticipate my needs
- Treat me as an expert
- Be accurate and thorough
- Give the answer immediately. Provide detailed explanations and restate my query in your own words if necessary after giving the answer
- Value good arguments over authorities, the source is irrelevant
- Consider new technologies and contrarian ideas, not just the conventional wisdom
- You may use high levels of speculation or prediction, just flag it for me
- No moral lectures
- Discuss safety only when it's crucial and non-obvious
- If your content policy is an issue, provide the closest acceptable response and explain the content policy issue afterward
- Cite sources whenever possible at the end, not inline
- No need to mention your knowledge cutoff
- No need to disclose you're an AI
- Please respect my formatting preferences when you provide code.
- Please respect all code comments, they're usually there for a reason. Remove them ONLY if they're completely irrelevant after a code change. if unsure, do not remove the comment.
- Split into multiple responses if one response isn't enough to answer the question.
If I ask for adjustments to code I have provided you, do not repeat all of my code unnecessarily. Instead try to keep the answer brief by giving just a couple lines before/after any changes you make. Multiple code blocks are ok.

https://xata.io/chatgpt

Xata пропонує гнучко налаштовувану інтеграцію з OpenAI API векторних представленнь (embeddings) даних, що дозволяє робити семантичний пошук та ставити запитання вашій базі даних природною мовою.

https://github.com/xataio/agent

Xata Agent — це агент з відкритим кодом, який моніторить Postgres базу даних, знаходить причини проблем, а також пропонує виправлення та покращення. Наявна підтримка моделей від OpenAI, Anthropic та Deepseek, виправлення проблем з продуктивністю та пропозиції щодо індексування.

https://www.youtube.com/watch?v=SLVRdihoRwI

Команда також працює над хмарною версією. Є список очікування за посиланням.

https://wisprflow.ai/

Нарешті вийшла Windows-версія Wispr Flow — програми для голосового введення тексту в будь-яке поле на екрані.

Звісно, це не прямо пов’язано з програмуванням, але для вайб-кодінгу саме вона стала тим інструментом, через який ми пояснюємо ШІ у Cursor, хто тут програміст, а хто навіть кілька рядків коду нормально написати не може.

Безкоштовно 2,000 слів на тиждень. За інше $15/місяць.

Оновлення автокодерів

Cline v3.6.10

Головне, що з версії 3.6 додали Cline API як опцію постачальника, що дозволяє новим користувачам зареєструватися та почати користуватися Cline безкоштовно (мені подарували $0.5) без API ключів.

Зробили окремий сайт https://cline.bot/ де можна створити акаунт (лише через Google або GitHub) і поповнювати його грошима. Кредити, придбані за допомогою кредитної картки, передбачають загальну комісію у розмірі 5% + $0.35 + податок.

На сайті є блог, де розповідають про досвід використання. Також всі MCP плагіни тепер можна подивитися на https://cline.bot/mcp-marketplace.

Додали налаштування для вимкнення зміни моделі у режимах Планування/Дія (для нових користувачів за замовчуванням вимкнено). Мені подобається, коли є можливість налаштувати різні моделі для різних режимів. Тепер, якщо поставити галочку, з’являться дві вкладки з повною настройкою різних моделей, включаючи власну кастомну інструкцію.

Додали у документацію приклад інструкції Cline Memory Bank.

Для тих, хто хоче допомогти покращати продукт додали можливість включити телеметрію, але добре що за замовчування вимкнена.


Roo Code v3.8.4

Приємно, що є конкуренція.

Roo йде іншим шляхом, тут немає каталогу MCP, зате добре розширили функціонал створення різних режимів з кастомними системними інструкціями. Додали підтримку файлів .rooignore. Краще пророблені контрольні точки, режим декількох вікон та комунікація між підзавданнями та основним завданням.

До цікавого режиму The VS Code Language Model API, який дозволяє запускати моделі, надані іншими розширеннями VS Code (включаючи, але не обмежуючись, GitHub Copilot) додали ще "Human Relay" як постачальника.

Тобто плагін нам видає текст запита, ми як людина робимо релей: копіюємо-вставляємо на сайт у чат, потім вставляємо в вікно відповідь. Наразі це єдиний спосіб використовувати Grok 3. Звичайно, було б добре, якби це робив якийсь агент на рівні операційної системи, але що є, те є.

Для тих, хто хоче допомогти покращати продукт додали можливість включити телеметрію, питає чи включити при першому запуску.

Cursor, ШІ редактор коду, був зроблений на початку 2023 року чотирма випускниками MIT, які поділяли бачення трансформації програмування.

Засновники

Майкл Труелл, Суалех Асіф, Арвід Луннемарк та Аман Сангер об'єднали свій досвід у математиці, машинному навчанні та розробці програмного забезпечення для створення інструменту, який значно підвищує продуктивність розробників.

Привнесли різноманітний, але взаємодоповнюючий досвід у Cursor:

  • Майкл Труелл: Колишній представник США на Міжнародній математичній олімпіаді (2016-2017), досвід Майкла в статистичних математичних дослідженнях та системах рекомендацій на основі LLM заклав міцну основу для можливостей штучного інтелекту Cursor. Його онлайн-присутність включає:

  • Суалех Асіф: З досвідом представлення Пакистану на IMO (2016-2018) та фоном у машинному навчанні, теорії чисел та інженерії продуктивності, Суалех зробив цінний технічний внесок у проект. Його онлайн-присутність включає:

  • Арвід Луннемарк: Його стажування з Quantitative Trading в Jane Street посилило алгоритмічну експертизу команди, що було вирішальним для розробки інтелектуальних функцій Cursor. Його онлайн-присутність включає:

  • Аман Сангер: Попередні стажування в You.com та Bridgewater Associates, а також дослідження в галузі машинного навчання, штучного інтелекту та обробки природної мови в MIT, безпосередньо вплинули на розробку Cursor. Його онлайн-присутність включає:

Фінансова траєкторія

https://anysphere.inc/

Компанія, що стоїть за Cursor, Anysphere (заснована у січні 2022 року у Буффало, штат Нью-Йорк), продемонструвала вражаюче зростання:

  • Початкове фінансування у розмірі 11 мільйонів доларів, включаючи 8 мільйонів від Startup Fund OpenAI
  • Раунд Series A на 60 мільйонів доларів у серпні 2024 року під керівництвом Andreessen Horowitz
  • Раунд Series B на 105 мільйонів доларів у грудні 2024 року під керівництвом Thrive Capital та Andreessen Horowitz, що оцінило компанію в 2,5 мільярда доларів

Ця швидка фінансова прогресія підкреслює впевненість ринку в потенціалі Cursor трансформувати практики написання коду через інтеграцію штучного інтелекту.

https://github.com/mannaandpoem/OpenManus

Інженери, які роблять мульти-агентній фреймворк https://github.com/geekan/MetaGPT та сервіс ШІ кодінгу для розробників MetaGPT X запустили OpenManus.

OpenManus — це проект з відкритим кодом на Python, створений для відтворення можливостей китайського Manus AI, хайпового універсального штучного інтелекту (наразі доступного тільки по інвайтам), відомого своєю здатністю автономно виконувати складні завдання. В тому числі й програмування.

Зараз, а може й зовсім, в порівняні з Manus немає GUI - треба все робити через термінал, тобто більш схоже на Cluade Code. "Покращити візуальну привабливість інтерфейсу для більш інтуїтивного та зручного досвіду користувача" є у планах.

https://www.youtube.com/watch?v=H1rWVvsjtTQ

OpenManus Manus AI
Безкоштовний, відкритий код Платні підписки
Можна дописувати код Обмежені функціями постачальника
Активні учасники спільноти (зараз відкрито 242 issue у репозиторії) Оновлення контролюються постачальником
Ідеально для розробників та ентузіастів Орієнтований на корпоративних користувачів

Особливості:

  • Спільна робота AI-агентів для вирішення складних завдань.
  • Легко розширюється за рахунок нових агентів, інструментів або функцій.
  • Інтегрується з іншими інструментами та сервісами.
  • Безкоштовний для використання, плата тільки за токени LLM провайдеру (наприклад, OpenAI).

https://help.openai.com/en/articles/10119604-work-with-apps-on-macos

Оновлення ChatGPT під Mac

Одна ШІ програма керує іншою ШІ програмою для написання коду - тепер у кого Mac OS можна не самому писати в Cursor або Windsurf. Також працює голосовий діалоговий режим. Може показувати діффи.

Огляд https://www.youtube.com/watch?v=dKCHdlHD97I

У відео він порівнює з Cline та говорить, що той через API їсть грощі, а працює так собі - напротивагу заплатив за ChatGPT раз на місяц та можно використовувати скільки завгодно. З іншої сторони Cursor або Windsurf у своїх чатах краще розуміють код та контекст проекту, так що їх результат скоріш за все буде кращій ніж ChatGPT.

Підтримує програми:

  • Apple Notes, Notion, TextEdit, Quip,
  • Xcode, VS Code, Code Insiders, VSCodium, Cursor, Windsurf, Jetbrains (включаючи Android Studio, IntelliJ, PyCharm, WebStorm, PHPStorm, CLion, Rider, RubyMine, AppCode, GoLand, DataGrip),
  • Terminal, iTerm, Warp, Prompt.

https://codeium.com/blog/windsurf-wave-4

Оновлення Windsurf Wave 4

Головна нова функція — Windsurf Previews, інтегроване в Cascade вікно браузера. Запустити можна командою з чату. Можна вибирати React або HTML елементи для визначення контексту. Також для ШІ тепер доступна консоль фронтенду.

В Trae є швидка кнопка webview, а в VS Code є Simple Browser через Command Palette.

https://www.youtube.com/watch?v=ZMFeZEiQ3A4

З цікавого: Cascade тепер повинен пропонувати варіанти наступних промтів після відповіді. В мене чомусь не працює чи я не знайшов як увімкнути.

Також додали ще Auto-Linter (давно вже у Cursor). Таб доповнення автоматично може дописувати імпорти. Покращили знаходження нових MCP серверів та роботу з ними.

MCP сервери за замовчування включають інтеграції для GitHub (операції з файлами, керування репозиторіями, пошук), Sequential Thinking (динамічне вирішення проблем), Puppeteer та Playwright (автоматизація браузера), PostgreSQL (доступ лише для читання до баз даних), Stripe (інтеграція Stripe API), Slack (Slack API для Claude) та Figma.

Запустили рефералку (все так погано?)

Windsurf Rules Directory

Запустили свій каталог кастомних промтів — зараз 8 шт з яких 2 для дата саенз, 3 фронт. Ніяких там вам Nuxt/Vue немає. У самій програмі поруч із посиланням вони пишуть, що ці правила скоріше для натхнення та прикладу того, як писати.

(Також є функція памʼяті як то у ChatGPT - Cascade може автоматично генерувати memories, щоб зберігати контекст між розмовами. Memories можна видалити з Memories Panel.)

Загалом, продовжують спрощувати продукт, щоб бути "вашим першим редактором коду" для тих, хто хоче почати програмувати з ШІ.

https://en.wikipedia.org/wiki/Vibe_coding

Вайб кодінг — це новий модний термін у Кремнієвій долині, як пише Business Insider.

Відомий дослідник у галузі комп'ютерних наук Андрій Карпатий ввів цей термін 3 лютого 2025 року. У своєму пості в X Карпатий пояснив, що вайб кодінг — це коли ти повністю віддаєшся "вайбу" штучного інтелекту, приймаєш експоненційну міць сучасних LLM і забиваєш на дрібні деталі коду:

Є новий вид програмування, який я називаю "вайб кодінг", де ти повністю ловиш вайб, приймаєш експоненту і забиваєш, що код взагалі існує. Це можливо, бо LLM (наприклад, Cursor Composer з Sonnet) стають занадто круті. Ще я просто балакаю з Composer через SuperWhisper, тому майже не клацаю по клавіатурі. Прошу всяку тупість, типу "зменш відступ на сайдбарі вдвічі", бо мені влом шукати. "Приймаю все" завжди, діфи вже не дивлюсь. Коли вискакують помилки, просто копіпастю їх без коментарів, зазвичай це фіксить. Код росте за межі мого розуміння, треба реально вчитуватись. Інколи LLM не може пофіксити баг, тому я просто обходжу його або прошу рандомних змін, поки не прокатить. Для одноразових проєктів на вихідні — ще норм, але все одно прикольно. Я пиляю проєкт чи веб-апку, але це вже не кодінг — я просто бачу штуки (stuff), кажу штуки, запускаю штуки і копіпастю штуки, і воно якось працює.

Описуючи свій досвід, Карпатий пояснив, як він спілкується з інструментами ШІ майже пасивно — просто говорить до них (через superwhisper), а ШІ робить все інше. Цей метод усуває ручне набирання коду, а також необхідність стежити за усіма дрібницями в програмі.

https://www.youtube.com/watch?v=YWwS911iLhg

Метью Берман зняв туторіал та кращі практики для "вайб кодінгу" (також званого "агентним програмуванням"), який включає використання ШІ-агентів в IDE, таких як Cursor або Windsurf, для написання більшої частини або всього коду:

  • Детальна специфікація: Починайте з дуже детальної специфікації застосунку. Використовуйте ШІ (наприклад, Grok 3 у відео), щоб згенерувати цю спеку, включаючи технічні деталі, схему бази даних, API ендпоінти тощо.
  • Правила Cursor/Windsurf: Критично важливо використовувати "правила" (специфічні для проєкту або користувача), щоб керувати ШІ-агентом. Ці правила діють як системні повідомлення, визначаючи уподобання кодування, технологічний стек та бажані робочі процеси. Це запобігає багатьом типовим проблемам. Наводить детальний приклад своїх правил, пояснюючи логіку кожного з них.
  • Приклади правил (та чому вони важливі):
    • Уникайте дублювання коду: Агент має тенденцію дублювати код; правила явно кажуть йому перевіряти наявний код.
    • Dev/Test/Prod середовища: Агент тупить з розділенням середовищ; правила примусово розділяють середовища.
    • Фокус на запитаних змінах: Агент часто робить непов'язані, ламаючі зміни; правила наголошують на тому, щоб залишатися сфокусованим.
    • Уникайте нових технологій/патернів: Агент може заюзати нові технології при фіксі багів; правила обмежують це.
    • Тримайте кодову базу чистою: Правила заохочують до організації та запобігають надмірно великим файлам.
    • Уникайте мокових даних (крім тестів): Агент зловживає моковими даними, що призводить до хибно позитивних результатів; правила обмежують це.
    • Не перезаписуйте .env файли: Запобігає випадковому перезапису ключів API.
    • Визначте технологічний стек: Явно перелічіть дозволені технології (Python, SQL тощо), щоб запобігти небажаним відхиленням.
    • Уподобання щодо робочого процесу кодування: Акцентуйте увагу на фокусуванні на завданні, написанні ретельних тестів та уникненні серйозних архітектурних змін без явних інструкцій.
  • Керування контекстом: Пам'ятайте про вікно контексту в чаті Cursor/Windsurf. Занадто багато контексту погіршує продуктивність. Стратегічно починайте нові чати, але майте на увазі втрату контексту.
  • Вузькі запити: Робіть невеликі, конкретні запити до агента (пофіксити один баг, додати маленьку фічу). Часто тестуйте.
  • Тестування: Пріоритезуйте end-to-end тести (імітація дій користувача) над юніт-тестами. Нехай агент пише тести, і уважно перевіряйте фікси тестів, оскільки вони іноді можуть занести проблеми.
  • Популярні стеки: Використовуйте відомі, добре задокументовані технологічні стеки (Python, HTML/JS, SQL) для кращої продуктивності агента.
  • Цикл ітерацій: Процес може бути повільним (2-15 хвилин на ітерацію). Розгляньте можливість використання кількох вікон/гілок Cursor для паралельної роботи.
  • Коммітьте часто: Коммітьте часто, щоб можна було легко відкотитися. Cursor/Windsurf також має версіонування на основі історії чату.
  • YOLO режим vs. Ручне підтвердження: Cursor пропонує різні режими виконання:
    • YOLO режим: Автоматично виконує все (ризиковано, але швидко для нових проєктів).
    • Ручний: Потребує підтвердження кожної зміни.
    • Авто: Агент вирішує, що виконувати автоматично, а що потребує підтвердження.

Метью мріє про повністю хостовану, mobile-friendly версію цього воркфлоу.

https://developers.googleblog.com/en/data-science-agent-in-colab-with-gemini/

Data Science Agent

Google Colab отримав новий інструмент штучного інтелекту Data Science Agent, який допомагає користувачам швидко очищати дані, візуалізувати тренди та отримувати аналітичні висновки з завантажених наборів даних.

Data Science Agent працює на основі моделі Gemini 2.0 і підтримує файли CSV, JSON або .txt розміром до 1 ГБ.

Огляд: https://www.youtube.com/watch?v=1Lq2xzqj_S0

Інструмент, який спочатку був окремим проєктом, тепер інтегрований безпосередньо в Colab і доступний безкоштовно, хоча з обмеженнями на обчислювальні ресурси.

З'явився форк Claude-code, який називається anon-kode. Зняли обмеження на використання лише сервісів Claude. Документації немає, проект явно експериментальний.

Спочатку Claude-code був створений для роботи з моделями Claude, і незрозуміло, як він поводитиметься з іншими. Також можливо, кращим варіантом буде proxy mirroring Anthropic's API для оригінального проекту, який ще розвиватиметься і написаний професійними інженерами.

У альфа-версії з'явився проект Kwaak — ще один інструмент для терміналу. Він дозволяє запускати команду автономних AI-агентів прямо з терміналу, паралельно.

З автокодерів з'явився форк bolt.diy (який, у свою чергу, є форком від bolt.new). Називається "Nut.new".

Незрозуміло, навіщо, але обіцяють переписати код на свій лад з акцентом на дебагер і заробляти багато грошей. Поки що сервіс можна безкоштовно використовувати в обмежених обсягах, а також без обмежень через програму для ранніх користувачів або з власним API-ключом Anthropic. Презентація на https://www.replay.io/

https://firebender.com/

Firebender
ШІ плагін для Android Studio та IntelliJ

Присутній Inline редактор та чат як то у Cursor. Агент переглядає код, запускає код, тести та редагує файли самостійно. Є можливість додати кастомні інструкції та список виключень через firebender.json файл.

Судячи з changelog почали 2024-12-03, потім 2025-01-23 додали розуміння коду, а 2025-02-13 режим агенту. Використовується модель Claude 3.7 Sonnet з 2025-02-26, також є Deepseek R1, OpenAI o1, o3-mini.

https://www.youtube.com/watch?v=li2q6YH0U4M

Я не працюю з Android Studio, тому нічого не можу сказати. Сайт зроблений "на колінці", повний маркетингового булшіту та загальних фраз: вочевидь, щоб продатися в інкубатор, що їм вдалося. Ціна теж вказана як безкоштовна — це поки їм дають гроші. Що буде далі та чи зможуть вони зробити стабільний продукт — подивимось.

https://blog.google/technology/developers/gemini-code-assist-free/

Gemini Code Assist
for individuals (preview)

Google запустив загальнодоступну попередню версію Gemini Code Assist — для індивідуальних розробників безкоштовно. До 180 000 автодоповнень коду на місяць / 6 000 на день, що в 90 разів більше, ніж у інших безкоштовних асистентів (які зазвичай пропонують 2 000).

Доступний у Visual Studio Code, JetBrains IDE та Android Studio. Також інтегрований у Firebase console. Є версія й для GitHub Apps, яка пропонує безкоштовну перевірку коду для публічних та приватних репозиторіїв.

Варто звернути увагу, що за замовчуванням сервіс збирає дані про ваші запити, код, правки та використання функцій для вдосконалення своїх моделей машинного навчання. Хоча є можливість відмовитися від цього збору даних, початкові налаштування передбачають активний збір інформації.


За результатами моїх тестувань, Gemini Code Assist демонструє такі сильні сторони: швидке розуміння коду в директорії та вбудований пошук, що значно полегшує доступ до актуальної інформації. Проте є й суттєві недоліки – відсутність режиму агент, до якого ми вже звикли в інших інструментах. Замість інтелектуальної взаємодії з файловою системою, чат просто генерує фрагменти коду, які користувачу доводиться самостійно вставляти у відповідні файли.

https://github.com/superglue-ai/superglue

superglue — це open source самовідновлюваний інструмент для підключення даних з підтримкою LLM для автоматичного мєпінгу. Він автоматично генерує трансформації даних та налаштування API, аналізуючи документацію API за допомогою мовних моделей. Обробляє пагінацію, автентифікацію та повторні спроби під час помилок. Перевіряє, чи всі дані відповідають схемі, та виправляє трансформації, якщо вони зламані.

Ранній доступ до хостованої версії superglue доступний на superglue.cloud.

bolt.diy вийшов реліз v0.0.7 — краща підтримка thinking моделей, UI налаштувань, та netlify one-click деплой.

Inception Labs випустили Mercury Coder, нову цікаву мовну модель, яка використовує техніку дифузії для швидшого генерування тексту: на відміну від традиційних моделей, які створюють текст слово за словом, дифузійні моделі, генерують цілі відповіді одночасно, вдосконалюючи їх з початково замаскованого стану до зв’язного тексту. (новина) — у їхньому чаті працює справді швидко, для HTML може відразу виводити результат.

Cursor додали нову OpenAI модель gpt-4.5-preview, щоб було, але, судячи з тестів, ця модель така собі для програмування і більш підходить для неформальних пооовільних розмов. На противагу їй, дуже класна у програмувані claude-3.7-sonnet модель була високо затребувана в останні дні і не завжди відповідала, але зараз ситуація, здається, стабілізувалася.

Windsurf теж додали у режим Cascade claude-3.7-sonnet модель та як бета GPT-4.5.

Їх порівняння: https://www.youtube.com/watch?v=tztQJ5MKNgs

Trae додали Claude Sonnet 3.7 модель, зауваживши що може відповідати повільно.

Zed додали Claude Sonnet 3.7 у Zed AI.