CodeWithLLM-Updates
-

Початок роботи з Codex
https://www.youtube.com/watch?v=px7XlbYgk7I
OpenAI зробили детальний воркшоп на 53 хвилини про те, як почати працювати з Codex, їх інструментом генерації коду. Презентація охоплює всі етапи: від встановлення до просунутих сценаріїв використання.

Різниця між Codex у терміналі (CLI), як розширення для VS Code та у хмарі. Що робить файл AGENTS.md. Як підключати зовнішні сервіси (наприклад, Jira, Figma, бази даних документації) через MCP-сервери.

https://www.youtube.com/watch?v=px7XlbYgk7I

Ефективний промптинг: Використання @ для посилання на конкретні файли. Можливість додавати скріншоти (наприклад, макети UI) для генерації коду. Відновлення сесій (codex resume) для продовження роботи над складним завданням.

Просунуті сценарії: Code Review. Написання юніт-тестів та документації. Автоматичне виправлення тестів, що впали, у CI/CD пайплайнах. Генерація діаграм (Mermaid sequence diagrams) для пояснення роботи коду.

Як працює Codex
https://openai.com/index/unrolling-the-codex-agent-loop/
Останнім часом зростає недовіра до Anthropic. Багато хто підкреслює що Claude code не є open‑source проєктом. На фоні цього у OpenAI з їхнім Codex з’явилася можливість просування. Вони випустили статтю, де, перш за все, підкреслили, що їхній проєкт open‑source, будь‑хто може перевірити код і пояснили, як він працює.

В основі роботи Codex CLI лежить «цикл агента» (agent loop), який координує взаємодію між користувачем, AI-моделлю та інструментами. Цей цикл повторюється, доки модель не надасть фінальну текстову відповідь користувачеві. Побудова початкового промпту є складною процедурою: він формується з системних інструкцій, списку доступних інструментів (як вбудованих, так і зовнішніх через MCP-сервери) та опису локального середовища.

З точки зору архітектури, Codex використовує підхід без збереження стану (stateless), відмовляючись від параметра previous_response_id. Це означає, що вся необхідна інформація передається заново в кожному запиті, що дозволяє підтримувати політику «Нульового збереження даних» (Zero Data Retention) для корпоративних клієнтів. Можна використовувати gpt-oss⁠ модель за допомогою ollama 0.13.4+⁠ чи LM Studio 0.3.39+⁠ повністью локально.

https://news.ycombinator.com/item?id=46737630
Багатьох приємно здивував перехід на Rust (проєкт codex-rs), який став основним варіантом, хоча декого плутає спосіб встановлення через npm. Високо оцінили механізм компактизації контексту (/responses/compact), називаючи його найкращим порівняно з конкурентами.