CodeWithLLM-Updates
-

Відео порівняння

плагінів під VSCode локальної генерації коду - Continue чи Twinny

Варіанти:
🤖 Continue: усе тільки через чат, відсутність автодоповнення коду
🦙 Llama Coder: автодоповнення коду, відсутність чат-інтерфейсу
🔍 Cody від Sourcegraph: цінова модель незрозуміла

👯‍♂️ Twinny: новий проєкт, який 🤝 поєднує функції Llama Coder та Continue - чат і автодоповнення коду.

_Для автодоповнення, щоб воно не підвисало, звичайно, потрібно брати меншу "базову" модель (1-3B) і потужніший комп'ютер._Щоб працював чат треба ще підняти "instruct" модель.