🥳 Llama 3 вийшла!
Моделі були навчені на двох нещодавно анонсованих кластерах із спеціально побудованими 24K GPU на понад 15T токенів даних - навчальний набір даних у 7 разів більший, ніж той, що використовувався для Llama 2,
включаючи у 4 рази більше коду.
https://llama.meta.com/llama3/
моделі розгорнуті й на LPU https://groq.com/