Robots Atlas
🇬🇧
EN
Robots Atlas
News
AI
Robots
Organizations
Ctrl
K
🇬🇧
EN
Tag: Moe
Aktualności
16 kwietnia 2026
MiniMax M2.7 — model językowy zdolny do udziału we własnym treningu
Aktualności
10 kwietnia 2026
Mixture of Experts (MoE) — architektura, która pozwala budować coraz większe modele AI bez proporcjonalnego wzrostu kosztów obliczeniowych
Aktualności
8 kwietnia 2026
GLM-5: duży model językowy zaprojektowany do autonomicznego inżynierowania oprogramowania
Aktualności
5 kwietnia 2026
Google otwiera Gemma 4: Nowa generacja modeli AI stawia na lokalne działanie i agentowość