
Bortom GPT-5: Nästa frontlinje för grundmodeller
GPT-5 förväntas inkludera multimodal förståelse, permanent minne, mer agentiskt beteende och förbättrat resonemang enligt Sam Altman. Mixture-of-Experts (MoE) gör det möjligt att skala upp modellkapacitet utan samma kostnader; en MoE-modell med 46 miljarder parametrar kan enligt analys aktivera cirka 12 miljarder parametrar