
Ut over GPT-5: Den neste grensa for grunnmodellar
GPT-5 er forventa å gi betydelige oppgraderingar – inkludert multimodal forståing, vedvarande minne, meir agentisk åtferd og betre resonnering. Mixture-of-Experts (MoE)‑arkitektur gjer enorm kapasitet mogleg utan tilsvarande auke i reknekostnad, og blir brukt i toppmodellar som GPT-4 og i open‑source‑variantar som Mistral