
GPT-5:n tuolla puolen: Perusmallien seuraava rajapyykki
GPT-5:n odotetaan sisältävän monimodaalisen ymmärryksen, pysyvän muistin, agenttimaisen käyttäytymisen ja parannetun päättelyn. MoE-arkkitehtuurit mahdollistavat suurikokoisen kapasiteetin pienemmillä laskentakustannuksilla; esimerkiksi Mistral Mix-8B käyttää kahdeksaa asiantuntijakomponenttia 7 miljardin rungon koossa, ja NVIDIA:n analyysissä 46 miljardin parametrin MoE-mallissa aktivoidaan vain osa parametreista per token. GPT-5:n