🚨 NVIDIA gjorde bare det umulige. De trente en språkmodell med 12B-parameter på 10 billioner tokens helt i 4-bits presisjon. Det kalles NVFP4, og det kan omdefinere hvordan grenseverdige AI-modeller trenes. Her er grunnen til at dette er viktig: • NVFP4 leverer 2–3 × raskere matematisk gjennomstrømning og 50 % mindre minne sammenlignet med FP8 •Nøyaktighet? Praktisk talt identisk. (MMLU-Pro: FP8 = 62,62 %, NVFP4 = 62,58 %) • Stabilitetsproblemer? Løst ved hjelp av tilfeldige Hadamard-transformasjoner, stokastisk avrunding og 2D-skalering • Opplært utelukkende på NVIDIA Blackwell GPUer, den første 4-biters kjøringen stabil på tvers av 10T-tokens Dette er den første vellykkede demonstrasjonen av storskala 4-bits forhåndstrening uten å miste nøyaktighet. Neste generasjon frontier-modeller vil være raskere, billigere og grønnere uten kompromisser.