xAI fortsetter å produsere veldig gode modeller, men med lite informasjon eller åpenhet om deres tilnærminger til AI generelt (hva er «sannhetssøking»?), eller sikkerhetstiltakene de har rundt å endre modeller underveis. Spesielt for bedriftsbruk kan mer åpenhet bety mye.
Tilstanden til AI: En empirisk 100 billioner token-studie med @OpenRouterAI, ledet av @MaikaThoughts @xanderatallah @cclark
Det er noen overraskelser her...
Ja, superdatamaskiner pleide å ha stil: den japanske Fugaku (422 petaflops, 2020), Cray-2 (1,9 gigaflops, 1985), CDC 6600 (1 megaflop, 1964) og Difference Engine (én flopp per 8 sekunder, avhengig av sveivhastighet, aldri ferdig, 1823)
En iPhone 12 gjorde 11 teraflops for å sammenligne