Per la cronaca, oggi mi sono ricordato che esiste Gemini 3.1, gli ho dato una possibilità e in effetti ha battuto Codex e Claude! Il compito era ottimizzare una versione nano a 16 bit di HVM (per motivi). Ho passato la giornata a digitare pigramente "continua così, rendilo buono per favore" sul 3. Risultati: → GPT-5.3: 814 M i/s, 10.3k token → Opus-4.6: 821 M i/s, 9.6k token → Gemini-5.1: 1053 M i/s, 7.9k token Quindi, Gemini ha ottenuto sia l'interprete più veloce che il file più piccolo. Inoltre, leggendo il codice, è sicuramente l'approccio più elegante. Ho pensato di condividerlo, poiché mi ha sorpreso. Per dare un'idea, HVM4 raggiunge picchi di ~200 M i/s... Devo assolutamente esplorare di più questo modello.
3.1*
1,85K