Para constar, hoje lembrei-me que o Gemini 3.1 existe, dei-lhe uma chance e ele realmente superou o Codex e o Claude! A tarefa era otimizar uma versão nano de 16 bits do HVM (por razões). Passei o dia a digitar preguiçosamente "continua, faz isso bem pls" no 3. Resultados: → GPT-5.3: 814 M i/s, 10.3k tokens → Opus-4.6: 821 M i/s, 9.6k tokens → Gemini-5.1: 1053 M i/s, 7.9k tokens Portanto, o Gemini obteve tanto o intérprete mais rápido quanto o menor arquivo. Além disso, ao ler o código, é definitivamente a abordagem mais elegante. Achei que deveria compartilhar isso, pois me surpreendeu. Para dar uma perspectiva, o HVM4 atinge picos de ~200 M i/s... Definitivamente preciso explorar mais este modelo.
3.1*
1,81K