Para constar, hoje lembrei que o Gemini 3.1 existe, dei uma chance a ele, e ele realmente superou o Codex e o Claude! A tarefa era otimizar uma versão nano de 16 bits do HVM (por motivos). Passei o dia digitando preguiçosamente "continue faça isso bom, por favor" no 3. Resultados: → GPT-5.3: 814 M de i/s, 10.3k tokens → Opus-4.6: 821 milhões de i/s, 9,6k tokens → Gemini-5.1: 1053 M i/s, 7,9k tokens Então, o Gemini recebeu tanto o interpretador mais rápido quanto o menor arquivo. Além disso, ler o código é definitivamente a abordagem mais elegante. Achei que deveria compartilhar isso, pois isso me surpreendeu. Para ter uma perspectiva, HVM4 atinge o pico de ~200 M i/s... Definitivamente preciso explorar mais esse modelo.
3.1*
1,81K