Para que conste, hoy recordé que Gemini 3.1 existe, le di una oportunidad y ¡de hecho superó a Codex y Claude! La tarea consistía en optimizar una versión nano de 16 bits de HVM (por motivos). Pasé el día escribiendo perezosamente "sigue adelante, hazlo bien, por favor" en la 3. Resultados: → GPT-5.3: 814 M de i/s, 10.3k tokens → Opus-4.6: 821 millones de i/s, 9.6k tokens → Gemini-5.1: 1053 M i/s, 7,9k tokens Así que Gemini consiguió tanto el intérprete más rápido como el archivo más pequeño. Además, leer el código es sin duda el enfoque más elegante. Pensé que debería compartirlo, porque me sorprendió. Para que te hagas una idea, HVM4 alcanza un pico de ~200 M i/s... Definitivamente necesito explorar más este modelo.
3.1*
1.81K