Para que conste, hoy recordé que existe Gemini 3.1, le di una oportunidad y ¡realmente superó a Codex y Claude! La tarea era optimizar una versión nano de 16 bits de HVM (por razones). Pasé el día tecleando perezosamente "sigue así, hazlo bien por favor" en el 3. Resultados: → GPT-5.3: 814 M i/s, 10.3k tokens → Opus-4.6: 821 M i/s, 9.6k tokens → Gemini-5.1: 1053 M i/s, 7.9k tokens Así que, Gemini obtuvo tanto el intérprete más rápido como el archivo más pequeño. Además, al leer el código, definitivamente es el enfoque más elegante. Pensé que debería compartir eso, ya que me sorprendió. Para dar una perspectiva, HVM4 alcanza picos de ~200 M i/s... Definitivamente necesito explorar más este modelo.
3.1*
1,81K