Pour mémoire, aujourd'hui je me suis rappelé que Gemini 3.1 existe, je lui ai donné une chance, et il a en fait battu Codex et Claude ! La tâche était d'optimiser une version nano de HVM en 16 bits (pour des raisons). J'ai passé la journée à taper paresseusement "continue, fais-le bien s'il te plaît" sur le 3. Résultats : → GPT-5.3 : 814 M i/s, 10.3k tokens → Opus-4.6 : 821 M i/s, 9.6k tokens → Gemini-5.1 : 1053 M i/s, 7.9k tokens Donc, Gemini a obtenu à la fois l'interpréteur le plus rapide et le fichier le plus petit. De plus, en lisant le code, c'est définitivement l'approche la plus élégante. Je pensais que je devrais partager cela, car cela m'a surpris. Pour donner une perspective, HVM4 atteint des pics à ~200 M i/s... Je dois définitivement explorer ce modèle davantage.
3.1*
1,84K