A arquitetura Transformer é fundamentalmente um processador paralelo de contexto, mas o raciocínio é um processo sequencial e iterativo. Para resolver problemas complexos, um modelo precisa de um "scratchpad" não apenas em seu CoT de saída, mas em seu estado interno. Uma forma diferenciável de fazer loops, ramificações e retrocessos até que o modelo encontre uma solução que funcione.