Ultimamente ho utilizzato molto Claude Code e, mentre lo facevo, ho osservato casualmente l'evoluzione del codice di OpenClaw. Quello che ho visto rispecchia un modello che ho già visto ripetersi con ogni framework di agenti prima di questo — ed è un argomento di cui vale la pena parlare. OpenClaw è un progetto straordinario. È passato da zero a uno dei repository più stellati su GitHub in meno di una settimana. E ora, con agenti AI che contribuiscono attivamente al suo sviluppo, il codice sta facendo qualcosa di straordinario: si sta espandendo a un ritmo che nessun team umano potrebbe eguagliare — o supervisionare in modo significativo. Un mese fa, il repository contava circa 400k righe di codice. Ora sta superando 1 milione. Gli impegni giornalieri si mantengono costanti sopra le 500 unità. C'è anche un fork snello — nanobot — che replica la funzionalità principale in circa 4.000 righe, pubblicizzandosi come "99% più piccolo." Quel contrasto da solo ti dice qualcosa di importante su ciò che sta accadendo all'originale. Dal punto di vista dell'ingegneria del software, questo non è un segno di salute. La velocità senza comprensibilità è solo entropia con una buona PR. Quello che stiamo osservando è un codice che ha superato una soglia: non è più mantenibile umanamente. Nessun ingegnere può rivedere in modo significativo questi impegni. Nessun architetto può tenere il modello del sistema nella propria testa. Il debito tecnico non sta accumulandosi — sta compounding, alla velocità dell'AI, ogni singolo giorno. Questo solleva una domanda a cui non riesco a smettere di pensare: Esiste qualche progetto al mondo che possa crescere in modo sostenibile — mantenendo chiarezza architettonica mentre espande continuamente la funzionalità — senza alcun coinvolgimento umano significativo? Non "l'AI assiste gli umani", ma una vera e propria gestione autonoma di un codice vivente? Se ciò è possibile, quali tipi di progetti non possono ancora essere completamente mantenuti dall'AI oggi? È complessità? Ambiguità nei requisiti? La necessità di gusto e moderazione? E la domanda più profonda: arriveremo eventualmente a un punto in cui ogni progetto software potrà essere completamente mantenuto dall'AI — inclusi i sistemi AI che si occupano della manutenzione? Il mio istinto è questo: l'AI è straordinariamente brava nell'ottimizzazione locale. Scrivi questa funzione. Risolvi questo bug. Aggiungi questa funzionalità. Ma "mantenere un sistema semplice" non è un problema locale. Richiede un giudizio estetico globale — la capacità di dire "potremmo aggiungere questo, ma non dovremmo." Quel tipo di moderazione potrebbe essere l'ultima vera contribuzione umana all'ingegneria del software. O forse mi sbaglio. Forse i futuri sistemi AI svilupperanno qualcosa come il gusto. Forse impareranno che il codice più importante è spesso quello che non scrivi. Onestamente non lo so. Ma osservare un codice crescere da 400k a 1M righe in un solo mese, guidato quasi interamente da agenti, mi fa sentire come se stessimo per scoprirlo — che siamo pronti o meno.