Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Astăzi construim echipe în piramide. Un lider, mai mulți manageri, mulți contribuitori individuali.
În lumea AI, ce configurație de echipă are cel mai mult sens? Iată câteva alternative:
În primul rând, piramida scurtă. Managerii devin manageri de agenți. Munca efectuată de colaboratorii individuali de altădată devine volumul de muncă al agenților. Toată lumea trece la un nivel de abstractizare în muncă.
Această configurație reduce numărul de angajați cu 85% (1:7:49 -> 1:7). Raportul manager-contribuitor individual crește de la 1:7 la 1:1. Raportul manager-agent rămâne 1:7.
În al doilea rând, nava 🚀 rachetă!
Un director, șapte manageri, 21 de angajați. Toată lumea din organizație este agenți de management, dar acești agenți reflectă vechimea lor. Directorul gestionează un șef de personal AI, managerii sunt jucători-antrenori, ambii executând singuri obiectivele, cât și instruindu-i / antrenându-i pe alții despre cum să manipuleze AI cu succes, ceea ce reduce intervalul de control la jumătate.
Această configurație reduce numărul de angajați (1:7:49 -> 1:7:14) cu 53%.
Viitorul nu este unic.
Iată întorsătura: nu toate departamentele dintr-o companie vor adopta aceeași structură organizațională. Impactul AI variază dramatic în funcție de funcție, creând o lume în care forma unei companii devine mai nuanțată ca niciodată.
Echipele de vânzări vor menține probabil piramide tradiționale sau nave rachetă. Relațiile generează venituri, iar empatia umană, creativitatea și abilitățile de negociere rămân de neînlocuit. Modelele clasice de control se aplică în continuare atunci când încrederea și relația sunt primordiale.
Echipele de cercetare și dezvoltare reprezintă cea mai mare oportunitate pentru transformarea piramidei scurte. Generarea de cod este prima potrivire reală a AI, generând 50-80% din cod pentru companii de top.
Succesul și asistența clienților ar putea evolua în modele hibride: AI se ocupă de întrebările de rutină, în timp ce oamenii gestionează escaladări complexe și conturi strategice. Stratul tradițional de management de mijloc se transformă în ceva complet nou.
Această evoluție provoacă tot ceea ce știm despre scalarea eficientă a echipelor. Vechea înțelepciune a 6-7 subordonați direcți se destramă atunci când managerii supraveghează atât rapoartele umane, cât și agenții AI.
Povara de recrutare care a justificat istoric ierarhiile de management se transformă și ea. În loc să găsească și să dezvolte talente umane, managerii se concentrează din ce în ce mai mult pe configurarea capabilităților AI și pe optimizarea colaborării om-AI.
Dacă compania își livrează organigrama, ce organigramă vă imaginați pentru echipa dvs.?



1,07K
Un trilion de jetoane pe zi. Este mult?
"Și când ne uităm îndeaproape doar la numărul de token-uri deservite de API-urile Foundry, am procesat peste 100 de tone de token-uri în acest trimestru, de 5 ori mai mult de la an la an, inclusiv un record de 50 de tone de token-uri numai luna trecută."
În aprilie, Microsoft a împărtășit o statistică, dezvăluind că produsul lor Foundry procesează aproximativ 1,7 tone de jetoane pe lună.
Ieri, Vipul a împărtășit că procesează zilnic 2t de inferență open-source.
În iulie, Google a anunțat un număr uluitor:
"La I/O în mai, am anunțat că am procesat 480 de trilioane de token-uri lunare pe suprafețele noastre. De atunci, am dublat acest număr, procesând acum peste 980 de trilioane de jetoane lunare, o creștere remarcabilă."
Google procesează 32,7 tone zilnic, de 16 ori mai mult decât Together și de 574 de ori mai mult decât volumul din aprilie al Microsoft Foundry.
Din aceste cifre, putem trage câteva ipoteze:
1. Inferența open-source este o fracțiune de inferență cu o singură cifră. Nu este clar ce fracțiune din tokenurile de inferență ale Google provin din modelele lor open source precum Gemma. Dar, dacă presupunem că Anthropic și OpenAI sunt 5t-10t token-uri pe zi și toate closed-source, plus că Azure are aproximativ o dimensiune similară, atunci inferența open-source este probabil în jur de 1-3% din inferența totală.
2. Agenții sunt devreme. Datele Microsoft sugerează că agenții din GitHub, Visual Studio, Copilot Studio și Microsoft Fabric contribuie cu mai puțin de 1% din inferența AI generală pe Azure.
3. Având în vedere că Microsoft se așteaptă să investească 80 de miliarde de dolari, comparativ cu cele 85 de miliarde de dolari ale Google în infrastructura centrelor de date AI în acest an, volumul de lucru al inferenței AI al fiecărei companii ar trebui să crească semnificativ atât prin hardware-ul care vine online, cât și prin îmbunătățiri algoritmice.
"Doar prin optimizarea software-ului, livrăm cu 90% mai multe token-uri pentru același GPU comparativ cu anul trecut."
Microsoft stoarce mai multă limonadă digitală din GPU-urile lor, iar Google trebuie să facă același lucru.
Când vom vedea primele jetoane AI de 10t sau 50t procesate pe zi? Nu poate fi departe acum.
- Estimări din aer!
- Google și Azure la 33 de tone de jetoane pe zi fiecare, Together și alte 5 neocloud-uri la aproximativ 2 trilioane de jetoane pe zi fiecare, și Anthropic și OpenAI la 5 trilioane de jetoane pe zi, ne oferă 88 de bilete de jetoane pe zi. Dacă presupunem că 5% din tokenurile Google provin din modele open-source, asta înseamnă 1,65 trilioane de tokenuri pe zi, sau aproximativ 1,9% din inferența totală. Din nou, matematică foarte brută


880
Limită superioară
Clasament
Favorite