Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Vi bygger team i pyramider i dag. En leder, flere ledere, mange individuelle bidragsytere.
Hvilken teamkonfigurasjon er mest fornuftig i AI-verdenen? Her er noen alternativer:
Først den korte pyramiden. Ledere blir agentledere. Arbeidet som utføres av tidligere tiders individuelle bidragsytere blir arbeidsmengden til agenter. Alle beveger seg opp et abstraksjonsnivå i arbeidet.
Denne konfigurasjonen reduserer antall ansatte med 85 % (1:7:49 -> 1:7). Forholdet mellom forvalter og individuell bidragsyter går fra 1:7 til 1:1. Forholdet mellom manager og agent er fortsatt 1:7.
For det andre, rakettskipet 🚀!
En direktør, syv ledere, 21 ansatte. Alle i organisasjonen er administrerende agenter, men disse agentene gjenspeiler deres ansiennitet. Direktøren leder en AI-stabssjef, lederne er spillertrenere, som begge utfører mål selv og trener/coacher andre i hvordan de kan manipulere AI på en vellykket måte, noe som halverer kontrollspennet.
Denne konfigurasjonen reduserer antall ansatte (1:7:49 -> 1:7:14) med 53 %.
Fremtiden er ikke en størrelse som passer alle.
Her er vrien: ikke alle avdelinger i et selskap vil ta i bruk den samme organisasjonsstrukturen. AIs innvirkning varierer dramatisk etter funksjon, og skaper en verden der formen på et selskap blir mer nyansert enn noen gang.
Salgsteam vil sannsynligvis vedlikeholde tradisjonelle pyramider eller rakettskip. Relasjoner driver inntekter, og menneskelig empati, kreativitet og forhandlingsevner forblir uerstattelige. Det klassiske spennet av kontrollmodeller gjelder fortsatt når tillit og rapport er avgjørende.
FoU-team gir den største muligheten for den korte pyramidetransformasjonen. Kodegenerering er AIs første virkelige produkt-markedstilpasning, og genererer 50-80 % av koden for ledende selskaper.
Kundesuksess og støtte kan utvikle seg til hybride modeller: AI håndterer rutinemessige henvendelser mens mennesker administrerer komplekse eskaleringer og strategiske kontoer. Det tradisjonelle mellomlederlaget forvandles til noe helt nytt.
Denne utviklingen utfordrer alt vi vet om effektiv skalering av team. Den gamle visdommen om 6-7 direkte rapporter bryter sammen når ledere fører tilsyn med både menneskelige rapporter og AI-agenter.
Rekrutteringsbyrden som historisk rettferdiggjorde ledelseshierarkier endrer seg også. I stedet for å finne og utvikle menneskelige talenter, fokuserer ledere i økende grad på å konfigurere AI-funksjoner og optimalisere samarbeid mellom mennesker og AI.
Hvis selskapet sender organisasjonskartet sitt, hvilket organisasjonskart ser du for deg for teamet ditt?



1,08K
En billion tokens per dag. Er det mye?
"Og når vi ser snevert på bare antall tokens som betjenes av Foundry APIer, behandlet vi over 100 tonn tokens dette kvartalet, opp 5 ganger fra år til år, inkludert rekordhøye 50 tonn tokens bare forrige måned."
I april delte Microsoft en statistikk som avslørte at Foundry-produktet deres behandler rundt 1,7 tonn tokens per måned.
I går delte Vipul behandler 2t åpen kildekode-slutning daglig.
I juli kunngjorde Google et svimlende antall:
"På I/O i mai kunngjorde vi at vi behandlet 480 billioner månedlige tokens på tvers av overflatene våre. Siden den gang har vi doblet dette antallet, og behandler nå over 980 billioner månedlige tokens, en bemerkelsesverdig økning."
Google behandler 32,7 tonn daglig, 16 ganger mer enn Together og 574 ganger mer enn Microsoft Foundrys aprilvolum.
Fra disse figurene kan vi trekke noen hypoteser:
1. Åpen kildekode-slutning er en ensifret brøkdel av slutningen. Det er uklart hvor stor del av Googles slutningstokens som er fra deres åpen kildekode-modeller som Gemma. Men hvis vi antar at Anthropic og OpenAI er 5t-10t-tokener per dag og alle lukket kildekode, pluss at Azure er omtrent lik i størrelse, er åpen kildekode-slutning sannsynligvis rundt 1-3 % av den totale slutningen.
2. Agenter er tidlig. Microsofts datapunkt antyder at agentene i GitHub, Visual Studio, Copilot Studio og Microsoft Fabric bidrar med mindre enn 1 % av den totale AI-slutningen, på Azure.
3. Med Microsoft forventet å investere 80 milliarder dollar sammenlignet med Googles 85 milliarder dollar i AI-datasenterinfrastruktur i år, bør AI-inferensarbeidsbelastningen til hvert selskap øke betydelig både gjennom maskinvare som kommer online og algoritmiske forbedringer.
"Gjennom programvareoptimalisering alene leverer vi 90 % flere tokens for samme GPU sammenlignet med for et år siden."
Microsoft presser mer digital limonade fra GPUene sine, og Google må også gjøre det samme.
Når vil vi se de første 10t eller 50t AI-tokenene behandlet per dag? Det kan ikke være langt unna nå.
- Estimater fra løse luften!
- Google og Azure med 33 tonn tokens per dag hver, Together og 5 andre neoclouds med omtrent 2 tonn tokens per dag hver, og Anthropic & OpenAI med 5 tonn tokens per dag, gir oss 88 tonn tokens per dag. Hvis vi antar at 5 % av Googles tokens er fra åpen kildekode-modeller, er det 1,65 tonn tokens per dag, eller omtrent 1,9 % av den totale slutningen. Igjen, veldig grov matematikk


900
Topp
Rangering
Favoritter