Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aaron Levie
administrerende direktør @box - slipp løs kraften i innholdet ditt med AI
De enkleste måtene å gå glipp av den fulle kraften til AI-agenter akkurat nå er å bare ikke gjøre nok med dem. Mesteparten av tiden presser folk dem bare ikke langt nok, og drar derfor sannsynligvis bare nytte av en liten del av potensialet.
Det er overveldende når du snakker med startups og lærer om hva deres nye arbeidsflyter er og hvor mye mer de får gjort enn du kunne ha gjort for bare noen få år siden med de samme ressursene.
Dette er bare en enorm asymmetri for alle som vet. Teamene og selskapene som går AI-først vil sannsynligvis alltid være et par skritt foran andre fordi de vil gjenkjenne hvordan de kan presse modellene og agentene videre, og disse lærdommene vil forsterkes.
For alle andre kommer det til å være utrolig mye uutnyttet kapasitet som bare sitter der.

Aidan McLaughlin18. aug., 00:47
Det beste vibekodingsrådet jeg kan gi er rett og slett å være mer ambisiøs
hvis du ber om en 10-minutters PR, spør deg selv, kan denne modellen håndtere en 3-timers PR?
Svaret er, mye oftere enn du tror: ja.
105,63K
Nesten alle studier viser at leger med AI presterer bedre enn de uten. Nå oppnår AI perfekte poengsummer i medisinske lisensieringseksamener. Du vil ganske enkelt forvente at alle profesjonelle tjenesteleverandører du går til vil bruke AI i fremtiden, ellers vil du ikke stole på rådene.

sarah guo // conviction16. aug., 03:56
Superintelligensens æra er her.
Spådde ikke at det medisinske feltet ville være først.
Fantastisk arbeid av team @EvidenceOpen i å score en perfekt 100 % på US Medical Licensing Exam

255,89K
En subtil grunn til at markedsstørrelsen for AI-agenter kommer til å bli større enn vi er klar over, er at det er mange brukstilfeller der det er verdifullt å kjøre flere agenter parallelt for å løse det samme problemet.
Dette var faktisk aldri mulig med de fleste kunnskapsarbeid før. Det ville bare ha vært uoverkommelig å kaste flere mennesker på det samme problemet. Men fordi vi dramatisk har senket kostnadene ved å distribuere etterretning, har du råd til å ha mer redundans og vurdere ting fra enda flere vinkler.
Vi ser allerede disse eksemplene på en rekke områder. Folk bruker AI-kodegjennomgangsagenter på de samme kodeendringene for å tilby subtile forskjeller i analysen. Det samme vil gjelde for å få sikkerhetsagenter til å gjennomgå kode, der det bare er mer verdi i ekstra dekning. I dype forskningsoppgaver er det ofte nyttig å ha flere spørsmål som kjører parallelt for å sammenligne ulike tilnærminger.
Og vi kan forvente at dette vil dukke opp på tvers av mange andre felt der flere forskjellige visninger gir inkrementell verdi til en arbeidsflyt, som juridisk arbeid, helsevesen, økonomisk analyse, vitenskapelig forskning, produktideer, oppretting av markedsføringsinnhold og mer.
Dette er grunnen til at det er umulig å estimere full TAM for mange av disse markedene. Hvis du trodde agenter bare tilnærmer oss hvordan vi jobber i dag 1:1, ville det være lett å gå glipp av alle måtene vi vil bruke agenter på i arbeidsflyter. Dette er grunnen til at disse markedene ikke har noe naturlig tak i fremtiden.
151,46K
AI-agenter er en reell transformasjon innen inntektsgenerering av programvare.
Tradisjonelt var programvare stort sett begrenset til ~$10-50 eller så per måned per sete for en bestemt programvare. Det er avvikende vertikal programvare, men den hadde generelt alltid omtrent dette taket.
AI-agenter på den annen side er i hovedsak ubegrenset fordi det ikke er noen reell øvre grense for hva noen ville gjort med en AI-agent i en arbeidsflyt.
Vi ser allerede dette i programvarekodingsagenter der noen betaler i tusener per måned. Og dette er helt rimelig: hvis en bruker er 2X-3X mer produktiv med AI-kodeagenter, vil ikke et selskap blunke ved å bruke 10 % på tilsvarende lønn på agenter.
Men dette begynner også å skje på tvers av generelle kunnskapsområder, som juridisk analyse, gjennomgang av medisinske rapporter, behandling av lånedokumenter og mer. Vi bør forvente denne dynamikken i alle kategorier av arbeid.
Nå, etter hvert som modellforbedringer skjer, vil like-for-like-prisene gå ned. Men så, ettersom AI-agenter kan utføre mer komplekse oppgaver, og du kjører flere og flere agenter parallelt i en arbeidsflyt, vil bedrifter bare distribuere flere av disse agentene. Ville tider fremover.

Gergely Orosz14. aug., 14:58
Vi har gått så raskt fra "ikke sikker på at jeg vil betale $20/måned for et annet AI-kodeverktøy når jeg allerede betaler $20/md for ett" til "abonnementet mitt på $200/måned fortsetter å gå tom for grenser - hjelp!!"
Utviklere som aktivt bruker LLM-er for jobb, trender til å betale enkelt $1,000+/måned snart ...
99,8K
Bortsett fra noen få kategorier, er de fleste rom fortsatt vidåpne innen AI. Dette vil ikke være sant for alltid fordi data og arbeidsflyt vil begynne å bygge seg opp, men det er absolutt midlertidig sant akkurat nå.
AI har utviklet seg så mye det siste året at modellene har løst massevis av problemene som de fleste startups måtte bygge rundt før. Og hvorfor du kan gjøre med AI-agenter i dag er omtrent 100 ganger kraftigere enn for 2 år siden.
Dette er også grunnen til at det er avgjørende å bygge arkitekturer med de riktige abstraksjonslagene for å dra nytte av disse oppdateringene.

Olivia Moore14. aug., 09:26
Noen ganger hører jeg potensielle gründere si at de er "for sent" til AI
Men fordi modellene forbedres så raskt, er du i mange kategorier / produkttyper fordelaktig ved å starte senere
Du trenger ikke bruke tid (og $) på å bygge infra/modeller som vil være API-tilgjengelig
68,26K
AI vil viske ut grensene mellom mange funksjoner over tid fordi du nå kan begynne å gjøre ting enten høyere eller lavere i stabelen, eller utvide til andre tilstøtende funksjoner. Et veldig åpenbart område er at PM-er nesten alltid skal dukke opp med funksjonelle prototyper.

Kaz Nejatian13. aug., 21:57
Vi legger til en kodingsseksjon i alle våre produktsjefsintervjuer på @Shopify.
Vi starter med APM-intervjuer. Vi forventer at kandidatene bygger en prototype av produktet de foreslo i caseintervjuet.
Det er ingen unnskyldning for statsledere som ikke bygger prototyper.
66,77K
Hos Box bruker vi mye tid på å teste Box AI med nye modeller på ustrukturerte data for å se hva de presterer godt på i reelle områder av kunnskapsarbeid.
Som vi har sett fra referansene, tilbyr GPT-5 et meningsfullt hopp i kapasitet i forhold til GPT-4.1 innen resonnement, matematikk, logikk, koding og andre arbeidsområder. Her er noen eksempler på hvor disse forbedringene spiller inn i den virkelige verden:
*GPT 5 kontekstualiserer informasjon bedre. Når du utfører datautvinning som det endelige USD-beløpet på en faktura uten valutaetiketter, men med adresse i London, svarer GPT 5 riktig og trenger en konverteringskurs fra USD til GBP. Til sammenligning så GPT 4.1 den endelige regningen og returnerte den, forutsatt valutaen (feil).
* GPT-5 gir bedre multimodal analyse. For et offentlig selskaps årlige innlevering blir GPT-5 bedt om å isolere en celle i en tabell fra et bilde som viser endringer i selskapets egenkapitalkomponenter. Toppen av tabellen presiserer at alle aksjebeløp er i tusenvis, og GPT-5 sier tydelig denne konverteringen, mens GPT-4.1 ikke gjør det, og blir forvirret gitt at tabellen sier aksjer og legenden sier aksjer.
* GPT-5 yter bedre med høye nivåer av prompt og datakompleksitet. Når GPT-5 gjorde datautvinning på en CV for alle jobbstartdatoer, stillingsnavn og arbeidsgivernavn, var GPT-5 i stand til å trekke ut alle data mens GPT-4.1 ser ut til å bli overveldet og ikke trakk ut de samme feltene gitt størrelsen på ledeteksten og kompleksiteten til dokumentet.
* GPT-5 er mye tydeligere og mer eksplisitt i svarene sine. I en outsourcingavtale med 6 forskjellige tjenester som eksplisitt er diskutert, vil GPT-5 returnere de første 5 og spørre om det var med vilje at den sjette ikke ble spurt om. Til sammenligning returnerte GPT-4.1 ganske enkelt de første 5 uten ytterligere forbehold, noe som kan føre til nedstrøms forvirring for brukeren.
* GPT-5 er bedre på datatolkning i komplekse felt. For et flowcytometridiagram, vanligvis brukt i immunologi, identifiserte GPT-5 korrekt en høy andel døde celler og ga plausible rotårsaker som kan føre til situasjonen, mens GPT-4.1 ga minimal begrunnelse, og trengte ytterligere bekreftelse for å ha noen gjetninger fra rådata.
* GPT-5 er bedre i stand til å identifisere inkonsekvenser i kode. Da de ble bedt om å identifisere problemer i en gitt python-kodefil, mens både GPT-5 og 4.1 kan identifisere reelle feil som fører til funksjonsfeil, var det bare GPT-5 som var i stand til å utlede mer subtile problemer, som å skrive ut feil variabel når det ikke ville gi mening i konteksten til programmet.
Disse forbedringene i matematikk, resonnement, logikk og kvaliteten på svarene i lengre kontekstvinduer er utrolig nyttige for sluttbrukere i det daglige arbeidet, men de vil dukke opp enda mer med lengre kjørende AI-agenter, spesielt når det ikke er noe menneske i løkken for å verifisere informasjonen på hvert trinn.
Det er fantastisk å se at disse forbedringene fortsetter å komme i den siste avlingen av AI-modeller, da dette vil føre til AI-agenter som kan brukes i trinnvis mer oppdragskritiske arbeidsområder.
78,15K
Det er tydelig at vi akkurat nå er på en bane med AI-modeller som fortsetter å forbedre kapasiteten på tvers av matematikk, resonnement, logikk, verktøykall og ulike domenespesifikke oppgaver som vil bli bedre etter hvert som flere treningsdata fortsetter å bli generert.
Selv om det vil være debatter om hvor mye disse fremskrittene vil vise seg som store endringer i de daglige brukstilfellene som en forbruker har, *vil* de ha stor innvirkning på tvers av mange kategorier av kunnskapsarbeid. De vil trinnvis låse opp nye brukstilfeller innen helsevesen, juridiske, finansielle tjenester, biovitenskap, etc., der modeller pålitelig kan utføre gradvis mer kritiske oppgaver.
På en nylig podcast med Alex Kantrowitz hadde Dario Amodei en fin måte å ramme inn dette på, som er at hvis du forbedret evnen til en AI-modell til å gå fra å ha en lavere grad i biokjemi til å ha en høyere grad i biokjemi, ville en liten prosentandel av forbrukerbefolkningen merke virkningen, men bedriftsbrukstilfellene for et selskap som Pfizer ville øke meningsfullt som et resultat av dette.
Vi bør begynne å forutse at dette nå er epoken vi er inne i med AI. Så, hvordan begynner dette å dukke opp i den virkelige verden? Det vil dukke opp gjennom AI-agenter som går etter brukte brukstilfeller. AI-agenter for koding, juridisk arbeid, medisinske skrivere, datautvinning, behandling av forsikringskrav, pennetesting og så videre.
Muligheten akkurat nå er å bygge AI-agenter for vertikaler og domener med en dyp forståelse av det området. Det er her virkningen av kontekstteknikk, en dyp forståelse av arbeidsflytene, tilkoblinger til bedriftsdata og spesialiserte brukergrensesnitt (som lar brukere distribuere, administrere og orkestrere disse agentene) vil begynne å bety mye.
Det vil også bety å bygge opp distribusjon som er i tråd med den aktuelle vertikalen eller domenet. Det vil sannsynligvis bety en form for fremoverdistribuert teknikk for ikke bare å hjelpe kundene med å implementere agentene, men også raskt lære hvilke arbeidsflyter agentene er optimalisert for og bringe det tilbake til kjerneplattformen.
Til syvende og sist vil disse markedene bli vunnet av aktørene som best kan bygge bro mellom dagens bedriftsprosesser (som ofte er rotete og ikke er designet for automatisering) til en verden der agenter er integrert i disse arbeidsflytene. Dette er epoken med AI vi nå er inne i.
78,05K
Vi er ikke i nærheten av det optimale punktet for stabilisering i AI-kapasitet, men ironisk nok er det mange kommersielle brukstilfeller for AI som bare blir frosset på grunn av hvor raskt teknologien utvikler seg. Dette er grunnen til at fremtidssikre arkitekturer betyr så mye.

Ethan Mollick11. aug., 18:39
When and if AI development plateaus (and no indication that is happening yet), it may actually accelerate AI integration into our lives, because then it becomes easier to figure out what products & services are needed to complement AI. Right now capabilities are changing too fast
4,13K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til