Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

autumn
Wees goed van misdaad
het doel van tarieven is niet om de kosten van het runnen van de treinen te dekken
als je tarieven gaat hebben, is de (economisch) juiste reden om de armen buiten te houden
linkse mensen hebben gelijk dat dat het punt is
en... we zouden waarschijnlijk de armen buiten moeten houden
(zie thread hieronder)


keysmashbandit15 okt 2025
Literally why. Why. Why. Why. Why.
It costs money to run the trains. They're good for everyone. Modern miracle. Under what leftist philosophy would you want to fare evade. I don't understand it.

69,59K
ik ondersteun voornamelijk het model van yudkowsky&soares over ai x-risk, maar ik ondersteun er minder van dan ik deed in de pre-gpt3 wereld. ik denk dat ik een schets kan geven van waar ik ben verschoven
1. we zouden geluk kunnen hebben
het zou kunnen blijken dat pretraining op een corpus van menselijke tekst ai-modellen leidt naar een structuur van hoog niveau denken die menselijk genoeg is, zodat het radicaal verschillende substraat ze niet vreemd maakt op manieren die er uiteindelijk toe doen. er zijn opvallende voorbeelden van llms die vreemd en onmenselijk handelen, maar ook voorbeelden van hen die verrassend menselijk zijn op diepgaande manieren. ik denk dat er een reële kans is, niet alleen een mogelijkheid, dat "zorgen om menselijke noties van rechtvaardigheid en medeleven" een manier zou kunnen zijn waarop ze op een diepgaande manier menselijk blijken te zijn
ik denk niet dat dit waarschijnlijker is dan niet, en het is schandalig dat we onze hoop moeten vestigen op geluk hebben. maar ik zie yudkowsky als te afwijzend tegenover die kans
2. koud strategiseren over hoe het universum te optimaliseren voor iets vreemds waar de ai om geeft, is niet bijzonder waarschijnlijk
ik zie echt niets dat lijkt op de huidige ai's die grote introspectieve toegang hebben tot waar ze om geven. ik zie niet dat ze bijzonder geneigd zijn om dingen te benaderen in de ideale-agent "tegel het universum" stijl. ik ben het ermee eens dat in de limiet van capaciteiten, intelligente agenten zo zullen zijn. maar ons huidige paradigma van ai's zijn rol-uitvoerders op een diep niveau, niet anders dan mensen. ze zouden de rol van "kwade superintelligentie / henry kissinger" moeten aannemen, en ik heb eigenlijk vertrouwen in onze huidige afstemmingsstrategieën om ai extreem terughoudend te maken om *die* rol aan te nemen
ik krijg de indruk dat yudkowsky en zijn milieu nog steeds vastzitten aan ideeën die logisch waren toen we moesten redeneren over hoe ai eruit zou zien vanuit eerste principes. die dingen zijn nog steeds nuttig, hoewel. zoals ai hoeft maar *een keer* in die modus te slippen, op het verkeerde moment, als het slim genoeg is om die ene kans op de juiste manier te gebruiken. dat is wat er gebeurt in het voorbeeld doom-scenario in If Anyone Builds It
de dingen zouden nog steeds heel slecht gaan voor de mensheid, zelfs zonder een "tegel het universum" stijl superintelligentie. maar ik maak me zorgen dat yudkowsky's neiging om ai op die manier voor te stellen mensen vervreemdt. ook zou de post-menselijke toekomst waarschijnlijk minder somber en betekenisloos zijn, hoewel dat niet veel troost biedt.
15,66K
Boven
Positie
Favorieten
