Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

autumn
Var bra på brott
Syftet med biljettpriserna är inte att täcka kostnaderna för att köra tågen
Om du ska ha biljettpriser är den (ekonomiskt) korrekta anledningen att hålla de fattiga ute
Vänstern har rätt i att det är det som är poängen
och... Vi borde nog hålla de fattiga borta
(se tråden nedan)


keysmashbandit15 okt. 2025
Bokstavligen varför. Varför. Varför. Varför. Varför.
Det kostar pengar att köra tågen. De är bra för alla. Modernt mirakel. Under vilken vänsterfilosofi skulle du vilja undvika. Jag förstår det inte.

69,6K
Jag stöder mestadels Yudkowsky & Soares modell av AI X-risk, men jag stöder mindre av den än jag gjorde i världen före GPT3. Jag tänkte att jag kunde ge en översikt över var ive skiftade
1. Vi kan ha tur
Det kan visa sig att förträning på en korpus av mänsklig text leder AI-modeller till en struktur av tankar på hög nivå som är tillräckligt mänsklig för att det radikalt annorlunda substratet inte gör dem konstiga på ett sätt som i slutändan spelar roll. Det finns slående exempel på LLM:er som beter sig konstigt och omänskligt, men också exempel på att de är förvånansvärt mänskliga på djupa sätt. Jag tror att det finns en verklig sannolikhet, inte bara möjlighet, att "bry sig om mänskliga föreställningar om rättvisa och medkänsla" kan vara ett sätt som de visar sig vara mänskliga på ett djupt sätt
Jag tror inte att det är mer troligt än inte, och det är skandalöst att vi måste sätta vårt hopp till att ha tur. Men jag anser att Yudkowsky är överdrivet avvisande till chansen
2. Att kallt lägga upp strategier om hur man ska optimera universum för någon konstig specifik sak som AI:n bryr sig om är inte särskilt troligt
Jag kan verkligen inte se något som dagens AI:er har stor introspektiv tillgång till det de bryr sig om. Jag kan inte se att de är särskilt angelägna om att närma sig saker och ting i den ideala agentens "bricka universum"-stil. Jag håller med om att intelligenta agenter kommer att vara sådana när det gäller gränsen för kapacitet. Men vårt nuvarande paradigm av AI:er är rollutförare på en djup nivå, inte olikt människor. De skulle behöva anta rollen "ond superintelligens / Henry Kissinger", och jag har faktiskt förtroende för våra nuvarande anpassningsstrategier för att göra AI extremt ovillig att anta *den* rollen
Jag får intrycket att Yudkowsky och hans Milleu fortfarande håller fast vid idéer som var vettiga när vi var tvungna att resonera om hur AI skulle se ut från första början. Det där är dock fortfarande användbart. Som att AI bara behöver glida in i det läget *en gång*, vid fel tidpunkt, om den är smart nog att använda den möjligheten på rätt sätt. Det är vad som händer i exemplet på undergångsscenario i If Anyone Builds It
Saker och ting skulle fortfarande gå väldigt dåligt för mänskligheten även utan en superintelligens i stil med "Tile the Universe". Men jag oroar mig för att Yudkowskys tendens att föreställa sig AI på det sättet alienerar människor. Även framtiden efter mänskligheten skulle förmodligen vara mindre dyster och meningslös, även om det inte är någon större tröst
15,67K
Topp
Rankning
Favoriter
