Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

autumn
be good do crime
O objetivo das tarifas não é cobrir o custo de operação dos trens
Se você vai ter tarifas, a razão (economicamente) correta é manter os pobres fora
os esquerdistas estão certos de que esse é o ponto
e... provavelmente deveríamos manter os pobres fora
(veja o tópico abaixo)


keysmashbandit15 de out. de 2025
Literalmente por quê. Por que. Por que. Por que. Por que.
Custa dinheiro operar os trens. Eles são bons para todos. Milagre moderno. Sob qual filosofia esquerdista você gostaria de fugir. Eu não entendo.

69,59K
Eu endosso principalmente o modelo de Yudkowsky & Soares de IA X-Risk, mas endosso menos do que no mundo pré-GPT3. Eu acho que eu poderia dar um esboço de onde ive mudou
1. Poderíamos ter sorte
Pode acontecer que o pré-treinamento em um corpus de texto humano guie os modelos de IA para uma estrutura de pensamento de alto nível que seja humana o suficiente para que o substrato radicalmente diferente não os torne estranhos de maneiras que acabem importando. Existem exemplos impressionantes de LLMs agindo de forma estranha e desumana, mas também exemplos deles sendo surpreendentemente humanos de maneiras profundas. Acho que há uma probabilidade real, não apenas possibilidade, de que "se preocupar com as noções humanas de justiça e compaixão" possa ser uma maneira de se tornarem humanas de maneira profunda
Não acho que isso seja mais provável do que não, e é ultrajante que tenhamos que depositar nossas esperanças em ter sorte. Mas vejo Yudkowsky como excessivamente desdenhoso da chance
2. Friamente criando estratégias sobre como otimizar o universo para alguma coisa estranha e específica com a qual a IA se preocupa não é particularmente provável
Eu realmente não vejo nada como os AIs de hoje tendo grande acesso introspectivo ao que eles se importam. Não os vejo especialmente interessados em abordar as coisas no estilo de agente ideal "ladrilhar o universo". Concordo que, no limite das capacidades, os agentes inteligentes serão assim. Mas nosso paradigma atual de IAs são executores de papéis em um nível profundo, não muito diferente dos humanos. Eles teriam que adotar o papel de "superinteligência maligna / Henry Kissinger", e eu realmente tenho fé em nossas estratégias de alinhamento atuais para tornar a IA extremamente relutante em adotar *esse* papel
Tenho a impressão de que Yudkowsky e seu Milleu ainda estão presos a ideias que faziam sentido quando tínhamos que raciocinar sobre como seria a IA a partir dos primeiros princípios. Essas coisas ainda são úteis, no entanto. Como se a IA só precisasse entrar nesse modo *uma vez*, na hora errada, se for inteligente o suficiente para usar essa oportunidade da maneira certa. isso é o que acontece no cenário de doom de exemplo em If Anyone Builds It
As coisas ainda iriam muito mal para a humanidade, mesmo sem uma superinteligência no estilo "tile the universe". Mas eu me preocupo que a tendência de Yudkowsky de imaginar a IA dessa maneira aliene as pessoas. Além disso, o futuro pós-humanidade provavelmente seria menos sombrio e sem sentido, embora isso não seja muito consolo
15,67K
Melhores
Classificação
Favoritos
