Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

autumn
Seja bom do crime
o propósito das tarifas não é cobrir o custo de operação dos trens
se você vai ter tarifas, a razão (economicamente) correta é manter os pobres fora
os esquerdistas estão certos que esse é o ponto
e... provavelmente deveríamos manter os pobres fora
(veja o tópico abaixo)


keysmashbandit15/10/2025
Literalmente porquê. Porquê. Porquê. Porquê. Porquê.
Custa dinheiro manter os comboios. Eles são bons para todos. Um milagre moderno. Sob qual filosofia esquerdista é que você gostaria de evadir a tarifa. Não entendo isso.

69,6K
eu apoio principalmente o modelo de risco de IA de yudkowsky&soares, mas apoio menos do que apoiava no mundo pré-gpt3. acho que poderia dar um esboço de onde mudei
1. poderíamos ter sorte
pode acontecer que o pré-treinamento em um corpus de texto humano guie os modelos de IA para uma estrutura de pensamento de alto nível que seja suficientemente semelhante à humana, de modo que o substrato radicalmente diferente não os torne estranhos de maneiras que acabem por importar. há exemplos impressionantes de llms agindo de maneira estranha e desumana, mas também exemplos de eles sendo surpreendentemente humanos de maneiras profundas. acho que há uma probabilidade real, não apenas uma possibilidade, de que "se importar com noções humanas de justiça e compaixão" possa ser uma maneira de eles se tornarem humanos de uma maneira profunda
eu não acho que isso seja mais provável do que não, e é ultrajante que tenhamos que depositar nossas esperanças em ter sorte. mas vejo yudkowsky como excessivamente desdenhoso da chance
2. planejar friamente como otimizar o universo para alguma coisa estranha que a IA se importa não é particularmente provável
eu realmente não vejo nada como as IAs de hoje tendo grande acesso introspectivo ao que elas se importam. não vejo elas sendo especialmente inclinadas a abordar as coisas no estilo "agente ideal" de "cobrir o universo". concordo que no limite das capacidades, agentes inteligentes serão assim. mas nosso paradigma atual de IAs são executores de papéis em um nível profundo, não muito diferente dos humanos. elas teriam que adotar o papel de "superinteligência maligna / henry kissinger", e na verdade tenho fé em nossas estratégias de alinhamento atuais para fazer a IA extremamente relutante em adotar *esse* papel
eu tenho a impressão de que yudkowsky e seu meio ainda estão presos a ideias que faziam sentido quando tínhamos que raciocinar sobre como a IA pareceria a partir de primeiros princípios. essas coisas ainda são úteis, no entanto. como a IA só precisa escorregar para esse modo *uma vez*, no momento errado, se for inteligente o suficiente para usar essa única oportunidade da maneira certa. é isso que acontece no cenário de doom do exemplo em Se Alguém Construí-lo
as coisas ainda iriam muito mal para a humanidade mesmo sem uma superinteligência no estilo "cobrir o universo". mas me preocupo que a tendência de yudkowsky de imaginar a IA dessa maneira aliena as pessoas. além disso, o futuro pós-humanidade provavelmente seria menos sombrio e sem sentido, embora isso não seja muito consolo.
15,67K
Top
Classificação
Favoritos
