Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Você liga para a companhia aérea para mudar seu voo atrasado. O agente diz que não pode ajudar—o computador não o deixa. Você pede para falar com o gerente dele. Ela diz a mesma coisa. Você escala para o gerente dela. Mesma resposta. Todos querem ajudar você. Ninguém pode. O sistema decidiu, e o sistema não se explica.
Isso é o que Dan Davies chama de um buraco de responsabilidade em The Unaccountability Machine.
Buracos de responsabilidade são sistemas projetados de forma que, quando as coisas dão errado, nenhum ser humano individual pode ser responsabilizado por consertá-las. Ele argumenta que "as decisões são delegadas a um complexo livro de regras ou conjunto de procedimentos padrão, tornando impossível identificar a fonte dos erros quando eles acontecem."
Isso acontece frequentemente à medida que a organização se torna maior. É uma tática para difundir o risco.
Com a IA, essa dinâmica provavelmente vai piorar. Citando o livro, "No futuro, 'Eu culpo o sistema' é algo a que teremos que nos acostumar a dizer, e significá-lo literalmente."
Eu culpo a IA.
Quando proferidas, essas palavras trazem o mundo a um impasse como um Waymo parado no meio de uma interseção movimentada. Qual é o próximo passo?
É fortuito, então, que a ética do Modo Fundador tenha surgido ao mesmo tempo que a culpa ao sistema de IA. A essência do modo fundador é o oposto dos buracos de responsabilidade. Toda a responsabilidade recai sobre uma pessoa.
"A extensão em que você é capaz de mudar uma decisão é precisamente a extensão em que você pode ser responsabilizado por ela." Portanto, projetar organizações responsáveis significa definir papéis e sistemas para as pessoas onde elas são responsáveis e podem anular a saída do sistema.
Além disso, Davies argumenta a favor de ciclos de feedback de baixo para cima. Reuniões de nível superior, onde o gerente de um gerente se encontra com um membro da equipe, é um exemplo.
Mas na era da IA, isso não é suficiente. Os enormes volumes de informações correndo por uma organização podem ser demais para acompanhar. Se buracos de responsabilidade eram um problema antes dessa inundação, imagine o impacto depois.
Redesenhar papéis e sistemas de IA com anulações humanas será essencial para garantir a responsabilidade. Pelo menos por agora, cada decisão chave ainda precisa de uma pessoa por trás dela e talvez isso seja suficiente para remarcar rapidamente e chegar em casa a tempo para o jantar.
Top
Classificação
Favoritos