Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI zaczyna funkcjonować jako autonomiczny system. Ale jeśli AI generuje własne dane i rozwija swoje zachowanie, jak możemy zapewnić, że pozostaje zgodne z ludzkimi intencjami?
Na naszej trasie po uczelniach w Nowym Jorku, @DMSKwak (@LazAINetwork i @MetisL2) argumentował, że podstawowym wyzwaniem jest zgodność danych. Dane nie tylko rejestrują rzeczywistość, ale także kształtują samą inteligencję. W miarę jak agenci AI zyskują wolność działania, trudność w oczyszczaniu i ograniczaniu danych treningowych rośnie wykładniczo, zwłaszcza gdy AI zaczyna produkować własne dane. Bez nowych zabezpieczeń, dryf i halucynacje stają się nieuniknione.
W swojej prezentacji Daniel przedstawia podejście LazAI: zweryfikowane kanały danych (z wykorzystaniem TEE + dowodów ZK), Tokeny Kotwiczące Danych, aby powiązać aktywa AI poza łańcuchem z stanem na łańcuchu, oraz DAO skoncentrowane na jednostkach, aby zarządzać każdym zestawem danych, modelem lub agentem.
Brzmi skomplikowanie, ale podstawowa idea jest prosta: jeśli AI jest autonomiczne, musimy weryfikować nie tylko jego wyniki, ale także dane i polityki, które je napędzają.
Zanurz się w pełnej prezentacji Daniela, aby zrozumieć rozwiązanie w szczegółach:
103,92K
Najlepsze
Ranking
Ulubione