AI zaczyna funkcjonować jako autonomiczny system. Ale jeśli AI generuje własne dane i rozwija swoje zachowanie, jak możemy zapewnić, że pozostaje zgodne z ludzkimi intencjami? Na naszej trasie po uczelniach w Nowym Jorku, @DMSKwak (@LazAINetwork i @MetisL2) argumentował, że podstawowym wyzwaniem jest zgodność danych. Dane nie tylko rejestrują rzeczywistość, ale także kształtują samą inteligencję. W miarę jak agenci AI zyskują wolność działania, trudność w oczyszczaniu i ograniczaniu danych treningowych rośnie wykładniczo, zwłaszcza gdy AI zaczyna produkować własne dane. Bez nowych zabezpieczeń, dryf i halucynacje stają się nieuniknione. W swojej prezentacji Daniel przedstawia podejście LazAI: zweryfikowane kanały danych (z wykorzystaniem TEE + dowodów ZK), Tokeny Kotwiczące Danych, aby powiązać aktywa AI poza łańcuchem z stanem na łańcuchu, oraz DAO skoncentrowane na jednostkach, aby zarządzać każdym zestawem danych, modelem lub agentem. Brzmi skomplikowanie, ale podstawowa idea jest prosta: jeśli AI jest autonomiczne, musimy weryfikować nie tylko jego wyniki, ale także dane i polityki, które je napędzają. Zanurz się w pełnej prezentacji Daniela, aby zrozumieć rozwiązanie w szczegółach:
103,92K