Штучний інтелект починає функціонувати як автономна система. Але якщо штучний інтелект генерує власні дані та розвиває власну поведінку, як ми можемо гарантувати, що він відповідає людським намірам? Під час нашого туру по Нью-Йоркському коледжу @DMSKwak (@LazAINetwork & @MetisL2) стверджував, що основна проблема полягає в узгодженні даних. Дані більше не просто фіксують реальність, вони формують сам інтелект. У міру того, як агенти штучного інтелекту отримують свободу дій, складність очищення та обмеження навчальних даних зростає в геометричній прогресії, особливо коли ШІ починає виробляти власні дані. Без нових запобіжних заходів дрейф і галюцинації стають неминучими. У своїй презентації Деніел представляє підхід LazAI: перевірені конвеєри даних (за допомогою TEE + докази ZK), токени прив'язки даних для прив'язки офчейн-активів штучного інтелекту до ончейн-стану та DAO, орієнтовані на особу, для управління кожним набором даних, моделлю або агентом. Це звучить складно, але основна ідея проста: якщо ШІ автономний, ми повинні перевіряти не лише його результати, а й дані та політики, які ними керують. Пориньте в повну презентацію Деніела, щоб детально зрозуміти рішення:
72,97K