ИИ начинает функционировать как автономная система. Но если ИИ генерирует свои собственные данные и развивает свое поведение, как мы можем гарантировать, что он остается в согласии с человеческими намерениями? На нашем колледж-туре в Нью-Йорке @DMSKwak (@LazAINetwork и @MetisL2) утверждал, что основной проблемой является согласование данных. Данные больше не просто фиксируют реальность, они формируют саму интеллигенцию. Поскольку агенты ИИ получают свободу действий, сложность очистки и ограничения обучающих данных растет экспоненциально, особенно когда ИИ начинает производить данные самостоятельно. Без новых мер предосторожности отклонение и галлюцинации становятся неизбежными. В своей презентации Даниэль представляет подход LazAI: проверенные каналы данных (с использованием TEE + ZK доказательства), токены привязки данных для связывания внецепочечных активов ИИ с состоянием в цепочке и индивидуально-центрированные DAO для управления каждым набором данных, моделью или агентом. Это звучит сложно, но основная идея проста: если ИИ автономен, мы должны проверять не только его выходные данные, но и данные и политики, которые их определяют. Погрузитесь в полную презентацию Даниэля, чтобы понять решение в деталях:
103,91K