AI mulai berfungsi sebagai sistem otonom. Tetapi jika AI menghasilkan datanya sendiri dan mengembangkan perilakunya sendiri, bagaimana kita memastikannya tetap selaras dengan niat manusia? Pada New York College Tour kami, @DMSKwak (@LazAINetwork & @MetisL2) berpendapat bahwa tantangan inti adalah penyelarasan data. Data tidak hanya merekam realitas lagi, tetapi juga membentuk kecerdasan itu sendiri. Ketika agen AI mendapatkan kebebasan untuk bertindak, kesulitan membersihkan dan membatasi data pelatihan tumbuh secara eksponensial, terutama ketika AI mulai memproduksi datanya sendiri. Tanpa perlindungan baru, penyimpangan dan halusinasi menjadi tidak dapat dihindari. Dalam presentasinya, Daniel memperkenalkan pendekatan LazAI: alur data terverifikasi (menggunakan bukti TEE + ZK), Token Penahan Data untuk mengikat aset AI off-chain ke status on-chain, dan DAO yang berpusat pada individu untuk mengatur setiap kumpulan data, model, atau agen. Kedengarannya rumit, tetapi ide dasarnya sederhana: jika AI otonom, kita harus memverifikasi tidak hanya outputnya, tetapi juga data dan kebijakan yang mendorongnya. Selami presentasi lengkap Daniel untuk memahami solusinya secara rinci:
72,99K