بدأ الذكاء الاصطناعي في العمل كنظام مستقل. ولكن إذا كان الذكاء الاصطناعي يولد بياناته الخاصة ويطور سلوكه الخاص ، فكيف نضمن بقائها متوافقة مع النوايا البشرية؟ في جولتنا في كلية نيويورك ، جادل @DMSKwak (@LazAINetwork & @MetisL2) بأن التحدي الأساسي هو محاذاة البيانات. لم تعد البيانات تسجل الواقع فحسب ، بل تشكل الذكاء نفسه. مع اكتساب وكلاء الذكاء الاصطناعي حرية التصرف ، تزداد صعوبة تنظيف بيانات التدريب وتقييدها بشكل كبير ، خاصة عندما يبدأ الذكاء الاصطناعي في إنتاج بيانات خاصة به. بدون ضمانات جديدة ، يصبح الانجراف والهلوسة أمرا لا مفر منه. في عرضه التقديمي ، يقدم دانيال نهج LazAI: خطوط أنابيب البيانات التي تم التحقق منها (باستخدام TEEs + براهين ZK) ، ورموز تثبيت البيانات لربط أصول الذكاء الاصطناعي خارج السلسلة بالحالة على السلسلة ، والمنظمات اللامركزية المستقلة التي تتمحور حول الفرد للتحكم في كل مجموعة بيانات أو نموذج أو وكيل. يبدو الأمر معقدا ، لكن الفكرة الجذرية بسيطة: إذا كان الذكاء الاصطناعي مستقلا ، فيجب علينا التحقق ليس فقط من مخرجاته ، ولكن أيضا من البيانات والسياسات التي تدفعها. تعمق في العرض التقديمي الكامل لدانيال لفهم الحل بالتفصيل:
‏‎103.97‏K