المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
بدأ الذكاء الاصطناعي في العمل كنظام مستقل. ولكن إذا كان الذكاء الاصطناعي يولد بياناته الخاصة ويطور سلوكه الخاص ، فكيف نضمن بقائها متوافقة مع النوايا البشرية؟
في جولتنا في كلية نيويورك ، جادل @DMSKwak (@LazAINetwork & @MetisL2) بأن التحدي الأساسي هو محاذاة البيانات. لم تعد البيانات تسجل الواقع فحسب ، بل تشكل الذكاء نفسه. مع اكتساب وكلاء الذكاء الاصطناعي حرية التصرف ، تزداد صعوبة تنظيف بيانات التدريب وتقييدها بشكل كبير ، خاصة عندما يبدأ الذكاء الاصطناعي في إنتاج بيانات خاصة به. بدون ضمانات جديدة ، يصبح الانجراف والهلوسة أمرا لا مفر منه.
في عرضه التقديمي ، يقدم دانيال نهج LazAI: خطوط أنابيب البيانات التي تم التحقق منها (باستخدام TEEs + براهين ZK) ، ورموز تثبيت البيانات لربط أصول الذكاء الاصطناعي خارج السلسلة بالحالة على السلسلة ، والمنظمات اللامركزية المستقلة التي تتمحور حول الفرد للتحكم في كل مجموعة بيانات أو نموذج أو وكيل.
يبدو الأمر معقدا ، لكن الفكرة الجذرية بسيطة: إذا كان الذكاء الاصطناعي مستقلا ، فيجب علينا التحقق ليس فقط من مخرجاته ، ولكن أيضا من البيانات والسياسات التي تدفعها.
تعمق في العرض التقديمي الكامل لدانيال لفهم الحل بالتفصيل:
103.97K
الأفضل
المُتصدِّرة
التطبيقات المفضلة