Sistem otonom dengan cepat bergerak ke skenario dunia nyata di mana kesalahan dapat memiliki konsekuensi serius Dari robot yang memperbaiki karang di dasar laut, hingga lengan robot di ruang operasi, hingga robot humanoid dalam patroli perbatasan dan keamanan, AI tidak lagi hanya asisten latar belakang, tetapi secara langsung bertanggung jawab untuk memahami lingkungan, membuat keputusan, dan melakukan tindakan Penerapan cepat, tetapi kepercayaan tidak mengimbangi. Di dunia nyata, tidak ada yang akan dengan mudah menerima pernyataan bahwa "percayalah pada kami, modelnya tepat pada saat itu". Begitu robot menabrak rintangan, drone tiba-tiba berpindah jalur, atau sistem memicu operasi kritis, semua orang akan bertanya: apa sebenarnya yang dilihatnya? Mengapa Anda memutuskan ini? Apakah seluruh proses berjalan secara ketat sesuai dengan model aslinya? Apa yang dilakukan Inference Labs adalah membangun fondasi kepercayaan yang paling penting ini. Alih-alih melatih model yang lebih kuat, mereka menyediakan mekanisme Proof of Inference, menggunakan kriptografi untuk membawa bukti yang dapat diverifikasi untuk membuktikan bahwa model tersebut belum diganti secara diam-diam, prosesnya belum dirusak, dan keputusan sepenuhnya dalam lingkup keamanan dan kepatuhan. Ini tidak lagi didukung oleh log post-mortem atau penjelasan verbal, tetapi secara langsung didukung oleh bukti yang tidak dapat dipalsukan secara matematis Ketika sistem otonom mulai benar-benar bertanggung jawab, keamanan, ketertelusuran, dan akuntabilitas harus tertanam dalam desain sejak awal, daripada diperbaiki ketika terjadi kesalahan. Kriteria untuk kecerdasan otonom yang benar-benar dapat diimplementasikan dengan aman dalam skala besar bukanlah apakah itu akan berjalan, tetapi apakah itu dapat dibuktikan benar #KaitoYap @KaitoAI #Yap @inference_labs