Autonomiset järjestelmät siirtyvät nopeasti todellisiin tilanteisiin, joissa virheellä voi olla vakavia seurauksia Roboteista, jotka korjaavat koralleja merenpohjalla, robottikäsiin leikkaussaleissa ja humanoidirobotteihin rajavartiossa ja turvallisuudessa, tekoäly ei ole enää pelkkä taustaavustaja, vaan vastaa suoraan ympäristön havaitsemisesta, päätöksenteosta ja toimista Käyttöönotto on nopeaa, mutta luottamus ei pysy vauhdissa. Todellisessa maailmassa kukaan ei helposti hyväksyisi väitettä, että "luota meihin, malli oli silloin oikeassa". Kun robotti osuu esteeseen, drone vaihtaa yhtäkkiä kaistaa tai järjestelmä käynnistää kriittisen operaation, kaikki kysyvät: mitä se tarkalleen ottaen näkee? Miksi päätit näin? Suoritetaanko koko prosessi tiukasti alkuperäisen mallin mukaan? Inference Labs rakentaa tämän luottamuksen kriittisimmän perustan päälle. Sen sijaan, että koulutettaisiin vahvempaa mallia, he tarjoavat Proof of Inference -mekanismin, jossa kryptografiaa voidaan tuoda todennettavia todisteita siitä, ettei mallia ole salaa vaihdettu, prosessia ei ole manipuloitu ja päätös on täysin turvallisuuden ja vaatimustenmukaisuuden piirissä. Näitä ei enää tue kuolemanjälkeiset lokikirjat tai suulliset selitykset, vaan ne vahvistetaan suoraan matemaattisesti kumoamattomilla todistuksilla Kun autonomiset järjestelmät alkavat todella ottaa vastuuta, turvallisuus, jäljitettävyys ja vastuullisuus on sisällytettävä suunnitteluun alusta alkaen, eikä korjattava, jos jokin menee pieleen. Kriteeri autonomiselle älykkyydelle, joka voidaan todella toteuttaa turvallisesti laajassa mittakaavassa, ei koskaan ole se, toimiiko se, vaan se, voidaanko se todistaa oikeaksi #KaitoYap @KaitoAI #Yap @inference_labs