Andrew Ng tocmai a dezvăluit de ce companiile de IA care investesc cel mai mult calcul asupra problemei vor pierde. Câștigătorul cursei de inteligență nu va folosi cel mai mult calcul. Ei vor irosi cel mai puțin. Ng: "Majoritatea datelor tale de dimensiune înaltă se află pe un subspațiu de dimensiune inferioară. E pur și simplu un fapt al vieții." Iată ce înseamnă asta în practică. Ai un set de date cu 10.000 de dimensiuni. Fiecare dimensiune a trecut prin fiecare calcul. Fiecare ciclu de antrenament transportă greutăți moarte pe care modelul nu o va folosi niciodată. Ng: "Porți cu tine aceste exemple de 10.000 de dimensiuni pe tot parcursul antrenamentului." Această umflare nu este doar ineficientă. Este o taxă pe fiecare calcul pe care îl faci. Lățimea de bandă a memoriei. Lățimea de bandă a rețelei. Viteza de calcul. Toate acestea sunt consumate de dimensiuni care nu contribuie cu nimic la inteligență. Ei contribuie cu zgomot. Perspectiva care îi separă pe arhitecți de cursa înarmărilor: acel set de date cu 10.000 de dimensiuni este aproape în întregime capturat de un subspațiu mult mai mic. ...