Andrew Ng właśnie ujawnił, dlaczego firmy zajmujące się AI, które inwestują najwięcej mocy obliczeniowej w problem, przegrają. Zwycięzca wyścigu o inteligencję nie będzie używał najwięcej mocy obliczeniowej. Będzie marnował najmniej. Ng: „Większość twoich danych o wysokiej wymiarowości leży w przestrzeni o niższej wymiarowości. To po prostu fakt życia.” Oto, co to oznacza w praktyce. Masz zbiór danych o wymiarowości 10 000. Każdy wymiar przeciągany przez każde obliczenie. Każdy cykl treningowy ciągnie martwy ciężar, którego model nigdy nie wykorzysta. Ng: „Nosisz te przykłady o wymiarowości 10 000 przez cały proces treningowy.” Ten nadmiar nie jest tylko nieefektywny. To podatek na każde obliczenie, które wykonujesz. Przepustowość pamięci. Przepustowość sieci. Szybkość obliczeniowa. Wszystko to pochłaniane przez wymiary, które nie przyczyniają się do inteligencji. Przyczyniają się do szumów. Wnikliwość, która oddziela architektów od wyścigu zbrojeń: ten zbiór danych o wymiarowości 10 000 jest prawie całkowicie uchwycony przez znacznie mniejszą podprzestrzeń. ...