NVIDIA właśnie opublikowało świetny artykuł na temat tego, jak skompresowali model z 16-bitów do 4-bitów, zachowując 99,4% dokładności, co jest praktycznie bezstratne.
To lektura obowiązkowa. Link poniżej.
mój przyjaciel @neuralkian właśnie udostępnił kurs na temat równoległości potokowej za DARMO! to dokładnie to, co laboratoria frontier zatrudniłyby cię do pracy na dużą skalę, aby przyspieszyć trening i wnioskowanie na dużych modelach. zaczniesz od prostego przykładu nakładającego obliczenia na małym MLP i będziesz rozwijać się od tego!