Cu toții ne-am ocupat de funcții de activare în timp ce lucram cu rețele neuronale. -Sigmoid - Tanh - ReLu și Leaky ReLu - Gelu Te-ai întrebat vreodată de ce sunt atât de importante❓🤔 Permiteți-mi să vă explic... 👇