Activation Functions trong neural network?
Mình thấy trong mạng neural có khá nhiều loại activation functions (sigmoid, tanh, relu), vậy ưu nhược điểm của từng loại function này là gì vậy?
trí tuệ nhân tạo
Mình bổ sung vấn đề bên lề chút cho câu trả lời của bạn Thịnh:
Sigmoid hoặc tanh còn có một nhược điểm là hiện tượng Vanishing gradient (Khó tối ưu tham số ở các layer càng về cuối cùng) vì đạo hàm của chúng được tích mũ sau mỗi layer nên khi optimize các tham số ở layer càng xa sẽ càng khó,
Ngoài ra 2 hàm này có nhiệm vụ đưa input từ một khoảng giá trị lớn về thành một khoảng nhỏ ([0,1] or [-1,1]) Và sau mỗi layer sẽ càng nhỏ hơn nữa, dẫn tới sự ảnh hưởng của các layer đến các input là không nhiều.
Một hiện tượng ngược lại là exploding gradients, tức là các layer về cuối thay đổi giá trị quá nhiều của input.
Bạn có thể khắc phục các nhược điểm này bằng ReLu act-func, điển hình là việc lấy max(0,x) và ít bị ảnh hưởng bởi đạo hàm
Nguyễn Hoàng Nam
Mình bổ sung vấn đề bên lề chút cho câu trả lời của bạn Thịnh:
Sigmoid hoặc tanh còn có một nhược điểm là hiện tượng Vanishing gradient (Khó tối ưu tham số ở các layer càng về cuối cùng) vì đạo hàm của chúng được tích mũ sau mỗi layer nên khi optimize các tham số ở layer càng xa sẽ càng khó,
Ngoài ra 2 hàm này có nhiệm vụ đưa input từ một khoảng giá trị lớn về thành một khoảng nhỏ ([0,1] or [-1,1]) Và sau mỗi layer sẽ càng nhỏ hơn nữa, dẫn tới sự ảnh hưởng của các layer đến các input là không nhiều.
Một hiện tượng ngược lại là exploding gradients, tức là các layer về cuối thay đổi giá trị quá nhiều của input.
Bạn có thể khắc phục các nhược điểm này bằng ReLu act-func, điển hình là việc lấy max(0,x) và ít bị ảnh hưởng bởi đạo hàm
Nguyễn Văn Thịnh
Một số ưu nhược điểm của các hàm này như sau:
Hàm ReLU có nhiều biến thể khác như
Source:
Dung Doan
em xem tại đây nhé:
Nguyễn Tiến Hoàng
Câu hỏi này khá chung chung, vì act func nó được ứng dụng trong mỗi bài toán khác nhau. Khi bạn tìm hiểu về bài toán A nào đó, hầu hết các tài liệu đều chỉ ra rõ tại sao họ sử dụng act func họ dùng.