Định nghĩa Rectified Linear Unit (ReLU) là gì?

Rectified Linear Unit (ReLU)Sửa chữa tuyến tính Unit (ReLU). Đây là nghĩa tiếng Việt của thuật ngữ Rectified Linear Unit (ReLU) – một thuật ngữ thuộc nhóm Technology Terms – Công nghệ thông tin.

Độ phổ biến(Factor rating): 5/10

Các đơn vị tuyến tính sửa chữa (ReLU) là một trong những chức năng kích hoạt phổ biến nhất trong các mô hình máy học tập. Là một thành phần của một tế bào thần kinh nhân tạo trong các mạng thần kinh nhân tạo (ANN), chức năng kích hoạt là trách nhiệm xử lý đầu vào trọng và giúp đỡ để cung cấp một sản lượng.

Xem thêm: Thuật ngữ công nghệ A-Z

Giải thích ý nghĩa

Với ReLU như chức năng kích hoạt, hàm trả về giá trị tích cực, nhưng không trả lại giá trị âm, trở về zero nếu đầu vào tiêu cực được áp dụng.

What is the Rectified Linear Unit (ReLU)? – Definition

The rectified linear unit (ReLU) is one of the most common activation functions in machine learning models. As a component of an artificial neuron in artificial neural networks (ANN), the activation function is responsible for processing weighted inputs and helping to deliver an output.

Understanding the Rectified Linear Unit (ReLU)

With the ReLU as the activation function, the function returns positive values, but does not return negative values, returning zero if negative input applies.

Thuật ngữ liên quan

  • Activation Function
  • Machine Learning
  • Hidden Layer
  • Artificial Neural Network (ANN)
  • Artificial Neuron
  • Convolutional Neural Network (CNN)
  • NeuroEvolution of Augmenting Topologies (NEAT)
  • Neuroinformatics
  • Recurrent Neural Network (RNN)
  • Computational Linguistics

Source: Rectified Linear Unit (ReLU) là gì? Technology Dictionary – Filegi – Techtopedia – Techterm

Rate this post