Tóm tắt: Hiện nay, học máy ngày càng chứng minh được vai trò của mình trong việc trở thành một yếu tố quyết định sự phát triển và cạnh tranh của các quốc gia và doanh nghiệp. Mạng nơ-ron là một nhánh quan trọng của học máy, đang góp phần quan trọng trong nhiều ứng dụng như xử lý ngôn ngữ tự nhiên, nhận dạng hình ảnh, dự đoán chuỗi thời gian và nhiều lĩnh vực khác. Trong bối cảnh này, việc tối ưu hóa và tăng tốc tính toán cho mạng nơ-ron trở thành mối quan tâm của nhiều người, nhiều doanh nghiệp. Softmax là lớp cuối cùng trong mạng nơ-ron, cụ thể là các mô hình mạng nơ-ron sâu (DNNs – Deep Neural Networks), mạng nơ-ron tích chập (CNNs – Convolutional Neural Networks)… với nhiệm vụ chuyển đổi đầu ra lớp trước đó thành xác suất, từ đó tính được khả năng xuất hiện của một đối tượng trong tổng số các đối tượng có thể xuất hiện. Đồ án này sẽ trình bày phương pháp nghiên cứu, thiết kế, mô phỏng và thực nghiệm phần cứng tăng tốc cho lớp Softmax trên FPGA (Field Programmable Gate Arrays). Các công việc chính bao gồm nghiên cứu mô hình toán học của lớp Softmax, đưa ra thiết kế phần cứng chi tiết cho lớp Softmax từ mô hình toán học, mô tả lại thiết kế bằng ngôn ngữ mô tả phần cứng Verilog ở mức RTL (Register Transfer Level), sau đó được tổng hợp và mô phỏng trên phần mềm Vivado. Từ đó, đóng gói thiết kế thành lõi IP (Intellectual Property), xây dựng SoC (System on Chip) và kiểm chứng trên mạch, đáp ứng được yêu cầu của đồ án tốt nghiệp.
Từ khóa: Mạng nơ-ron, CNN, DNN, Deep Learning, Học máy, FPGA.
Nội dung Khóa luận đã được công bố dưới dạng bài báo trên IEEE: RTL Design of an Accelerator for Softmax Layer in Deep Neural Networks
