Hình 1.2
Cấu trúc một nơron sinh học. Các tế bào nơ-ron được kết nối (Trang 16)
Hình 1.4
Các loại hàm tác động trong mạng Nơ-ron (Trang 18)
Hình 1.5
Một ví dụ về mạng nơ-ron lan truyền thẳng có 3 nút đầu vào, một lớp ẩn có 2, nút một lớp ẩn thứ hai có 3 nút và lớp đầu ra cuối cùng (Trang 21)
Hình 1.7
Kiến trúc mạng Perceptron (Trang 26)
Hình 1.9
Một ví dụ về đường truyền lan truyền thẳng. Vectơ đầu vào [0, (Trang 37)
Hình 1.10
Hàm tổn thất theo thời gian cho mạng nơ-ron 2 - 2 - 1 (Trang 48)
Hình 1.13
Huấn luyện mạng nơ-ron 784, 256, 128, 10 với Keras trên bộ (Trang 59)
Hình 1.14
Ảnh ví dụ từ bộ dữ liệu mười lớp CIFAR-10 (Trang 60)
Hình 1.15
Sử dụng một mạng nơ ron lan truyền ngược tiêu chuẩn dẫn đến việc hiện tượng quá khớp đáng kể trong bộ dữ liệu CIFAR-10 đầy thách thức hơn (chú ý cách giảm tổn thất huấn luyện trong khi tổn thất xác thực tăng đáng kể) (Trang 64)
Hình 1.17
Ví dụ về kiến trúc mạng Perceptron đơn giản có số đầu vào, tính toán tổng trọng số và áp dụng hàm bước để có được kết quả dự đoán cuối cùng (Trang 73)
Hình 1.21
HOG + phát hiện đối tượng tuyến tính SVM được áp dụng (Trang 76)
Hình 2.4
Trái: Ảnh đầu vào ban đầu. Trung tâm: Áp dụng độ mờ trung bình 7×7 bằng hàm xác thực tùy chỉnh (Trang 90)
Bảng 2.3
Bên trái: Kết quả của phép tích chập ma trận có kích thước 3×3 với 1 ma trận 5×5 (kích thước ma trận gốc đã giảm) (Trang 98)
Hình 2.10
Trái: Khối lượng 4×4 đầu vào. Phải: Áp dụng 2×2 nhóm tối (Trang 102)
Hình 2.11
Trái: Hai lớp mạng nơ ron được kết nối hoàn toàn không có hiện tượng bỏ học; Phải: Hai lớp giống nhau sau khi giảm 50% các kết nối (Trang 106)