top of page

Nghiên cứu linh trưởng thông minh hơn: Nhận dạng khuôn mặt thời gian thực cho khỉ Macaque bằng AI

  • Writer: Yen Nguyen
    Yen Nguyen
  • Apr 17
  • 4 min read

Gà Lôi Trắng Beli

13-04-2025

[…] the age of technology has arrived, and Kingfisher has decided it’s time for something new: Technological Innovation. Innovation can help Kingfisher conserve energy while maintaining a sense of tranquility, which is suitable for an increasingly advanced age with diminishing physical strength.

Trích “Innovation”; Wild Wise Weird [1]


ree

Nghiên cứu hiện đại về linh trưởng phụ thuộc chặt chẽ vào khả năng theo dõi chính xác từng cá thể trong môi trường sống phức tạp và năng động. Tuy nhiên, các phương pháp nhận diện truyền thống đối với khỉ macaques nuôi nhốt—như quan sát thủ công hay gắn thiết bị—thường đòi hỏi nhiều công sức, mang tính xâm lấn, và gây tranh cãi về mặt đạo đức. Để vượt qua những giới hạn này, Zhang và cộng sự [2] đã giới thiệu ACE-YOLOX, một mô hình học sâu nhẹ (lightweight deep-learning model) được phát triển đặc biệt cho nhận diện khuôn mặt khỉ macaques theo thời gian thực.


Dựa trên nền tảng YOLOX—một mô hình phát hiện vật thể tiên tiến—ACE-YOLOX tích hợp ba cải tiến chính: Efficient Channel Attention (ECA), Complete Intersection over Union loss (CIoU), và Adaptive Spatial Feature Fusion (ASFF) [3–5]. Các thành phần này phối hợp giúp mô hình nâng cao khả năng trích xuất đặc trưng đa cấp, định vị đối tượng chính xác hơn, và giữ vững hiệu suất trong điều kiện hình ảnh phức tạp hoặc bị che khuất. Mô hình được huấn luyện trên một tập dữ liệu lớn gồm 179.400 ảnh khuôn mặt có gán nhãn từ 1.196 cá thể macaques tại Viện Động vật học Côn Minh, và cho thấy hiệu năng vượt trội so với các mô hình truyền thống cả về độ chính xác và hiệu suất tính toán [2].


Đây là bước tiến đáp ứng nhu cầu cấp thiết trong các cơ sở nghiên cứu linh trưởng: phát triển hệ thống nhận diện phi xâm lấn, có thể mở rộng, và đáng tin cậy trong điều kiện nuôi chung theo nhóm. Các phương pháp truyền thống như nhận diện thủ công dễ xảy ra sai sót, trong khi thiết bị gắn thẻ có thể gây ảnh hưởng đến phúc lợi động vật [6,7]. Bằng cách nhận diện các đặc điểm khuôn mặt tinh vi thông qua một kiến trúc gọn nhẹ, được tối ưu hóa cho thiết bị di động, ACE-YOLOX cho phép nhận diện thời gian thực trên điện thoại thông minh, mà không làm gián đoạn hành vi tự nhiên hay cần thiết bị chuyên dụng.


Kết quả thử nghiệm cho thấy ấn tượng rõ rệt: ACE-YOLOX đạt độ chính xác trung bình mAP lên tới 98,88%, với độ chính xác và độ hồi tưởng đều vượt ngưỡng 94%—cao hơn nhiều so với các mô hình như Faster-RCNN và SSD. Ứng dụng Android đi kèm mở rộng khả năng triển khai mô hình tại thực địa hoặc cơ sở nghiên cứu, mà không cần hạ tầng tính toán hiệu năng cao. Quan trọng hơn, hệ thống này mở đường cho các ứng dụng tiếp theo như theo dõi hành vi xã hội—bao gồm liếm lông, kiếm ăn, và tương tác—mà không cần gây mê hay bắt giữ lặp lại.


Trí tuệ nhân tạo đang mở ra tiềm năng to lớn trong việc nâng cao cả tính chính xác khoa học lẫn chuẩn mực đạo đức trong nghiên cứu động vật [8]. Thông qua việc tích hợp các kỹ thuật thị giác máy tính tiên tiến với cam kết về phúc lợi sinh vật, ACE-YOLOX là sự kết nối giữa đổi mới công nghệ và truy vấn sinh học sâu sắc. Cuối cùng, mô hình này cũng gợi nhắc một quan điểm lớn hơn: cách ta lựa chọn công cụ để nghiên cứu động vật phản ánh hệ giá trị của con người đối với thế giới phi nhân loại, và trách nhiệm của ta trong mối quan hệ đó [9].


Tài liệu tham khảo

[1] Vuong QH. (2024). Wild Wise Weird. https://www.amazon.com/dp/B0BG2NNHY6/

[2] Zhang JJ, et al. (2025). A deep learning lightweight model for real-time captive macaque facial recognition based on an improved YOLOX model. Zoological Research, 46(2), 339-354. https://doi.org/10.24272/j.issn.2095-8137.2024.296

[3] Wang QL, et al. (2020). ECA-Net: efficient channel attention for deep convolutional neural networks. Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 11531-11539.

[4] Yang L, et al. (2022). RS-YOLOX: a high-precision detector for object detection in satellite remote sensing images. Applied Sciences, 12(17), 8707. https://doi.org/10.3390/app12178707 

[5] Zheng ZH, et al. (2020). Distance-IoU loss: faster and better learning for bounding box regression. Proceedings of the 34th AAAI Conference on Artificial Intelligence. New York: AAAI, 12993–13000.

[6] Ait-Saidi A, et al. (2014). Implementing electronic identification for performance recording in sheep: I. Manual versus semiautomatic and automatic recording systems in dairy and meat farms. Journal of Dairy Science, 97(12), 7505-7514. https://dx.doi.org/10.3168/jds.2014-8090 

[7] Fernandez-Duque M, et al. (2018). Darting primates: steps toward procedural and reporting standards. International Journal of Primatology, 39(6): 1009-1016. https://dx.doi.org/10.1007/s10764-017-9963-z 

[8] Ho MT, Nguyen DH. (2025). Of Kingfisher and Man. https://philarchive.org/rec/HOOKAW 

[9] Nguyen MH. (2024). How can satirical fables offer us a vision for sustainability? Visions for Sustainability. https://ojs.unito.it/index.php/visions/article/view/11267


 
 
 

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page