MỘT MẠNG MỚI DỰA TRÊN SỰ CHÚ Ý ĐỂ PHÁT HIỆN TÉ NGÃ
DOI:
https://doi.org/10.51453/2354-1431/2023/960Từ khóa:
Té ngã, Nhận dạng hành động, Sự chú ý.Tóm tắt
Cơ chế chú ý đã và đang được nghiên cứu rộng rãi trong những năm gần đây nhằm mục đích nâng cao khả năng học tập của mô hình. Trong bài báo này, chúng tôi đề xuất một cơ chế chú ý mới bao gồm mô-dun chú ý thời gian và mô-đun chú ý không gian. Hai mô-dun này được kết hợp với nhau trong mạng 3D ResNet-18 nhằm cung cấp sự "chú ý" vào các đặc trưng quan trọng của khối tích. Cụ thể, mô-dun chú ý thời gian sẽ khai thác mối quan hệ chuyển động giữa các frames và mô-đun chú ý không gian quan tâm đến mối quan hệ không gian giữa các đặc trưng. Kết quả thử nghiệm đối với mô hình được đề xuất cho thấy phương pháp đề xuất đạt được hiệu suất cạnh tranh so với các mạng sâu và nặng hiện đại được công bố gần đây.
Tải xuống
Tài liệu tham khảo
[1] P. T. T. Trang, M. T. H. Thu, “MỘT MÔ HÌNH HỌC SÂU CHO BÀI TOÁN PHÁT HIỆN NGƯỜI BỊ NGÃ,” TNU Journal of Science and Technology, 225(14), 48-53, 2020.
[2] T. C. Án, L. M. Phúc, Đ. T. Đức, N. B. Hùng, L. Đ. Chiến, P. T. X. Diễm, S. B. Pha, “Phát hiện té ngã cho người cao tuổi bằng gia tốc kế và mô hình học sâu Long Short-Term Memory.” Tạp chí Khoa học Trường Đại học Cần Thơ, (CĐ Công nghệ TT 2017), 65-71, 2017.
[3] S. A. Carneiro, G. P. da Silva, G. V. Leite, R. Moreno, S. J. F. Guimarães, H. Pedrini, “Multi-stream deep convolutional network using high-level features ap¬plied to fall detection in video sequences,” in 2019 International Conference on Systems, Signals and Im¬age Processing (IWSSIP), 293-298, IEEE, 2019.
[4] Y. Chen, X. Kong, L. Meng, H. Tomiyama, “An edge computing based fall detection system for elderly per¬sons,” Procedia Computer Science, 174, 9-14, 2020.
[5] D.-Q. Vu, N. T. Le, J.-C. Wang, “(2+ 1) D Distilled ShuffleNet: A Lightweight Unsupervised Distillation Network for Human Action Recognition,” in 2022 26th International Conference on Pattern Recognition (ICPR), 3197-3203, IEEE, 2022.
[6] J. Gou, B. Yu, S. J. Maybank, D. Tao, “Knowledge distillation: A survey,” International Journal of Com¬puter Vision, 129, 1789-1819, 2021.
[7] D.-Q. Vu, N. Le, J.-C. Wang, “Teaching yourself: A self-knowledge distillation approach to action recog¬nition,” IEEE Access, 9, 105711-105723, 2021.
[8] D.-Q. Vu, J.-C. Wang, et al., “A novel self-knowledge distillation approach with siamese representation learning for action recognition,” in 2021 International Conference on Visual Communications and Image Processing (VCIP), 1-5, IEEE, 2021.
[9] Q. V. Duc, T. Phung, M. Nguyen, B. Y. Nguyen, T. H. Nguyen, “Self-knowledge Distillation: An Efficient Approach for Falling Detection,” in Artificial Intelli¬gence in Data and Big Data Processing: Proceedings of ICABDE 2021, 369-380, Springer, 2022.
[10] B.-H. Wang, J. Yu, K. Wang, X.-Y. Bao, K.-M. Mao, “Fall detection based on dual-channel feature integra¬tion,” IEEE Access, 8, 103443-103453, 2020.
[11] M. M. Hasan, M. S. Islam, S. Abdullah, “Robust pose¬based human fall detection using recurrent neural net¬work,” RAAICON, 48-51, 2019.
[12] Z. Cao, T. Simon, S.-E. Wei, Y. Sheikh, “Realtime multi-person 2d pose estimation using part affinity fields,” CVPR, 7291-7299, 2017.
[13] X. Cai, S. Li, X. Liu, G. Han, “Vision-based fall de¬tection with multi-task hourglass convolutional auto¬encoder,” IEEE Access, 8, 44493-44502, 2020.
[14] K. He, X. Zhang, S. Ren, J. Sun, “Deep residual learn¬ing for image recognition,” in CVPR, 770-778, 2016.
[15] K. Hara, H. Kataoka, Y. Satoh, “Can spatiotemporal 3d cnns retrace the history of 2d cnns and imagenet?” in CVPR, 6546-6555, 2018.
[16] J. Hu, L. Shen, G. Sun, “Squeeze-and-excitation net¬works,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 7132-7141, 2018.
[17] S. Woo, J. Park, J.-Y. Lee, I. S. Kweon, “Cbam: Con¬volutional block attention module,” in Proceedings of the European conference on computer vision (ECCV), 3-19, 2018.
[18] T. Phung, V. T. Nguyen, T. H. T. Ma, Q. V. Duc, “A (2+ 1) D attention convolutional neural network for video prediction,” in Artificial Intelligence in Data and Big Data Processing: Proceedings of ICABDE 2021, 395¬406, Springer, 2022.
[19] B. Kwolek, M. Kepski, “Human fall detection on embedded platform using depth maps and wireless accelerometer,” Computer methods and programs in biomedicine, 117(3), 489-501, 2014.
[20] A. Nunez-Marcos, G. Azkune, I. Arganda-Carreras, “Vision-based fall detection with convolutional neu¬ral networks,” Wireless communications and mobile computing, 2017, 2017.
[21] T. X. Hoa, V. R. M. Madrid, E. A. Albacea, “A Lightweight Model for Falling Detection,” RIVF,
Tải xuống
Đã Xuất bản
Cách trích dẫn
Số
Chuyên mục
Giấy phép
Tác phẩm này được cấp phép theo Giấy phép Quốc tế Creative Commons Attribution-ShareAlike 4.0 .
Bài báo được xuất bản ở Tạp chí Khoa học Đại học Tân Trào được cấp phép theo giấy phép Ghi công - Chia sẻ tương tự 4.0 Quốc tế (CC BY-SA). Theo đó, các tác giả khác có thể sao chép, chuyển đổi hay phân phối lại các bài báo này với mục đích hợp pháp trên mọi phương tiện, với điều kiện họ trích dẫn tác giả, Tạp chí Khoa học Đại học Tân Trào và đường link đến bản quyền; nêu rõ các thay đổi đã thực hiện và các nghiên cứu đăng lại được tiến hành theo cùng một bản quyền.
Bản quyền bài báo thuộc về các tác giả, không hạn chế số lượng. Tạp chí Khoa học Tân Trào được cấp giấy phép không độc quyền để xuất bản bài báo với tư cách nhà xuất bản nguồn, kèm theo quyền thương mại để in các bài báo cung cấp cho các thư viện và cá nhân.
Mặc dù các điều khoản của giấy phép CC BY-SA không dành cho các tác giả (với tư cách là người giữ bản quyền của bài báo, họ không bị hạn chế về quyền hạn), khi gửi bài tới Tạp chí Khoa học Đại học Tân Trào, tác giả cần đáp ứng quyền của độc giả, và cần cấp quyền cho bên thứ 3 sử dụng bài báo của họ trong phạm vi của giấy phép.