Sistema de detección y clasificación de peces utilizando visión computacional
Resumen
La gestión de los recursos hidrobiológicos implica tanto el aspecto ecológico a través del equilibrio del ecosistema, como el aspecto económico mediante el control de la cantidad y calidad de los recursos pesqueros producidos en el Perú. En la actualidad, labores relacionadas a esta gestión son realizadas por empresas privadas y entidades del Estado como el Imarpe. La misión de estas es proteger la calidad de los recursos que llegan a los hogares de millones de peruanos. Esta investigación busca desarrollar un sistema para la detección, clasificación y, finalmente, la medición de diversas especies de peces, utilizando técnicas de visión computacional como el algoritmo SURF y redes neuronales convolucionales. Las pruebas, utilizando dos especies de peces, demostraron que la identificación alcanza un nivel de precisión del 90 % y que la clasificación alcanza una precisión del 80 %. Estos valores se obtienen bajo determinadas condiciones que se comentan en el desarrollo del artículo.
Descargas
Citas
Aghdam, O. A. (s. f.). Deep Learning Features for Fish Classification, 3-5.
Brown, M., y Lowe, D. G. (2002). Invariant Features from Interest Point Groups. British Machine Vision Conference. doi:10.1.1.1.8475
Calvo Dopico, D. (2015). Implantación de la trazabilidad y su relación con la calidad: marco conceptual y retos estratégicos. Aplicación al sector pesquero. Economía Agraria y Recursos Naturales, 15(1), 79-98. doi:10.7201/earn.2015.01.05.a
Caribbean Regional Fisheries Mechanism (CRFM). (2016). Manual de sistemas de trazabilidad del pescado y productos pesqueros. Instituto Interamericano de Cooperación para la Agricultura, CRFM Publicación Especial, (13).
Chen, G., Sun, P., y Shang, Y. (2017). Automatic fish classification system using deep learning. 2017 IEEE 29th International Conference on Tools with Artificial Intelligence (ICTAI), 24-29. doi:10.1109/ICTAI.2017.00016
Chincha, R., y Tian, Y. (2011, November). Finding objects for blind people based on SURF features. 2011 IEEE International Conference on Bioinformatics and Biomedicine Workshops (BIBMW). (526-527). IEEE.
Edelman, S., Intrator, N., y Poggio, T. (1997). Complex cells and object recognition. Computer Science.
FAO. (2018). El estado mundial de la pesca y la acuicultura 2018. Cumplir los objetivos de desarrollo sostenible. Roma. Licencia: CC BY-NC-SA 3.0 IGO
Fishing for a Future - Nature Works Everywhere. (s. f.). Recuperado de https://www.natureworkseverywhere.org/resources/fishing-for-a-future/
Fouad, M. M., Zawbaa, H. M., El-Bendary, N., y Hassanien, A. E. (2013). Automatic Nile Tilapia fish classification approach using machine learning techniques. 13th International Conference on Hybrid Intelligent Systems (HIS 2013), 173-178. doi:10.1109/HIS.2013.6920477
Frost, J., Geisler, T., y Mahajan, A. (s. f.). Monitoring illegal fishing through image classification.
Fukushima, K. (1980). Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics, 36. Recuperado de https://www.rctn.org/bruno/public/papers/Fukushima1980.pdf
Harris, C., y Stephens, M. (1988). A combined corner and edge detector. Proceedings of the Alvey Vision Conference 1988. doi:10.5244/C.2.23
He, K., Gkioxari, G., Dollár, P., y Girshick, R. (2017). Mask R-CNN. 2017 IEEE International Conference on Computer Vision (ICCV), 2980-2988. doi:10.1109/ICCV.2017.322
He, K., Zhang, X., Ren, S., y Sun, J. (2015). Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 770-778. doi:10.1109/CVPR.2016.90
Huang, G., Liu, Z., van der Maaten, L., y Weinberger, K. Q., (2017). Densely connected convolutional networks. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2261-2269. doi:10.1109/CVPR.2017.243
Josifovski, J. (s. f.). Object recognition sift vs convolutional neural networks. Recuperado de https://tams.informatik.uni-hamburg.de/lehre/2015ws/seminar/ir/pdf/slides/JosipJosifovskiObject_Recognition_SIFT_vs_Convolutional_Neural_Networks.pdf
Juan, L., y Gwun, O. (2009). A comparison of SIFT, PCA-SIFT and SURF. International Journal of Image Processing (IJIP), 3(4), 143-152.
Karami, E., Prasad, S., y Shehata, M. (2015). Image matching using SIFT, SURF, BRIEF and ORB: Performance comparison for distorted images. Newfoundland Electrical and Computer Engineering Conference.
Krizhevsky, A., Sutskever, I., y Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances In Neural Information Processing Systems, 1-9. doi/10.5555/2999134.2999257
Kruger, N., Janssen, P., Kalkan, S., Lappe, M., Leonardis, A., Piater, J., … Wiskott, L. (2013). Deep hierarchies in the primate visual cortex: What can we learn for computer vision? IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1847-1871. doi:10.1109/TPAMI.2012.272
LeCun, Y., Boser, B., Denker, J. S., Henderson, D., Howard, R. E., Hubbard, W., y Jackel, L. D. (1989). Backpropagation applied to handwritten zip code recognition. Neural Computation, 1(4), 541-551. doi:10.1162/neco.1989.1.4.541
Lowe, D. G. (1999). Object Recognition from Local Scale-Invariant Features (SIFT). International Conference on Computer Vision. doi:10.1109/ICCV.1999.790410
Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2), 91-110. doi:10.1023/B:VISI.0000029664.99615.94
Mahajan, A., y Perkins, A. Whale Detection and Identification from Aerial Photography. Matai, J., Kastner, R., Cutter, G. R., y Demer, D. A. (2012). Automated techniques for detection and recognition of fishes using computer vision algorithms. NOAA Technical Memorandum, 35-37.
Meng, Y., y Tiddeman, B. (2006). Implementing the Scale Invariant Feature Transform (SIFT) Method. Citeseer.
Nadarajan, G., Chen-Burger, J., Fisher, R., y Spampinato, C. (2011). A flexible system for automated composition of intelligent video analysis. ISPA 2011-7th International Symposium on Image and Signal Processing and Analysis, 259-264
Piccardi, M. (2004). Background subtraction techniques: a review. 2004 IEEE International Conference on Systems, Man and Cybernetics. doi:10.1109/ICSMC.2004.1400815
Ren, S., He, K., Girshick, R., y Sun, J. (2016). Faster R-CNN: Towards real-time object detection with region proposal networks. 1-14. doi:10.1109/TPAMI.2016.2577031
Shujuan, S., Zhize, X., Xingang, W., Guan, H., Wenqi, W., y De, X. (2015, May). Real-time vehicle detection using Haar-SURF mixed features and gentle AdaBoost classifier. The 27th Chinese Control and Decision Conference (2015 CCDC), 1888-1894. IEEE.
Simonyan, K., y Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556.
Sobral, A., y Vacavant, A. (2014). A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos. Computer Vision and Image Understanding, 122, 4-21. doi:10.1016/j.cviu.2013.12.005
Sociedad Nacional de Pesquería (2018). Exportaciones pesqueras. Recuperado de https://www.snp.org.pe/wp-content/uploads/2019/02/REPORTE-DE-LAS-EXPORT.-PESQUERAS-A%C3%91O-2018.pdf
Suleiman, A., Chen, Y. H., Emer, J., y Sze, V. (2017). Towards closing the energy gap between HOG and CNN features for embedded vision (invited paper). Proceedings - IEEE International Symposium on Circuits and Systems. doi:10.1109/ISCAS.2017.8050341
Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., y Rabinovich, A. (2014). Going deeper with convolutions. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1-9. doi:10.1109/CVPR.2015.7298594
Tareen, S. A., y Saleem, Z. (2018). A comparative analysis of SIFT, SURF, KAZE, AKAZE, ORB, and BRISK. 2018 International Conference on Computing, Mathematics and Engineering Technologies (ICoMET), 1-10. doi:10.1109/ICOMET.2018.8346440
Treiber, M. A. (2010). An introduction to object recognition: selected algorithms for a wide variety of applications. Springer Science & Business Media.
Vedaldi, A. (2006). An implementation of SIFT detector and descriptor. University of California at Los Angeles, 7.
Zeiler, M. D., y Fergus, R. (2014). LNCS 8689 - Visualizing and understanding convolutional networks. Computer Vision, ECCV 2014 - 13th European Conference, Proceedings. Recuperado de https://cs.nyu.edu/~fergus/papers/zeilerECCV2014.pdf