Sistema de detección y clasificación de peces utilizando visión computacional

  • Rodrigo Mejía Universidad de Lima, Perú
  • Gianfranco Rosales Universidad de Lima, Perú
Palabras clave: visión computacional, SURF, background subtraction, border detection, red neuronal convolucional, machine learning, detección, clasificación, inceptionV3, peces, CNN

Resumen

La gestión de los recursos hidrobiológicos implica tanto el aspecto ecológico a través del equilibrio del ecosistema, como el aspecto económico mediante el control de la cantidad y calidad de los recursos pesqueros producidos en el Perú. En la actualidad, labores relacionadas a esta gestión son realizadas por empresas privadas y entidades del Estado como el Imarpe. La misión de estas es proteger la calidad de los recursos que llegan a los hogares de millones de peruanos. Esta investigación busca desarrollar un sistema para la detección, clasificación y, finalmente, la medición de diversas especies de peces, utilizando técnicas de visión computacional como el algoritmo SURF y redes neuronales convolucionales. Las pruebas, utilizando dos especies de peces, demostraron que la identificación alcanza un nivel de precisión del 90 % y que la clasificación alcanza una precisión del 80 %. Estos valores se obtienen bajo determinadas condiciones que se comentan en el desarrollo del artículo.

Descargas

La descarga de datos todavía no está disponible.

Citas

Aghdam, O. A. (s. f.). Deep Learning Features for Fish Classification, 3-5.

Brown, M., y Lowe, D. G. (2002). Invariant Features from Interest Point Groups. British Machine Vision Conference. doi:10.1.1.1.8475

Calvo Dopico, D. (2015). Implantación de la trazabilidad y su relación con la calidad: marco conceptual y retos estratégicos. Aplicación al sector pesquero. Economía Agraria y Recursos Naturales, 15(1), 79-98. doi:10.7201/earn.2015.01.05.a

Caribbean Regional Fisheries Mechanism (CRFM). (2016). Manual de sistemas de trazabilidad del pescado y productos pesqueros. Instituto Interamericano de Cooperación para la Agricultura, CRFM Publicación Especial, (13).

Chen, G., Sun, P., y Shang, Y. (2017). Automatic fish classification system using deep learning. 2017 IEEE 29th International Conference on Tools with Artificial Intelligence (ICTAI), 24-29. doi:10.1109/ICTAI.2017.00016

Chincha, R., y Tian, Y. (2011, November). Finding objects for blind people based on SURF features. 2011 IEEE International Conference on Bioinformatics and Biomedicine Workshops (BIBMW). (526-527). IEEE.

Edelman, S., Intrator, N., y Poggio, T. (1997). Complex cells and object recognition. Computer Science.

FAO. (2018). El estado mundial de la pesca y la acuicultura 2018. Cumplir los objetivos de desarrollo sostenible. Roma. Licencia: CC BY-NC-SA 3.0 IGO

Fishing for a Future - Nature Works Everywhere. (s. f.). Recuperado de https://www.natureworkseverywhere.org/resources/fishing-for-a-future/

Fouad, M. M., Zawbaa, H. M., El-Bendary, N., y Hassanien, A. E. (2013). Automatic Nile Tilapia fish classification approach using machine learning techniques. 13th International Conference on Hybrid Intelligent Systems (HIS 2013), 173-178. doi:10.1109/HIS.2013.6920477

Frost, J., Geisler, T., y Mahajan, A. (s. f.). Monitoring illegal fishing through image classification.

Fukushima, K. (1980). Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics, 36. Recuperado de https://www.rctn.org/bruno/public/papers/Fukushima1980.pdf

Harris, C., y Stephens, M. (1988). A combined corner and edge detector. Proceedings of the Alvey Vision Conference 1988. doi:10.5244/C.2.23

He, K., Gkioxari, G., Dollár, P., y Girshick, R. (2017). Mask R-CNN. 2017 IEEE International Conference on Computer Vision (ICCV), 2980-2988. doi:10.1109/ICCV.2017.322

He, K., Zhang, X., Ren, S., y Sun, J. (2015). Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 770-778. doi:10.1109/CVPR.2016.90

Huang, G., Liu, Z., van der Maaten, L., y Weinberger, K. Q., (2017). Densely connected convolutional networks. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2261-2269. doi:10.1109/CVPR.2017.243

Josifovski, J. (s. f.). Object recognition sift vs convolutional neural networks. Recuperado de https://tams.informatik.uni-hamburg.de/lehre/2015ws/seminar/ir/pdf/slides/JosipJosifovskiObject_Recognition_SIFT_vs_Convolutional_Neural_Networks.pdf

Juan, L., y Gwun, O. (2009). A comparison of SIFT, PCA-SIFT and SURF. International Journal of Image Processing (IJIP), 3(4), 143-152.

Karami, E., Prasad, S., y Shehata, M. (2015). Image matching using SIFT, SURF, BRIEF and ORB: Performance comparison for distorted images. Newfoundland Electrical and Computer Engineering Conference.

Krizhevsky, A., Sutskever, I., y Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances In Neural Information Processing Systems, 1-9. doi/10.5555/2999134.2999257

Kruger, N., Janssen, P., Kalkan, S., Lappe, M., Leonardis, A., Piater, J., … Wiskott, L. (2013). Deep hierarchies in the primate visual cortex: What can we learn for computer vision? IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1847-1871. doi:10.1109/TPAMI.2012.272

LeCun, Y., Boser, B., Denker, J. S., Henderson, D., Howard, R. E., Hubbard, W., y Jackel, L. D. (1989). Backpropagation applied to handwritten zip code recognition. Neural Computation, 1(4), 541-551. doi:10.1162/neco.1989.1.4.541

Lowe, D. G. (1999). Object Recognition from Local Scale-Invariant Features (SIFT). International Conference on Computer Vision. doi:10.1109/ICCV.1999.790410

Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2), 91-110. doi:10.1023/B:VISI.0000029664.99615.94

Mahajan, A., y Perkins, A. Whale Detection and Identification from Aerial Photography. Matai, J., Kastner, R., Cutter, G. R., y Demer, D. A. (2012). Automated techniques for detection and recognition of fishes using computer vision algorithms. NOAA Technical Memorandum, 35-37.

Meng, Y., y Tiddeman, B. (2006). Implementing the Scale Invariant Feature Transform (SIFT) Method. Citeseer.

Nadarajan, G., Chen-Burger, J., Fisher, R., y Spampinato, C. (2011). A flexible system for automated composition of intelligent video analysis. ISPA 2011-7th International Symposium on Image and Signal Processing and Analysis, 259-264

Piccardi, M. (2004). Background subtraction techniques: a review. 2004 IEEE International Conference on Systems, Man and Cybernetics. doi:10.1109/ICSMC.2004.1400815

Ren, S., He, K., Girshick, R., y Sun, J. (2016). Faster R-CNN: Towards real-time object detection with region proposal networks. 1-14. doi:10.1109/TPAMI.2016.2577031

Shujuan, S., Zhize, X., Xingang, W., Guan, H., Wenqi, W., y De, X. (2015, May). Real-time vehicle detection using Haar-SURF mixed features and gentle AdaBoost classifier. The 27th Chinese Control and Decision Conference (2015 CCDC), 1888-1894. IEEE.

Simonyan, K., y Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556.

Sobral, A., y Vacavant, A. (2014). A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos. Computer Vision and Image Understanding, 122, 4-21. doi:10.1016/j.cviu.2013.12.005

Sociedad Nacional de Pesquería (2018). Exportaciones pesqueras. Recuperado de https://www.snp.org.pe/wp-content/uploads/2019/02/REPORTE-DE-LAS-EXPORT.-PESQUERAS-A%C3%91O-2018.pdf

Suleiman, A., Chen, Y. H., Emer, J., y Sze, V. (2017). Towards closing the energy gap between HOG and CNN features for embedded vision (invited paper). Proceedings - IEEE International Symposium on Circuits and Systems. doi:10.1109/ISCAS.2017.8050341

Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., y Rabinovich, A. (2014). Going deeper with convolutions. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1-9. doi:10.1109/CVPR.2015.7298594

Tareen, S. A., y Saleem, Z. (2018). A comparative analysis of SIFT, SURF, KAZE, AKAZE, ORB, and BRISK. 2018 International Conference on Computing, Mathematics and Engineering Technologies (ICoMET), 1-10. doi:10.1109/ICOMET.2018.8346440

Treiber, M. A. (2010). An introduction to object recognition: selected algorithms for a wide variety of applications. Springer Science & Business Media.

Vedaldi, A. (2006). An implementation of SIFT detector and descriptor. University of California at Los Angeles, 7.

Zeiler, M. D., y Fergus, R. (2014). LNCS 8689 - Visualizing and understanding convolutional networks. Computer Vision, ECCV 2014 - 13th European Conference, Proceedings. Recuperado de https://cs.nyu.edu/~fergus/papers/zeilerECCV2014.pdf

Publicado
2020-07-15
Cómo citar
Mejía, R., & Rosales, G. (2020). Sistema de detección y clasificación de peces utilizando visión computacional. Actas Del Congreso Internacional De Ingeniería De Sistemas, 127-141. https://doi.org/10.26439/ciis2019.5507