Potencializando a classificação de imagens com eficiência e robustez através da FiberNet
DOI:
https://doi.org/10.22481/recic.v5i1.13177Palavras-chave:
rede neural convolucional, classificação de imagem, deep learning, Agave Sisalana, SisalResumo
Um modelo baseado em CNN que utiliza um pequeno número de parâmetros treináveis pode trazer vários benefícios importantes para diferentes domínios de aplicação. Entre eles, podemos mencionar o processo de treinamento mais rápido, o que significa que sua implementação pode ser feita de forma mais eficiente e rápida. Além deste, nós podemos citar também a redução significativa na probabilidade de overfitting e a redução no consumo dos recursos computacionais necessários para a execução, o que pode ser muito útil em sistemas embarcados e outros dispositivos com hardware limitado. Portanto, neste artigo, nós propomos o modelo FiberNet, que é uma rede neural convolucional (CNN) simples e eficiente que produz um pequeno número de parâmetros treináveis e alta velocidade de inferência. O objetivo principal é fornecer uma alternativa eficiente para aplicações móveis, bem como aplicações que requerem modelos compactos. Para avaliar a eficácia da FiberNet, nós realizamos um estudo empírico comparativo entre os resultados do nosso modelo e o resultado de outros modelos que são considerados como o estado da arte. Essa comparação foi realizada em dois conjuntos de dados de imagens diferentes, um dos quais é o conhecido conjunto de dados CIFAR10. Como resultado, o modelo FiberNet obteve uma precisão de 96,25% no conjunto de dados Sisal, 74,90% no conjunto de dadosCIFAR10 e foi o primeiro em total de parâmetros treináveis com 754.345 (39,57% menor em relação ao segundo colocado)
Downloads
Referências
A. AGRAWAL, and N. MITTAL. Using CNN for facial expression recognition: a study of the effects of kernel size and number of filters on accuracy. The Visual Computer, v. 36, no. 2, p. 405-412, 2020.
A. GEIFMAN. The Correct Way to Measure Inference Time of Deep Neural Networks. May 05, 2020. Available at: "https://towardsdatascience.com/the -correct-way-to-measure-inference-time-of-deep-neural-networks-304a54e5187f" (Accessed on: March 22, 2021).
A. HOWARD et al. Searching for mobilenetv3. In: Proceedings of the IEEE/CVF international conference on computer vision. 2019. p. 1314-1324.
A. KRIZHEVSKY, I. SUTSKEVER and GE. HINTON. Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems, v. 25, p. 1097-1105, 2012.
C. SZEGEDY, et al. Going deeper with convolutions. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2015. p. 1-9.
DA. TEICH and PR. TECH. PLASTER: A Framework for Deep Learning Performance. Tech. rep. TIRIAS Research, 2018.
FN. IANDOLA. et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 0.5 MB model size. arXiv preprint arXiv:1602.07360, 2016.
GE. HINTON, N. SRIVASTAVA, A. KRIZHEVSKY, I. SUTSKEVER and RR. SALAKHUTDINOV. Improving neural networks by preventing co-adaptation of feature detectors. arXiv preprint arXiv:1207.0580, 2012.
G. HUANG, Z. LIU, LVD. MAATEN and KQ. WEINBERGER. Densely connected convolutional networks. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2017. p. 4700-4708.
H. GHOLAMALINEZHAD and H. KHOSRAVI. Pooling Methods in Deep Neural Networks, a Review. arXiv preprint arXiv:2009.07485, 2020.
HOWARD, Andrew G. et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications. arXiv preprint arXiv:1704.04861, 2017.
K. PEARSON. On the theory of contingency and its relation to association and normal correlation. Drapers' Company Research Memoirs. Biometric series I: Dulau and Co, 1904.
K. Simonyan and A. Zisserman. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014.
LIU, Huajie et al. Lightweight convolutional neural network for counting densely piled steel bars. Automation in Construction, v. 146, p. 104692, 2023.
M. FRIEDMAN. The use of ranks to avoid the assumption of normality implicit in the analysis of variance. Journal of the American Statistical Association, v. 32, no. 200, p. 675-701, 1937.
M. SANDLER, A. HOWARD, M. ZHU, A. ZHMOGINOV and L. CHEN. Mobilenetv2: Inverted residuals and linear bottlenecks. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2018. p. 4510-4520.
M. TAN and Q. LE. EfficientNet: Rethinking model scaling for convolutional neural networks. In: International Conference on Machine Learning. PMLR, 2019. p. 6105-6114.
M. TAN and Q. LE. Efficientnetv2: Smaller models and faster training. In: International Conference on Machine Learning. PMLR, 2021. p. 10096-10106.
N. MA, X. ZHANG, H. ZHENG and J. SUN. ShuffleNet v2: Practical guidelines for efficient CNN architecture design. In: Proceedings of the European conference on computer vision (ECCV). 2018. p. 116-131.
PB. NEMENYI. Distribution-free multiple comparisons. Princeton University, 1963.
QI, Xuan et al. A Lightweight Binarized Convolutional Neural Network Model for Small Memory and Low-Cost Mobile Devices. Mobile Information Systems, v. 2023, 2023.
S. HOCHREITER. The vanishing gradient problem during learning recurrent neural nets and problem solutions. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, v. 6, no. 02, p. 107-116, 1998.
V. THAMBAWITA, et al. Impact of Image Resolution on Deep Learning Performance in Endoscopy Image Classification: An Experimental Study Using a Large Dataset of Endoscopic Images. Diagnostics, v. 11, no. 12, p. 2183, 2021.
WAN, Hao et al. U2ESPNet—A lightweight and high-accuracy convolutional neural network for real-time semantic segmentation of visible branches. Computers and Electronics in Agriculture, v. 204, p. 107542, 2023.
Downloads
Publicado
Edição
Seção
Licença
Copyright (c) 2023 Revista de Ciência da Computação

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.