Sistema de auxílio na locomoção de deficientes visuais
Palavras-chave:
Deficientes visuais, Visão computacional, Inteligência artificial, Dispositivo guia, AcessibilidadeResumo
O objetivo deste artigo é descrever a elaboração de um sistema inovador no ramo de mobilidade para deficientes visuais. A observação cotidiana evidencia sérias dificuldades no deslocamento urbano, principalmente em locais desconhecidos. O fluxo intenso de pessoas, ruídos, obstáculos físicos e inacessibilidade de informações sobre o local, são os principais problemas diariamente enfrentados pelos deficientes visuais. O sistema proposto baseia-se na utilização de um par de óculos providos de microfone, fones de ouvido e sensores ópticos. O software se encarrega da análise de dados coletados pelos periféricos, localização no ambiente, descrição de rotas, detecção de obstáculos e de pessoas, e reconhecimento de caracteres. A implementação de algoritmos de visão computacional, foi criada em linguagem Python, se alia à biblioteca OpenCV e Scikit-image. A partir da informação da planta do local, o software identifica a posição exata do dispositivo no ambiente assim como os obstáculos à sua volta, para então, guiar o deficiente visual via sintetização vocal.
Downloads
Referências
BERNARDES, Júlio et al. Sistema ajuda portador de deficiência visual a se locomover. 2016. Disponível em: <https://www.revistaespacios.com/a16v37n09/16370920.html> Acesso em: out. 2018.
BRADSKI, Gary; KAEHLER, Adrian. Learning OpenCV: Computer vision with the OpenCV library. Editora O'Reilly Media, Inc. 2008.
CAO, Mingwei. Py-MVO: Monocular Visual Odometry using Python. Disponível em: <https://github.com/caomw/visual_odometry-1> Acesso em fev. 2020.
COLDEWEY, Devin. WTF is computer vision? – Disponível em: https://techcrunch.com/2016/11/13/wtf-is-computer-vision/ Acesso em mar. 2020.
CHATTERBOT; About ChatterBot. 2018. Disponível em: <https://chatterbot.readthedocs.io/en/stable/index.html> Acesso em: out. 2018
CORKE, P; STRELOW, D; SINGH, S. Omnidirectional Visual Odometry for a Planetary Rover. Carnegie Mellon University, 2004.
COX, Gunther. ChatterBot Language Training Corpus. 2020. Repositório GitHub. Disponível em: < https://github.com/gunthercox/chatterbot-corpus> Acesso em fev. 2020.
GADGET. Dicionário online Oxford, 09 fev. 2020. Disponível em <https://www.oxfordlearnersdictionaries.com/definition/english/gadget> Acesso em: fev. 2020.
GIZMODO. Uma câmera que pode ser colocada em quaisquer óculos é uma baita solução para deficientes visuais, jan. 2019. Disponível em: <https://gizmodo.uol.com.br/orcam-myeye-2-ces-2019> Acesso em: jan. 2019
GSTT. Cloud Speech-To-Text. Disponível em: <https://cloud.google.com/speech-to-text> Acesso em: fev. 2020.
IBGE. INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA. Censo Demográfico 2010. Características gerais da população, religião e pessoas com deficiência. Disponível em: <https://biblioteca.ibge.gov.br/visualizacao/periodicos/94/cd_2010_religiao_deficiencia.pdf> Acesso em fev. 2020.
KITTI. KARLSRUHE INSTITUTE OF TECHNOLOGY E TOYOTA INSTITUTO TECNOLÓGICO EM CHICAGO. The KITTI Vision Benchmark Suite. Disponível em: <http://www.cvlibs.net/datasets/kitti/> Acesso em: fev. 2020.
LEONHARDT, M. D. Doroty: um Chatterbot para Treinamento de Profissionais Atuantes no Gerenciamento de Redes de Computadores. Dissertação (Mestrado em Ciência da Computação) Pós-Graduação em Computação do Instituto de Informática da Universidade Federal do Rio Grande do Sul, Porto Alegre, 2005. Disponível em: <https://lume.ufrgs.br/handle/10183/5659> Acesso em: out. 2018.
LIU, W. et al. SSD: Single shot multibox detector. arXiv 2016. Disponível em: <https://arxiv.org/abs/1512.02325> Acesso em: fev. 2020.
MCCARTHY, J. What is artificial intelligence? - Stanford University. Computer Science Department, nov./2007. Disponível em: < http://www-formal.stanford.edu/jmc/whatisai/> Acesso em: fev. 2020.
NISTÉR, David; NARODITSKY, Oleg; BERGEN, James. “Visual odometry”. Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2004. CVPR 2004. Ieee, 2004. p. I-I. Disponível em: https://ieeexplore.ieee.org/document/1315094/references#references Acesso em: out. 2018.
OCR. Dicionário online Oxford, 09 fev. 2020. Disponível em <https://www.oxfordlearnersdictionaries.com/definition/english/ocr> Acesso em: fev. 2020.
OPENCV. Object Tracking: 2017a. Disponível em: <https://docs.opencv.org/3.3.1/dc/d6b/group__video__track.html#ga473e4b886d0bcc6b65831eb88ed93323> Acesso em fev. 2018.
OPENCV. Optical Flow. 2017b. Disponível em <https://docs.opencv.org/3.3.1/d7/d8b/tutorial_py_lucas_kanade.html> Acesso em fev. 2018.
ORCAM. OrCam MyEye 2 - uma tecnologia de visão revolucionária. 2017. Disponível em: <https://www.orcam.com/pt/myeye2/> Acesso em: fev. 2018.
PIRES, João. et. al. Sistema GPS, 2013/2014. Projeto FEUP. UNIVERSIDADE DO PORTO. Disponível em: < https://paginas.fe.up.pt/~projfeup/bestof/13_14/index.html> Acesso em: fev. 2018
RIBEIRO, Marcos. O que é API e como ela aumenta a produtividade nas empresas. Disponível: < https://pluga.co/blog/api/o-que-e-api/> Acesso em: mar. 2020.
SANDLER, Mark et al. Mobilenetv2: Inverted residuals and linear bottlenecks. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2018. p. 4510-4520.
SCARAMUZZA, Davide; FRAUNDORFER, Friedrich. Visual odometry [tutorial]. IEEE robotics & automation magazine, v. 18, n. 4, p. 80-92, 2011. Disponível em: <https://www.ifi.uzh.ch/dam/jcr:5759a719-55db-4930-8051-4cc534f812b1/VO_Part_I_Scaramuzza.pdf> Acesso em fev. 2020.
SINGH, Avi. Visual Odometry from scratch, 2015. Disponível em: <https://avisingh599.github.io/vision/visual-odometry-full/> Acesso em: mar. 2019.
SISCOUTTO, Robson. et. al. Realidade Virtual: Conceitos e Tendências. In: Estereoscopia. São saulo: Ed. Mania do Livro, 2004, p. [179] -201.
SMITH, R. "An Overview of the Tesseract OCR Engine," Ninth International Conference on Document Analysis and Recognition (ICDAR 2007), Parana, 2007, pp. 629-633.
SORIA, E; MARTIN, J; MAGDALENA, R; MARTINEZ, M; SERRANO, A. Handbook of Research on Machine Learning Application. IGI GLOBAL, 2009.
STIVANELLO, Mauricio. Desenvolvimento de uma biblioteca para sistemas de visão estereoscópica para robótica móvel. Dissertação (Mestrado em Engenharia Elétrica) Programa de Pós-Graduação em Engenharia Elétrica. 2008. Disponível em: <http://repositorio.ufsc.br/xmlui/handle/123456789/92029> Acesso em mar. 2019.
TESSERACT. Tesseract OCR. Disponível em <https://github.com/tesseract-ocr/tesseract> Acesso em fev. 2020.
VAN DER WALT, Stefan et al. Scikit-image: image processing in Python. PeerJ, v. 2, p. e453, 2014.
WEST, J; VENTURA, D; WARNICK, S. Spring Research Presentation: A Theoretical Foundation for Inductive Transfer. Brigham Young University, College of Physical and Mathematical Sciences, 2007.
WEWALK. WeWALK Smart Cane. Disponível em: <https://wewalk.io> Acesso em: fev. 2020.
ZAFFARI, Felipe Pozueco; ESPÍNDOLA, Jean Carlo de Borba. Conceitos – O que é a inteligência artificial. In: BARONE, Dante Augusto Couto; BOESING, Ivan Jorge. Inteligência Artificial: diálogo entre mentes e máquinas. – Porto Alegre: AGE / Evangraf, 2015, p.119
Publicado
Como Citar
Edição
Seção
Copyright (c) 2020 Diego Antônio Amâncio Duarte, Gabriel Tamujo Meyrer, Thais de Oliveira Tonel, Marcos Freire Machado
Este trabalho está licensiado sob uma licença Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Autores/as que publicam nesta revista concordam com os seguintes termos:
- Autores/as mantém os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons Attribution que permite o compartilhamento do trabalho com reconhecimento da autoria e publicação inicial nesta revista para fins não comerciais.
- Autores/as têm autorização para assumir contratos adicionais separadamente, para distribuição não-exclusiva da versão do trabalho publicada nesta revista (ex.: publicar em repositório institucional ou como capítulo de livro), com reconhecimento de autoria e publicação inicial nesta revista.