Uma pesquisa desenvolvida na Escola de Engenharia de São Carlos (EESC) da USP promete aprimorar a visão dos robôs, fazendo com que eles enxerguem diversos tipos de ambientes de forma mais detalhada. Os cientistas criaram novos códigos de computador (algoritmos) que melhoraram a percepção de profundidade das máquinas, o que irá facilitar o cálculo das distâncias para os obstáculos e, consequentemente, as manobras para desviar com segurança dos objetos. O trabalho gerou um artigo que foi publicado na Robotics and Autonomous Systems, renomada revista científica internacional.
“Além de ter aplicação em carros autônomos, a técnica poderá beneficiar o trabalho de drones em florestas para a identificação de queimadas e desmatamentos, a atuação de robôs na área da saúde, realizando, por exemplo, exames de colonoscopia em busca de lesões associadas ao câncer, ou até estar presente nos robôs domésticos, que estão cada vez mais inseridos no cotidiano da população ajudando em tarefas diárias e a tornar a vida mais confortável, segura e produtiva. A percepção de profundidade é crucial para que esses robôs entendam o ambiente e possam operar de forma autônoma”, explica Raul de Queiroz Mendes, autor principal do trabalho e mestrando do Programa de Pós-Graduação em Engenharia Elétrica da EESC.
Durante o estudo, os pesquisadores testaram o novo método avaliando imagens de tráfego urbano e de ambientes domésticos, como salas, quartos e cozinhas, coletadas de bancos de dados. De acordo com Eduardo Godinho Ribeiro, doutorando em Engenharia Elétrica da EESC e também autor do estudo, os resultados mostraram que a técnica desenvolvida na USP alcançou uma estimativa de profundidade cerca de 33% mais precisa que a referência pioneira desta área na literatura científica. Considerando apenas as imagens internas, esse número passa de 36%.
Além de serem mais precisos, os novos algoritmos demandam ainda menor poder computacional, proporcionando uma resposta mais rápida do robô. “Nosso trabalho apresenta contribuições com relevante impacto científico para a área e subáreas da Inteligência Artificial e Visão Computacional. Portanto, além dos benefícios do novo método, o artigo que publicamos passa a servir como uma referência atual para os demais trabalhos, contribuindo com aqueles que desejam iniciar pesquisa no ramo”, afirma Valdir Grassi Junior, orientador do trabalho, pesquisador do INCT de Sistemas Autônomos Cooperativos (InSAC) e professor do Departamento de Engenharia Elétrica e de Computação (SEL) da EESC.
Mas, afinal, como o robô é capaz de identificar a profundidade de um ambiente? Diferentemente das técnicas clássicas de Visão Computacional, que se utilizam de relações trigonométricas e comparações entre pares de imagens sob diferentes ângulos, os pesquisadores da USP adotaram os chamados “métodos monoculares baseados em aprendizagem profunda” para determinar as formas e profundidades de um cenário. Segundo os especialistas, esse caminho é mais desafiador e complexo, pois no momento da avaliação é preciso levar em conta algumas “pistas” da imagem, como sombras, iluminação, cor, textura, disposição dos objetos, entre outros elementos que ajudam o sistema robótico a calcular a profundidade.
Pensando em uma aplicação para veículos autônomos, analisar os elementos urbanos com mais rigor pode ser fundamental para a prevenção de acidentes. “Aferir a profundidade de cenas com maior precisão pode melhorar os mecanismos de percepção robótica de carros autônomos, permitindo que eles compreendam melhor o espaço 3D a sua volta e realizem ações mais seguras”, explica Nícolas dos Santos Rosa, um dos autores do trabalho e doutorando em Engenharia Elétrica pela EESC.
Segundo a Organização Mundial da Saúde (OMS), cerca de 1,35 milhão de pessoas morrem em acidentes de trânsito por ano e 50 milhões sobrevivem com lesões que podem levar à invalidez. Como cerca de 94% dos acidentes são causados por falha humana, os veículos autônomos, juntamente com seus mecanismos de percepção, tornam-se uma solução viável contra o grande número de mortes e sequelas provocadas, que envolvem, principalmente, pedestres, ciclistas e motociclistas.
Os próximos passos do estudo envolvem a aplicação da nova técnica no carro autônomo que está sendo desenvolvido no InSAC, em robôs que realizam tarefas de pegar de objetos, além de sua utilização em drones para atividades de inspeção, mapeamento e monitoramento. A pesquisa foi financiada pela Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES).