Destaque

Visão computacional versus visão humana: um desafio para a Inteligência Artificial

Fonte

Universidade Linköping

Data

sexta-feira. 17 junho 2022 17:45

Alcançar a complexidade e diversidade da visão humana é um dos principais desafios para a pesquisa em Inteligência Artificial (IA). Na grande maioria dos casos, [ainda] somos melhores que as máquinas para entender o mundo ao nosso redor.

“Em um único dia, nós, humanos, podemos dirigir um carro, mergulhar, acessar uma notícia ou caminhar em uma floresta densa – tudo sem muito esforço. Para um robô, fazer as mesmas coisas atualmente seria impossível”, disse o Dr. Michael Felsberg, professor da Universidade Linköping e um dos principais pesquisadores da Suécia em visão computacional e inteligência artificial.

Nós humanos podemos fazer tudo isso, e muito mais, em grande parte devido à visão. As estimativas dizem que cerca de 80% de nossas impressões nos chegam por meio da visão. É o sentido mais importante para perceber o que acontece ao nosso redor. A pesquisa do professor Michael Felsberg se concentra principalmente no que é chamado de sistema visual artificial, onde o objetivo é fazer com que os computadores vejam tão bem quanto os humanos.

“Os sistemas biológicos simplesmente funcionam. Os seres humanos são notavelmente habilidosos na percepção geral e análise, habilidades que queremos emular em computadores. Hoje podemos construir sistemas técnicos que são bons em realizar uma tarefa específica, como veículos autônomos. Mas se no futuro quisermos colaborar com robôs, eles devem ser capazes de ver e entender exatamente o que vemos”, disse o Dr. Michael Felsberg.

Imitar a visão humana pode parecer fácil à primeira vista. Quando a pesquisa de IA começou, a sensação era de que a visão computacional seria resolvida com uma câmera simples. Agora, quase 60 anos depois, a visão computacional se transformou em um dos desafios mais importantes na pesquisa da IA.

O código é o cérebro

O professor Michael Felsberg e seus colaboradores testam muitas das soluções que desenvolvem no laboratório da Universidade Linköping. Por exemplo, entre as enormes paredes de vidro, drones autônomos e pequenos carros autônomos equipados com sensores e câmeras avançadas são testados. Mas o cérebro real na visão computacional está por trás da lente.

“A câmera é apenas um sensor de luz; não pode fazer mais nada. O trabalho real é feito pelo código e pelo software por trás da câmera. É o mesmo com as pessoas: o olho registra a luz e o cérebro faz o trabalho”, disse o professor.

Houve muitas tentativas de emular o cérebro humano – com resultados variados. Hoje, geralmente é usado um método de aprendizado de máquina chamado aprendizado profundo. Simplificando, significa que o computador aprende com seus modelos organizados em redes neurais. Os algoritmos são alimentados com enormes quantidades de dados, que são analisados em vários níveis. Isso pode parecer complicado, e é. A verdade é que ninguém pode dizer exatamente o que acontece em cada ativação em uma rede profunda.

O professor Michael Felsberg traçou paralelos com o cérebro humano: “Em uma varredura do cérebro, você pode ver quais partes do cérebro estão ativas durante diferentes estímulos. Mas ainda não sabemos o que realmente acontece e como um pensamento é formado no cérebro. O aprendizado profundo funciona de maneira um pouco semelhante. A gente vê que funciona, mas não como funciona em detalhes”, disse o pesquisador.

O caminho a seguir

Mas por que é tão difícil para um computador ver o que vemos? A resposta está na capacidade de nos adaptarmos rapidamente a diferentes situações e no ciclo de feedback entre a percepção do nosso entorno e nossa capacidade cognitiva constantemente ativa.

Olhar para fora através de uma vidraça suja é um exemplo cotidiano de uma situação em que os computadores têm muita dificuldade, mas nós, humanos, administramos muito bem. Vemos imediatamente o que está acontecendo do lado de fora da janela, apesar de nossa visão ligeiramente obstruída. Por outro lado, um computador provavelmente primeiro focará automaticamente a sujeira na vidraça. Mas uma vez que tenha encontrado o foco certo – na cena externa – ainda não entenderá completamente o que está acontecendo, porque parte da visão está bloqueada pela sujeira.

Ainda assim, existem áreas onde os computadores já enxergam melhor do que os humanos – em particular quando se trata de cálculos e avaliações exatas de distâncias, temperaturas e padrões. Nesses casos, a visão computacional pode complementar nossa própria visão, em vez de tirar suas próprias conclusões e agir sobre elas.

“Um sistema técnico funciona bem desde que tudo esteja conforme o esperado. Mas diante de algo inesperado, terá problemas. Devemos trabalhar para tornar os sistemas mais robustos”, concluiu o professor Michael Felsberg.

Acesse a notícia completa na página da Universidade Linköping (em inglês).

Fonte: Anders Törneholm, Universidade Linköping.

Em suas publicações, o Portal Tech4Health da Rede T4H tem o único objetivo de divulgação científica, tecnológica ou de informações comerciais para disseminar conhecimento. Nenhuma publicação do Portal Tech4Health tem o objetivo de aconselhamento, diagnóstico, tratamento médico ou de substituição de qualquer profissional da área da saúde. Consulte sempre um profissional de saúde qualificado para a devida orientação, medicação ou tratamento, que seja compatível com suas necessidades específicas.

Os comentários constituem um espaço importante para a livre manifestação dos usuários, desde que cadastrados no Portal Tech4Health e que respeitem os Termos e Condições de Uso. Portanto, cada comentário é de responsabilidade exclusiva do usuário que o assina, não representando a opinião do Portal Tech4Health, que pode retirar, sem prévio aviso, comentários postados que não estejam de acordo com estas regras.

Leia também

2024 tech4health t4h | Notícias, Conteúdos e Rede Profissional em Saúde e Tecnologias

Entre em Contato

Enviando
ou

Fazer login com suas credenciais

ou    

Esqueceu sua senha?

ou

Create Account