Por Lucas França
Sem
dúvida um dos grandes avanços que observamos no mundo se trata da engenharia
robótica e a criação de humanoides cada vez mais complexos. Capazes de realizar
múltiplas funções e buscar dados em milésimos de segundo. Porém, algo curioso
nessa relação é a pouca ‘experiência’ que esses humanoides possuem na hora de
realizar funções que consideramos básicas. Por exemplo, realizar expressões
faciais ou pegar objetos.
E
nessa linha existem inúmeros exemplos:
C3po3
da amada franquia Star Wars não poderia ficar de fora. Sabemos que o mesmo foi
interpretado por um mímico, porém é um bom exemplo dessa ‘superficialidade’
Mas
então o que dizer de Pepper o humanoide japonês que chega ao mercado esse ano.
Ele é capaz de reconhecer expressões humanas e interagir, porém muito estranho
ainda nosso amiguinho quando se pensa em um ‘jeito humano de se mover’. Se você
gostou ele esta avaliado em cerca de 4300 R$.
Então chega! O que seria esse tal de paradoxo
de Moravec e o que ele tem haver com nossos amigos humanoides.
É
preciso analisar que possuímos um
comportamento inverso da inteligência artificial. Em resumo a facilidade
que temos em elaborar um discurso e fazer uma caminhada é totalmente desproporcional
para um robô que pode quantificar milhares de dados por segundo.
Esta
diferença entre a inteligência natural e artificial é conhecida como Paradoxo
de Moravec.
Hans
Moravec, um cientista pesquisador no Instituto de Robótica da Universidade
Carnegie Mellon, nos Estados Unidos, explica essa observação através da ideia
de engenharia reversa em nossos próprios cérebros.
Esta
engenharia reversa parte do pressuposto que é mais difícil para nós seres
humanos reproduzirmos tarefas que realizamos através de forma inconsciente,
como realizar funções motoras.
Já o
pensamento abstrato, que realizamos através de cálculos e resolução de
problemas é algo inserido no comportamento humano a menos de 100 mil anos, logo
a forma de resolver esses problemas abstratos é feita de forma consciente. Portanto,
é muito mais fácil para os cientistas criarem tecnologias que reproduzem esse
tipo de comportamento.
As ações
como falar e se mover são inconscientes. No sentido de que não temos controle
do processo que leva a essas ações – e em muitos casos nem sabemos direito como
acontece. Por isso é mais difícil colocar estas funções em agentes de
inteligência artificial.
A
busca pelo autoconhecimento é algo de interesse em todas as áreas da ciência.
Lucas França: Escreve as sextas sobre ciências e curiosidades. É acadêmico de medicina, não leva tudo a sério demais, é movido por emoções e como todo estudante não nega um convite para um café, bom ou ruim.



Nenhum comentário:
Postar um comentário