1.28.2016

Inteligência artificial: super máquina

Computador vence um profissional de go, milenar jogo chinêsO feito, alcançado por especialistas do Google, apresenta uma nova forma de inteligência artificial

Publicação: 28/01/2016 

Com um placar de cinco partidas a zero, o sistema Alpha Go venceu o atual campeão europeu, Fan Hui. Foto: Google DeepMind/Divulgação
Com um placar de cinco partidas a zero, o sistema Alpha Go venceu o atual campeão europeu, Fan Hui. Foto: Google DeepMind/Divulgação
Em 1996, o supercomputador Deep Blue, da IBM, fez história ao derrotar o então campeão mundial de xadrez, Garry Kasparov. Apesar da impressionante habilidade do jogador soviético, capaz de antecipar mentalmente até 15 jogadas durante uma partida, a máquina se mostrava superior, acumulando o resultado de milhares de jogos em seu poderoso conjunto de mais de 250 processadores. Uma década depois, a história da inteligência artificial ganha um novo e importante capítulo, escrito também em um jogo de tabuleiro. Pesquisadores do Google DeepMind, um dos braços de pesquisas da gigante da internet, desenvolveram um sistema com a capacidade de derrotar um mestre em go, milenar jogo chinês de estratégia. Com um placar de cinco partidas a zero, o sistema Alpha Go venceu o atual campeão europeu, Fan Hui, tornando-se o primeiro programa computacional a derrotar um profissional nessa modalidade.

O jogo chinês representava um dos maiores desafios para a ciência computacional, por envolver uma infinidade de possibilidades que não poderiam ser calculadas nem mesmo pela máquina mais poderosa: o número de combinações possíveis num tabuleiro de go é maior do que a quantidade estimada de átomos no Universo. Portanto, um sistema como o Deep Blue, que previa todos os possíveis cenários gerados por cada jogada, seria inútil em uma partida dessas. Era necessário desenvolver um novo tipo de inteligência artificial, que dedicasse menos aos cálculos e mais à avaliação das melhores opções disponíveis.

Os pesquisadores do Google resolveram esse problema combinando duas redes neurais conhecidas como deep neural networks, que imitam o funcionamento do cérebro humano. A primeira seleciona um conjunto promissor de jogadas entre todos os movimentos possíveis, com base na situação do tabuleiro. A segunda se concentra em analisar os movimentos sugeridos e determinar qual é a melhor estratégia. O sistema foi colocado para aprender com especialistas, enfrentou outros programas desenvolvidos para jogar go e passou algum tempo treinando em partidas contra ele mesmo. Depois de ser aprimorado, o programa atingiu uma taxa de sucesso de 99,8%, com uma estimativa de apenas um erro cometido a cada 500 partidas.

A maior prova da capacidade de AlphaGo seria vencer um profissional humano, uma tarefa nunca antes cumprida com sucesso pelos programas anteriores. Em um resultado impressionante de cinco partidas a zero, o computador mostrou que estava entre os melhores. Até então, acreditava-se que o desenvolvimento de um programa capaz de vencer um especialista em go levaria mais uma década de pesquisas.

Aprendizado contínuo
A cada rodada de go, é possível realizar até 200 movimentos, um número consideravelmente maior do que a média de 20 jogadas possíveis no xadrez. No entanto, durante a partida contra Fan, o AlphaGo, graças à sua forma de funcionamento, teve de avaliar um conjunto milhares de vezes menor de posições do que as que Deep Blue fez em seus embates com Kasparov. “Essa abordagem faz do AlphaGo um programa muito mais parecido com os humanos do que outros mecanismos de busca”, avalia David Silver, que participou do desenvolvimento do sistema. “Queríamos vencer os melhores jogadores humanos e não apenas imitá-los. Para fazer isso, AlphaGo aprende e descobre novas estratégias por si mesmo”, ressalta o pesquisador.

De acordo com a avaliação de especialistas, os pesquisadores atingiram o objetivo. “Ao analisar os jogos contra Fan Hui, eu fiquei muito impressionado pela força do AlphaGo, e, na verdade, achei difícil decidir que lado era o computador”, observa Jon Diamond, presidente da Associação Britânica de Go. O próximo desafio de AlphaGo será em março, quando o programa enfrentará o sul-coreano Lee Sedol, o melhor do mundo.

O feito computacional ganhou destaque na capa da edição de ontem da Nature, uma das revistas científicas de maior prestígio internacional, e pode mudar a forma como as máquinas pensam. No ano passado, o mesmo grupo publicou um trabalho em que descreveu um programa capaz de jogar uma série de games eletrônicos do console Atari sem qualquer tipo de instrução. Ao desenvolver raciocínios mecânicos mais próximos aos dos humanos, os pesquisadores acreditam que será possível desenvolver sistemas capazes de sugerir soluções em pesquisas científicas e até mesmo diagnósticos médicos. “Um dos aspectos mais significativos disso tudo é que o AlphaGo não é apenas um sistema especialista, com movimentos programados. Ele usa técnicas de aprendizado de máquina para definir como vencer”, acredita Demis Hassabis, que também assina o artigo.

Na opinião do especialista João Paulo Pordeus, professor e integrante do Grupo de Pesquisa de Lógica e Inteligência Artificial (LOGIA), da Universidade Federal do Ceará (UFC), o resultado da partida entre homem e máquina foi bastante significativo. “Usam a inteligência artificial para jogos como um meio de mostrar que os programas conseguem resolver problemas difíceis. No mundo real, é mais complicado, são infinitas possibilidades de coisas para se fazer. Então, essa é mais uma demonstração da capacidade do pessoal que trabalha com deep mind de conseguir resolver problemas cada vez mais complicados, se aproximando cada vez mais das coisas difíceis do mundo”, avalia o brasileiro.

Desafio milenar
Go, também conhecido como igo, weiqi ou baduk, é um jogo criado há mais de 3 mil anos na China e que tem uma dinâmica simples: os dois jogadores são representados por peças pretas e brancas. O tabuleiro começa vazio e, ao longo da partida, os competidores posicionam as peças, uma a uma, onde quiserem, mas, uma vez colocada, a pedra não pode ser mais mexida. Se uma pessoa conseguir cercar as peças do adversário no tabuleiro, ele a captura. O objetivo do jogo é dominar a maior parte do território. Assim, vence o jogador que tiver mais peças no tabuleiro no fim da partida.

Facebook tenta
No mesmo dia da publicação da pesquisa sobre o trabalho da Google DeepMind, o fundador do Facebook, Mark Zuckerberg, postou na rede social um comentário sobre o trabalho que sua empresa está fazendo para também desenvolver um jogador computadorizado de go. De acordo com Zuckerberg, o grupo de pesquisa em inteligência artificial do Facebook trabalha no projeto há seis meses e “muito próximo” de dominar o jogo. O sistema, revelou o empresário, seria capaz de realizar jogadas em 0,1 segundo

Nenhum comentário: