Computador vence um profissional de go, milenar jogo chinêsO feito, alcançado por especialistas do Google, apresenta uma nova forma de inteligência artificial
Publicação: 28/01/2016
Com um placar de cinco partidas a zero, o sistema Alpha Go venceu o atual campeão europeu, Fan Hui. Foto: Google DeepMind/Divulgação |
O jogo chinês representava um dos maiores desafios para a ciência computacional, por envolver uma infinidade de possibilidades que não poderiam ser calculadas nem mesmo pela máquina mais poderosa: o número de combinações possíveis num tabuleiro de go é maior do que a quantidade estimada de átomos no Universo. Portanto, um sistema como o Deep Blue, que previa todos os possíveis cenários gerados por cada jogada, seria inútil em uma partida dessas. Era necessário desenvolver um novo tipo de inteligência artificial, que dedicasse menos aos cálculos e mais à avaliação das melhores opções disponíveis.
Os pesquisadores do Google resolveram esse problema combinando duas redes neurais conhecidas como deep neural networks, que imitam o funcionamento do cérebro humano. A primeira seleciona um conjunto promissor de jogadas entre todos os movimentos possíveis, com base na situação do tabuleiro. A segunda se concentra em analisar os movimentos sugeridos e determinar qual é a melhor estratégia. O sistema foi colocado para aprender com especialistas, enfrentou outros programas desenvolvidos para jogar go e passou algum tempo treinando em partidas contra ele mesmo. Depois de ser aprimorado, o programa atingiu uma taxa de sucesso de 99,8%, com uma estimativa de apenas um erro cometido a cada 500 partidas.
A maior prova da capacidade de AlphaGo seria vencer um profissional humano, uma tarefa nunca antes cumprida com sucesso pelos programas anteriores. Em um resultado impressionante de cinco partidas a zero, o computador mostrou que estava entre os melhores. Até então, acreditava-se que o desenvolvimento de um programa capaz de vencer um especialista em go levaria mais uma década de pesquisas.
Aprendizado contínuo
A cada rodada de go, é possível realizar até 200 movimentos, um número consideravelmente maior do que a média de 20 jogadas possíveis no xadrez. No entanto, durante a partida contra Fan, o AlphaGo, graças à sua forma de funcionamento, teve de avaliar um conjunto milhares de vezes menor de posições do que as que Deep Blue fez em seus embates com Kasparov. “Essa abordagem faz do AlphaGo um programa muito mais parecido com os humanos do que outros mecanismos de busca”, avalia David Silver, que participou do desenvolvimento do sistema. “Queríamos vencer os melhores jogadores humanos e não apenas imitá-los. Para fazer isso, AlphaGo aprende e descobre novas estratégias por si mesmo”, ressalta o pesquisador.
De acordo com a avaliação de especialistas, os pesquisadores atingiram o objetivo. “Ao analisar os jogos contra Fan Hui, eu fiquei muito impressionado pela força do AlphaGo, e, na verdade, achei difícil decidir que lado era o computador”, observa Jon Diamond, presidente da Associação Britânica de Go. O próximo desafio de AlphaGo será em março, quando o programa enfrentará o sul-coreano Lee Sedol, o melhor do mundo.
O feito computacional ganhou destaque na capa da edição de ontem da Nature, uma das revistas científicas de maior prestígio internacional, e pode mudar a forma como as máquinas pensam. No ano passado, o mesmo grupo publicou um trabalho em que descreveu um programa capaz de jogar uma série de games eletrônicos do console Atari sem qualquer tipo de instrução. Ao desenvolver raciocínios mecânicos mais próximos aos dos humanos, os pesquisadores acreditam que será possível desenvolver sistemas capazes de sugerir soluções em pesquisas científicas e até mesmo diagnósticos médicos. “Um dos aspectos mais significativos disso tudo é que o AlphaGo não é apenas um sistema especialista, com movimentos programados. Ele usa técnicas de aprendizado de máquina para definir como vencer”, acredita Demis Hassabis, que também assina o artigo.
Na opinião do especialista João Paulo Pordeus, professor e integrante do Grupo de Pesquisa de Lógica e Inteligência Artificial (LOGIA), da Universidade Federal do Ceará (UFC), o resultado da partida entre homem e máquina foi bastante significativo. “Usam a inteligência artificial para jogos como um meio de mostrar que os programas conseguem resolver problemas difíceis. No mundo real, é mais complicado, são infinitas possibilidades de coisas para se fazer. Então, essa é mais uma demonstração da capacidade do pessoal que trabalha com deep mind de conseguir resolver problemas cada vez mais complicados, se aproximando cada vez mais das coisas difíceis do mundo”, avalia o brasileiro.
Desafio milenar
Go, também conhecido como igo, weiqi ou baduk, é um jogo criado há mais de 3 mil anos na China e que tem uma dinâmica simples: os dois jogadores são representados por peças pretas e brancas. O tabuleiro começa vazio e, ao longo da partida, os competidores posicionam as peças, uma a uma, onde quiserem, mas, uma vez colocada, a pedra não pode ser mais mexida. Se uma pessoa conseguir cercar as peças do adversário no tabuleiro, ele a captura. O objetivo do jogo é dominar a maior parte do território. Assim, vence o jogador que tiver mais peças no tabuleiro no fim da partida.
Facebook tenta
No mesmo dia da publicação da pesquisa sobre o trabalho da Google DeepMind, o fundador do Facebook, Mark Zuckerberg, postou na rede social um comentário sobre o trabalho que sua empresa está fazendo para também desenvolver um jogador computadorizado de go. De acordo com Zuckerberg, o grupo de pesquisa em inteligência artificial do Facebook trabalha no projeto há seis meses e “muito próximo” de dominar o jogo. O sistema, revelou o empresário, seria capaz de realizar jogadas em 0,1 segundo
Nenhum comentário:
Postar um comentário