Recursos/White Papers

Tecnologia

Na estante do CIO -Superinteligência: Caminhos, Perigos, Estratégias

As máquinas vão superar a inteligência humana. É só uma questão de tempo. E o desafio passa a ser controlar como essa superinteligência irá se desenvolver

Cezar Taurion *

Publicada em 18 de julho de 2016 às 08h10

Acabei de ler o instigante e polêmico livro “Superintelligence: paths, dangers, strategies”, de Nick Bostrom, diretor do Future of Humanity Institute, da Universidade de Oxford, no Reino Unido. 

Surpreendentemente, apesar do tema aparentemente ser inóspito, ele foi um dos best sellers do New York Times! E debate um assunto que, no mínimo, merece atenção: a possibilidade real do advento de máquinas com superinteligência, os benefícios e os riscos associados.

maquinainteligentegd_625

O autor pondera a consideração dos cientistas de que o planeta passou por cinco eventos de extinções em massa, quando um grande número de espécimes desapareceu. O fim dos dinossauros, por exemplo, foi um deles. Hoje estaríamos vivendo um sexto evento, causado pela atividade humana. Claro que podem existir razões exógenas, como a chegada de um meteoro, mas ele se concentra mesmo na possibilidade  da criação de máquinas superinteligentes que parecem ter saído de filmes de ficção científica como o “Exterminador do Futuro”.  E pergunta, será que nós não estaremos na lista das espécies que serão extintas? 

O livro desperta polêmica e parece meio alarmista, mas suas suposições podem, sim, se tornar realidade. Alguns cientistas se posicionam a favor deste alerta, como Stephen Hawking, que disse textualmente: “The development of full artificial intelligence could spell the end of the human race”. Também Elon Musk, fundador e CEO da Tesla Motors, tuitou recentemente: “Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes”.

Pelo lado positivo, Bostrom aponta que a criação destas máquinas pode acelerar exponencialmente o processo de descobertas científicas, abrindo novas possibilidade para a vida humana. Uma questão em aberto é quando tal capacidade de inteligência seria possível. Uma pesquisa feita com pesquisadores de IA, apontam que uma máquina superinteligente - Human Level Machine Intelligence (HLMI) – tem 10% de chance de aparecer por volta de 2020 e 50% em torno de 2050. Para 2100, a probabilidade é de 90%!

Fazer previsões e acertar é muito difícil. Por exemplo, em uma palestra em setembro de 1933, o famoso físico Ernest Rutherford afirmou que qualquer um que dissesse que a energia poderia ser derivada do átomo “was talking moonshine”, nas suas palavras. Mas no dia seguinte, o cientista húngaro mostrou conceitualmente como isso poderia ser feito. Stuart Russel, professor de ciência de computação da Universidade da Califórnia disse ““The gap between authoritative statements of technological impossibility and the ‘miracle of understanding’... that renders the impossible possible may sometimes be measured not in centuries . . . but in hours”. Ou seja, o que pensamos que só irá acontecer em 30 anos pode aparecer em cinco!

Bostrom evita fazer previsões, mas lembra que estamos nos movendo muito rapidamente. Ele cita o exemplo do AlphaGo, criado pela DeepMind (empresa do Google), que venceu o campeão mundial de Go, um jogo extremamente difícil. Considerado um feito que não se esperava que acontecesse antes de mais uma década. As grandes empresas de tecnologia como Google, Facebook, Baidu, Microsoft, e IBM estão investindo pesado em IA.

capadolivro

A leitura do livro me inspirou a escrever esse artigo, que pode ser ficção ou antecipação científica. Creio que vale a pena debater o assunto, polêmico por natureza. Nós, seres humanos, somos uma  tecno-espécie, o que significa que sempre usamos a tecnologia para evoluirmos, da enxada à locomotiva, ao avião e agora aos computadores. Muitas inovações foram não cognitivas. Nos ajudaram a nos mover mais rapidamente (automóveis) ou sermos mais fortes fisicamente (tratores e guindastes). Mas a computação e a Internet são inovações cognitivas, que expandem nossa capacidade mental. Portanto, temos condições de, no futuro, criar máquinas superinteligentes.

Mas como se comportarão tais máquinas? De imediato, e até mesmo incentivados pelos filmes que vemos, podemos imaginar robôs inteligentes, mas sem capacidade de interação social. Serão lógicos, mas não criativos e intuitivos. Características que seriam o grande diferencial do ser humano. Sim, essa é a realidade hoje, quando a IA ainda está na sua infância. No máximo teríamos uma máquina, similar a um humano excelente em matemática e algoritmos, mas ruim em interações sociais. Quem viu o seriado “The Big Bang Theory” (eu vi toda a série) imediatamente se lembrará do Sheldon Cooper.

Mas e se o sistema conseguir evoluir automaticamente, pelo auto aprendizado, como propõe o AlpghaGo? Ele não poderia, por si, construir camadas cognitivas que incluam funcionalidades como empatia?

Uma máquina que alcance um QI elevadíssimo, como agiria? Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500? Não temos a mínima ideia do que poderia ser gerado por tal capacidade.

Como seria essa evolução? Primeiramente as nossas futuras pesquisas em IA criarão uma máquina superinteligente primitiva, embora uma super evolução do AlphaGo. Essa máquina, entretanto, seria capaz de aumentar sua própria inteligência, recursiva e exponencialmente, sem demandar apoio de desenvolvedores humanos.

Suponhamos que as  funcionalidades cognitivas criadas por ela mesma possibilitem que a máquina planeje estrategicamente (defina objetivos de longo prazo), desenvolva capacidade de manipulação social (persuasão retórica), obtenha acessos indevidos através de hacking (explorando falhas de segurança em outros sistemas) e desenvolva por si mesmo, novas pesquisas tecnológicas, criando novos componentes que lhe agregarão mais poder computacional ou de criação de novos objetos. Não poderíamos estar diante de um cenário no qual essa máquina teria a capacidade de desenhar um plano estratégico que, claro, como ela é superinteligente, não seria um plano que nós humanos conseguíssemos detectar? Afinal ela saberia de nossas deficiências... 

Durante um tempo a evolução da máquina seria disfarçada, para que não fosse identificada. E mesmo confinada a um computador isolado, ela seria capaz de convencer seus administradores humanos a liberarem acesso à Internet, através da manipulação social (como hackers fazem hoje) e acessar todos os computadores ligados à rede, através de hacking. Lembrando que no futuro teremos não só computadores, mas carros conectados, objetos conectados, redes elétricas conectadas... tudo conectado. Que a sociedade humana estaria inteiramente dependente de computadores e objetos conectados. A máquina poderia facilmente colocar o seu plano de dominação em prática. E se nesse plano, os seres humanos fossem um entrave? Para ultrapassar esta barreira ao seu plano, ela construiria nanofábricas que produziriam nanorobôs  capazes de espalhar um vírus mortal por todo o planeta. E aí...

Parece um roteiro de Hollywood, mas o livro de Bostrom nos permite pensar livremente nesses cenários. Afinal, como ele mesmo disse, “Before the prospect of AI we are like small children playing with a bomb”.

Bem, se for realidade, não seria a extinção em massa de seres humanos, e ironicamente, criada por nós mesmos? Pelo menos temos muita gente preocupada com o assunto. Sugiro ler um estudo chamado “Concrete Problems in AI Safety” e para quem quiser se aprofundar no tema, acessar a página  “Benefits & risks of Artificial Intelligence”, que contém links para dezenas de vídeos, artigos e estudos sobre o tema.



Reportagens mais lidas

Acesse a comunidade da CIO

LinkedIn
A partir da comunidade no LinkedIn, a CIO promove a troca de informações entre os líderes de TI. Acesse aqui