Fazer login no IT Mídia Redefinir senha
Bem-vindo de volta,
Digite seu e-mail e clique em enviar
Ainda não tem uma conta? Cadastre-se
Salvar em Nova pasta de favoritos

+

Criar pasta
Salvar Escolher Pasta
Na estante do CIO -Superinteligência: Caminhos, Perigos, Estratégias
Home > Tendências

Na estante do CIO -Superinteligência: Caminhos, Perigos, Estratégias

As máquinas vão superar a inteligência humana. É só uma questão de tempo. E o desafio passa a ser controlar como essa superinteligência irá se desenvolver

Cezar Taurion *

18/07/2016 às 7h01

Foto:

Acabei de ler o instigante e polêmico livro
Superintelligence: paths, dangers, strategies”, de Nick Bostrom, diretor do Future of Humanity Institute, da
Universidade de Oxford, no Reino Unido. 

Surpreendentemente, apesar do tema aparentemente ser
inóspito, ele foi um dos best sellers do New York Times! E debate um assunto
que, no mínimo, merece atenção: a possibilidade real do advento de máquinas com
superinteligência, os benefícios e os riscos associados.

maquinainteligentegd_625

O autor pondera a consideração dos cientistas de que o
planeta passou por cinco eventos de extinções em massa, quando um grande número
de espécimes desapareceu. O fim dos dinossauros, por exemplo, foi um deles. Hoje
estaríamos vivendo um sexto evento, causado pela atividade humana. Claro que podem
existir razões exógenas, como a chegada de um meteoro, mas ele se concentra mesmo
na possibilidade  da criação de máquinas
superinteligentes que parecem ter saído de filmes de ficção científica como o
“Exterminador do Futuro”.  E pergunta,
será que nós não estaremos na lista das espécies que serão extintas? 

O livro desperta polêmica e parece meio alarmista, mas suas
suposições podem, sim, se tornar realidade. Alguns cientistas se posicionam a
favor deste alerta, como Stephen Hawking, que disse textualmente: “The development of full artificial
intelligence could spell the end of the human race
”. Também Elon Musk, fundador
e CEO da Tesla Motors, tuitou recentemente: “Worth reading Superintelligence by Bostrom. We need to be super careful
with AI. Potentially more dangerous than nukes
”.

Pelo lado positivo, Bostrom aponta que a criação destas
máquinas pode acelerar exponencialmente o processo de descobertas científicas,
abrindo novas possibilidade para a vida humana. Uma questão em aberto é quando
tal capacidade de inteligência seria possível. Uma pesquisa feita com
pesquisadores de IA, apontam que uma máquina superinteligente - Human Level Machine Intelligence (HLMI) –
tem 10% de chance de aparecer por volta de 2020 e 50% em torno de 2050. Para
2100, a probabilidade é de 90%!

Fazer previsões e acertar é muito difícil. Por exemplo, em
uma palestra em setembro de 1933, o famoso físico Ernest Rutherford afirmou que
qualquer um que dissesse que a energia poderia ser derivada do átomo “was talking moonshine”, nas suas
palavras. Mas no dia seguinte, o cientista húngaro mostrou conceitualmente como
isso poderia ser feito. Stuart Russel, professor de ciência de computação da
Universidade da Califórnia disse ““The
gap between authoritative statements of technological impossibility and the
‘miracle of understanding’... that renders the impossible possible may
sometimes be measured not in centuries . . . but in hours
”. Ou seja, o que
pensamos que só irá acontecer em 30 anos pode aparecer em cinco!

Bostrom evita fazer previsões, mas lembra que estamos nos
movendo muito rapidamente. Ele cita o exemplo do AlphaGo, criado pela DeepMind (empresa do Google), que
venceu o campeão mundial de Go, um jogo extremamente difícil. Considerado um
feito que não se esperava que acontecesse antes de mais uma década. As grandes
empresas de tecnologia como Google, Facebook,
Baidu, Microsoft, e IBM estão investindo pesado em IA.

capadolivro

A leitura do livro me inspirou a escrever esse artigo, que
pode ser ficção ou antecipação científica. Creio que vale a pena debater o
assunto, polêmico por natureza. Nós, seres humanos, somos uma  tecno-espécie, o que significa que sempre
usamos a tecnologia para evoluirmos, da enxada à locomotiva, ao avião e agora
aos computadores. Muitas inovações foram não cognitivas. Nos ajudaram a nos
mover mais rapidamente (automóveis) ou sermos mais fortes fisicamente (tratores
e guindastes). Mas a computação e a Internet são inovações cognitivas, que
expandem nossa capacidade mental. Portanto, temos condições de, no futuro, criar
máquinas superinteligentes.

Mas como se comportarão tais máquinas? De imediato, e até
mesmo incentivados pelos filmes que vemos, podemos imaginar robôs inteligentes,
mas sem capacidade de interação social. Serão lógicos, mas não criativos e
intuitivos. Características que seriam o grande diferencial do ser humano. Sim,
essa é a realidade hoje, quando a IA ainda está na sua infância. No máximo
teríamos uma máquina, similar a um humano excelente em matemática e algoritmos,
mas ruim em interações sociais. Quem viu o seriado “The Big Bang Theory” (eu vi
toda a série) imediatamente se lembrará do Sheldon Cooper.

CIO2503

E-book por:

Mas e se o sistema conseguir evoluir automaticamente, pelo
auto aprendizado, como propõe o AlpghaGo? Ele não poderia, por si, construir
camadas cognitivas que incluam funcionalidades como empatia?

Uma máquina que alcance um QI elevadíssimo, como agiria?
Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no
aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500?
Não temos a mínima ideia do que poderia ser gerado por tal capacidade.

Como seria essa evolução? Primeiramente as nossas futuras pesquisas
em IA criarão uma máquina superinteligente primitiva, embora uma super evolução
do AlphaGo. Essa máquina, entretanto, seria capaz de aumentar sua própria
inteligência, recursiva e exponencialmente, sem demandar apoio de desenvolvedores
humanos.

Suponhamos que as  funcionalidades cognitivas criadas por ela
mesma possibilitem que a máquina planeje estrategicamente (defina objetivos de
longo prazo), desenvolva capacidade de manipulação social (persuasão retórica),
obtenha acessos indevidos através de hacking (explorando falhas de segurança em
outros sistemas) e desenvolva por si mesmo, novas pesquisas tecnológicas,
criando novos componentes que lhe agregarão mais poder computacional ou de
criação de novos objetos. Não poderíamos estar diante de um cenário no qual
essa máquina teria a capacidade de desenhar um plano estratégico que, claro, como
ela é superinteligente, não seria um plano que nós humanos conseguíssemos
detectar? Afinal ela saberia de nossas deficiências... 

Durante um tempo a evolução da máquina seria disfarçada, para
que não fosse identificada. E mesmo confinada a um computador isolado, ela
seria capaz de convencer seus administradores humanos a liberarem acesso à
Internet, através da manipulação social (como hackers fazem hoje) e acessar
todos os computadores ligados à rede, através de hacking. Lembrando que no
futuro teremos não só computadores, mas carros conectados, objetos conectados,
redes elétricas conectadas... tudo conectado. Que a sociedade humana estaria inteiramente
dependente de computadores e objetos conectados. A máquina poderia facilmente
colocar o seu plano de dominação em prática. E se nesse plano, os seres humanos
fossem um entrave? Para ultrapassar esta barreira ao seu plano, ela construiria
nanofábricas que produziriam nanorobôs  capazes de espalhar um vírus mortal por todo o
planeta. E aí...

Parece um roteiro de Hollywood, mas o livro de Bostrom nos
permite pensar livremente nesses cenários. Afinal, como ele mesmo disse, “Before the prospect of AI we are like small
children playing with a bomb
”.

Bem, se for realidade, não seria a extinção em massa de
seres humanos, e ironicamente, criada por nós mesmos? Pelo menos temos muita
gente preocupada com o assunto. Sugiro ler um estudo chamado “Concrete Problems in AI Safety
e para quem quiser se aprofundar no tema, acessar a página  “Benefits
& risks of Artificial Intelligence
”, que contém links para dezenas de vídeos,
artigos e estudos sobre o tema.

Vai um cookie?

A CIO usa cookies para personalizar conteúdo e anúncios, para melhorar sua experiência em nosso site. Ao continuar, você aceitará o uso. Para mais detalhes veja nossa Política de Privacidade.

Este anúncio desaparecerá em:

Fechar anúncio

15