You are on page 1of 4

Na semana passada, cientistas se movimentaram para assinar esta carta

aberta. Basicamente, a proposta pede que a humanidade dedique uma poro


da sua pesquisa em inteligncia artificial para alinh-la aos interesses
humanos. Em outras palavras, vamos tentar no criar ns mesmos os
Cavaleiros do Apocalipse, n pessoal?
Embora alguns cientistas revirem os olhos a qualquer meno a uma
Singularidade, muitos especialistas e tecnlogos como, digamos, Stephen
Hawking e Elon Musk vm nos alertando sobre os perigos que a IA pode
representar no futuro. Mas embora recomendem a busca por conhecimento na
rea com cautela, eles so um pouco menos claros sobre o que exatamente
esto tentando alertar.
Felizmente, outros cientistas no fazem cerimnia na hora de pintar o cenrio
do caos. Aqui esto cinco das mais ameaadoras profecias de destruio pela
singularidade que nossas mentes mais brilhantes temem que possam
acontecer.
As mquinas tomaro nossos empregos
O primeiro impacto da tecnologia
Daniel Dewey, pesquisador no Instituto do Futuro da Humanidade, pega carona
no pensamento de Armstrong na Aeon Magazine. Afinal, se e quando os
humanos ficarem obsoletos, viraremos apenas pedras nos sapatos metafricos
dos robs.
. Mas nessa diferena reside o contraste entre sete bilhes de habitantes e um
lugar permanente na lista de espcies ameaadas. Ou seja, possvel que
uma vantagem intelectual relativamente pequena se agrave rapidamente e
torne-se um fator decisivo.
... O problema bsico a forte percepo de que a maioria das motivaes
incompatvel com a existncia humana, diz Dewey. Uma IA pode querer fazer
certas coisas com a matria para alcanar um objetivo, coisas como construir

computadores gigantes, ou outros projetos de engenharia de larga escala.


Essas coisas podem envolver etapas intermedirias, como dilacerar a Terra
para construir enormes painis solares. Uma super-inteligncia pode no levar
os nossos interesses em conta nessas situaes, da mesma forma que no
ligamos para sistemas de razes e colnias de formigas quando vamos
construir um prdio.
Voc poderia dar a ela uma meta benevolente algo fofinho e utilitrio, como
maximizar a felicidade humana. Mas uma IA pode achar que a felicidade
humana um fenmeno bioqumico. Ela pode achar que inundar a nossa
corrente sangunea com doses no letais de herona a melhor forma de
maximizar a nossa felicidade.
A inteligncia artificial no ser to inteligente
Estou especialmente preocupado com o possvel uso militar de sistemas de
armas robticas sistemas que podem tomar a deciso de entrar em uma
batalha sem interveno humana --, precisamente porque a IA atual no
muito boa e pode facilmente piorar uma situao, com consequncias
potencialmente aterrorizantes, disse o Professor Bishop.
Ento fcil concordar que a IA talvez represente uma ameaa existencial
real humanidade sem ter que imaginar que ela algum dia chegue ao nvel de
inteligncia super humana, disse. Devemos temer a IA, mas pelos motivos
contrrios aos dados pelo Professor Hawking, explicou.
A sndrome de Wall-E
Ns notamos que a raa humana pode facilmente se permitir manter em uma
posio de tamanha dependncia das mquinas a ponto de no ter uma
escolha prtica que no a de aceitar todas as decises das mquinas. Na
medida em que a sociedade e os problemas que ela enfrenta se tornam mais e
mais complexos - e as mquinas, mais e mais inteligentes - as pessoas
deixaro que mquinas tomem as decises por elas, simplesmente porque
decises feitas por mquinas traro resultados melhores que as tomadas por
humanos. Em certo ponto, talvez seja alcanado um estgio no qual as

decises necessrias para manter o sistema funcionando sero to complexas


que seres humanos sero incapazes de tom-las de maneira inteligente. Nesse
ponto, as mquinas estaro efetivamente no controle. As pessoas no
conseguiro deslig-las, porque sero to dependentes que o desligamento
equivaleria ao suicdio.
Os robs iro nos devorar
Se as mquinas da nanotecnologia que podem ser cem mil vezes menores
que o dimetro de um fio de cabelo descobrirem como se replicar
espontaneamente,

isso

naturalmente

traria

implicaes

medonhas

humanidade
Se a nanotecnologia desenvolver um apetite pode carne humana ou alguma
das outras coisas de que dependemos para sobreviver, como florestas ou
mquinas --, ela poderia dizimar tudo no planeta em questo de dias. Esses
minirrobs famintos poderiam transformar o nosso lar azul e verde em uma
bola cinzenta

http://www.msn.com/pt-br/noticias/ciencia-e-tecnologia/cinco-especialistasexplicam-como-a-intelig%c3%aancia-artificial-pode-acabar-com-ahumanidade/ar-AA8nVSF?ocid=mailsignoutmd

O fsico mais conhecido do mundo est nos alertando dos riscos da


superinteligncia das mquinas, dizendo que essa pode ser a coisa mais
significativa a acontecer na histria da humanidade e possivelmente a ltima.
A superinteligncia artificial representa uma ameaa em potencial
humanidade, ento bom ver um cientista respeitado como Stephen Hawking
reconhecer a questo e fazer o que pode para espalhar a mensagem.
Hawking, junto com o cientista da computao Stuart Russell e os fsicos Max
Tegmark e Frank Wilczek, diz que os potenciais benefcios podem ser imensos,
mas no podemos prever o que pode ser conseguido quando a inteligncia

artificial estiver bem desenvolvida nem o que pode vir de bom nisso, nem o
que pode acontecer de ruim.

Escrevendo para a The Independent, o cientista alerta:


Olhando para o futuro, no h limites fundamentais para o que pode ser
alcanado: no h nenhuma lei fsica impedindo partculas de se organizarem
de forma que executem clculos ainda mais avanados do que os arranjos de
partculas em crebros humanos. Uma transio explosiva possvel, apesar de
talvez ser um pouco diferente de um filme: como Irving Good percebeu em
1965, mquinas com inteligncia sobre-humana podem repetidamente melhorar
o prprio design, ativando o que Vernor Vinge chamou de singularidade e o
personagem do filme de Johnny Depp chama de transcendncia.
Algum pode pensar que tal tecnologia pode ser mais inteligente que mercados
financeiros, superar pesquisadores humanos, ficar alm da manipulao de
lderes humanos e desenvolver armas que nem conseguimos entender.
Considerando que o impacto de curto prazo da AI depende de quem a controla,
o impacto a longo prazo depende se ela pode ser de alguma forma controlada.
Ento, encarando possveis futuros de benefcios e riscos incalculveis, os
especialistas certamente vo fazer tudo possvel para garantir o melhor
resultado, certo? Errado. Se uma civilizao aliengena superior nos envia uma
mensagem Estamos chegando dentro de algumas dcadas, ns
responderamos apenas Ok, ligue quando estiverem por aqui vamos deixar as
luzes acesas? Provavelmente no mas mais ou menos isso o que est
acontecendo com a inteligncia artificial. Apesar de estarmos prestes a encarar o
que potencialmente ser a melhor ou pior coisa da histria da humanidade,
pouca pesquisa sria est sendo feita sobre essas questes fora de instituies
sem fins lucrativos como o Centro de Estudos de Risco Existencial em
Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de
Inteligncia de Mquina, e o Instituto de Vida Futura. Todos devamos nos
perguntar o que podemos fazer para melhorar as chances de colher os benefcios
e evitar os riscos.
http://gizmodo.uol.com.br/stephen-hawking-inteligencia-artificial/

You might also like