Pular para o conteúdo principal

Pesquisadores elaboram princípios éticos para que inteligência artificial não destrua a humanidade



POR SALVADOR NOGUEIRA
Já faz algum tempo que pessoas do calibre de Stephen Hawking e Elon Musk têm apontado que o desenvolvimento cada vez mais acelerado da inteligência artificial pode muito bem ser o maior e mais premente risco ao futuro da humanidade. Agora, um vasto grupo de pesquisadores e apoiadores estabeleceu um conjunto de princípios para nortear a pesquisa sobre IA e evitar que isso aconteça, potencializando ao máximo os ganhos que ela pode trazer ao mundo.

Os Princípios de Inteligência Artificial de Asilomar foram estabelecidos durante a conferência batizada de Beneficial AI 2017 (Inteligência Artificial Benéfica 2017), organizada em Asilomar, na Califórnia, entre os dias 5 e 8 de janeiro deste ano. Organizada pelo Instituto Futuro da Vida, nos EUA, foi a segunda conferência sobre o tema — a primeira aconteceu em 2015, em Porto Rico.

A partir de agora, os cientistas envolvidos com o desenvolvimento de inteligência artificial, seja em universidades, empresas ou institutos militares, têm princípios claros para guiá-los eticamente. Eles não têm força de lei, claro, mas receberam apoio consensual de um grande número de pesquisadores, após terem sido objeto de muitos debates e reformulações.

“Após discussões tão detalhadas, espinhosas e algumas vezes contenciosas e uma ampla variedade de feedbacks, ficamos francamente surpresos com o alto nível de consenso que emergiu em torno de muitas das propostas durante a pesquisa final”, escreveram os organizadores. “Esse consenso nos permitiu estabelecer um patamar alto para a inclusão na lista final: só retivemos princípios que tiveram apoio de pelo menos 90% dos presentes.”

O documento foi assinado por um número expressivo de pesquisadores de robótica e inteligência artificial — até o momento 575 –, dentre eles Peter Norvig e Ray Kurzweil, do Google, e Francesca Rossi e Guru Banavar, da IBM. Entre outros de seus signatários ilustres estão os físicos Stephen Hawking e Max Tegmark, o inventor Elon Musk e o ator Joseph Gordon-Levitt.

Confira abaixo os 23 princípios estabelecidos para garantir que o futuro da pesquisa em IA seja em favor da humanidade, e não de sua extinção.

A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas no mundo todo. Seu contínuo desenvolvimento, guiado pelos princípios a seguir, oferecerá oportunidades incríveis para ajudar e empoderar pessoas por décadas e séculos vindouros.

Questões de pesquisa

1) Meta de pesquisa: A meta da pesquisa em IA deve ser criar não inteligência não direcionada, mas inteligência benéfica.

2) Financiamento de pesquisa: Investimentos em IA devem ser acompanhados por financiamento para pesquisas que garantam seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, como:

– Como podemos fazer sistemas futuros de IA altamente robustos, de forma que eles façam o que queremos sem defeitos ou serem hackeados?

– Como podemos aumentar nossa properidade através da automação enquanto mantemos os recursos e o propósito das pessoas?

– Como podemos atualizar nossos sistemas de leis para serem mais justos e eficientes, acompanharem o avanço da IA, e gerenciem os riscos associados com a IA?

– Com que conjunto de valores a IA deveria estar alinhada, e que status ético e legal ela deveria ter?

3) Elo ciência-política: Deve haver intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.

4) Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser cultivada entre os pesquisadores e desenvolvedores de IA.

5) Prevenção de corridas: Equipes desenvolvendo sistemas de IA devem cooperar ativamente para evitar aparar arestas em padrões de segurança.

Ética e valores

6) Segurança: Sistemas de IA devem ser seguros e preservados durante todo o seu tempo de vida operacional, e de forma verificável quando aplicável e praticável.

7) Transparência de falhas: Se um sistema de IA causar mal, deve ser possível determinar por quê.

8) Transparência de julgamento: Qualquer envolvimento por um sistema autônomo no juízo da tomada de decisões deve fornecer uma explicação satisfatória auditável por uma autoridade humana competente.

9) Responsabilidade: Projetistas e construtores de sistemas de IA avançados são partícipes nas implicações morais de seu uso, mal uso e ações, com uma responsabilidade e oportunidade de moldar essas implicações.

10) Alinhamento de valores: Sistemas de IA altamente autônomos devem ser projetados de forma que suas metas e seus comportamentos possam asseguradamente se alinhar com valores humanos durante todo o tempo de sua operação.

11) Valores humanos: Sistemas de IA devem ser desenhados e operados de modo a ser compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.

12) Privacidade pessoal: As pessoas devem ter o direito ao acesso, gerenciamento e controle dos dados que elas geram, dado o poder que os sistemas de IA têm de analisar e utilizar esses dados.

13) Liberdade e privacidade: A aplicação de IA a dados pessoais não pode de forma irrazoável restringir a liberdade real ou percebida de uma pessoa.

14) Benefício compartilhado: Tecnologias de IA devem beneficiar e empoderar o maior número de pessoas possível.

15) Prosperidade compartilhada: A prosperidade econômica criada por IA deve ser partilhada de forma ampla, para beneficiar toda a humanidade.

16) Controle humano: Os humanos devem escolher como e se irão delegar decisões a sistemas de IA, para realizar objetivos escolhidos por humanos.

17) Não subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e aprimorar, em vez de subverter, os processos sociais e cívicos de que a saúde da sociedade depende.

18) Corrida armamentista de IA: Uma corrida armamentista de sistemas autônomos letais deve ser evitada.

Questões de mais longo prazo

19) Cautela quanto à capacidade: Como não há consenso, devemos evitar pressupostos fortes sobre os limites superiores das capacidades de IA futuras.

20) Importância: IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais.

21) Riscos: Os riscos impostos por sistemas de IA, especialmente os riscos catastróficos ou existenciais, precisam ser submetidos a esforços de planejamento e mitigação proporcionais a seu impacto esperado.

22) Automelhoria recursiva: Sistemas de IA desenhados para se automelhorar ou autoreplicar recursivamente de modo que possam levar a uma quantidade ou qualidade rapidamente crescente precisam estar sujetios a medidas estritas de segurança e controle.

23) Bem comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos largamente compartilhados, e em benefício de toda a humanidade, em vez de um estado ou organização.


E aí, você acha que eles bastam para nos reassegurar de que uma megatragédia não vai ocorrer? Você também pode manifestar seu apoio aos princípios clicando aqui e preenchendo um formulário com seu nome completo, seu cargo, seu e-mail e sua afiliação.

Os 23 itens certamente abrangem uma série de questões que preocupam no desenvolvimento da inteligência artificial, como a falta de controle que poderíamos ter sobre ela ou o potencial disruptivo que ela pode ter na sociedade, acelerando brutalmente a mecanização nos próximos anos. Questões de ordem militar também são abordadas.

Há tanto que discutir sobre IA que é difícil cobrir tudo. Para quem quiser mais uma leitura interessante a respeito do tema, sugiro uma entrevista que fiz para esta Folha com Ray Kurzweil, um dos pesquisadores mais respeitados nesse campo, em 2012. (Nossa, já faz quase cinco anos! Tempo voa!)

De toda forma, o grande problema desses princípios aí é que, de boas intenções, o inferno já está cheio. Ou seja, vamos precisar de mais que isso para garantir que essas diretrizes serão seguidas no futuro. Estou falando de discussões públicas amplas, tratados internacionais, leis, fiscalização e punição severa a quem for pego infringindo as regras.

De outro modo, quem decidirá se vamos terminar com o simpático e inofensivo C-3PO ou com o psicopata HAL 9000?

A discussão começa agora.

FONTE: http://mensageirosideral.blogfolha.uol.com.br/

Comentários

Postagens mais visitadas deste blog

Uma Nova Etapa!

Passados dez anos, Ufos Wilson trocou de nome e plataforma! Agora nos chamamos Banco de Dados Ufológicos e Científicos (BDUC). Nosso conteúdo segue o mesmo, levando informações sérias com foco principal na Ufologia Científica, porém divulgando e abrangendo todas as disciplinas científicas! A seguir o link do site, compartilhem e divulguem: https://bancodedadosufologicosecientificos.wordpress.com/

Arquivo Ovni: Caso Jardinópolis

Jardinópolis esta distante 335 km da capital paulista, localizada na região de Ribeirão Preto foi palco de um acontecimento insólito na noite de 27 de dezembro de 2008, onde um grupo de adolescentes na época teriam presenciado a descida de luzes vermelhas e azuis num terreno baldio próximo de onde estavam, um dos garotos tomou uma imagem com seu celular, porém de baixa resolução. A seguir trecho extraído do blog feito por membros dos familiares dos jovens, contendo relatos e frame do vídeo feito. Relato dos envolvidos: "Por Luciene [AVISTAMENTO DE MEU FILHO] Sábado 27/12/2008, meu filho de 15 anos chega assustado em casa aproximadamente umas 23:45. Meu filho faz parte de um grupo de jovens da igreja católica, e acabando a missa, ele e seus amigos foram para uma pracinha. Essa pracinha fica em um bairro novo. E próximo daquele lugar tem uns terrenos baldios cheios de mato. Eles estavam conversando quando avistaram de longe luzes vermelhas e azuis no céu e logo essa luz

O caso Roswell nordestino: Queda de UFO na Bahia, em Janeiro de 1995

Por Ufo Bahia: Nessa data, as 09:00 horas, uma in­formante do G-PAZ, "M" da TV BAHIA me ligou contando uma mirabolante his­tória de queda de um UFO em Feira deSantana(BA) a 112 Km de Salvador. Umfazendeiro de apelido Beto, tinha ligadopara TV SUBAÉ daquela cidade oferecen­do – em troca de dinheiro – um furo dereportagem; um disco voador tinha caído na sua fazenda e ele tinha provas e ima­gens do fato! Apenas depois do meio dia, conse­gui – por fim – falar com Beto, que apóssua proposta de negócio, ante minha (apa­rente) frieza, me contou com bastante de­talhes o acontecido. Soube que tambémtentara vender suas provas a TV BAHIA,onde procurou o repórter José Raimundo: "Ontem pela madrugada caiu algu­ma coisa na minha fazenda, dentro de umalagoa. Era do tamanho de um fusca; aqui­lo ficou boiando parcialmente submerso,perto da beirada. Tentei puxar como pude,trazendo para perto de mim, com uma vara.Aquilo parecia um parto... (quando seabriu uma porta) começou primeiro a s