Por que IAs superinteligentes não destruirão humanos tão cedo

Autor: Roger Morrison
Data De Criação: 1 Setembro 2021
Data De Atualização: 1 Julho 2024
Anonim
Por que IAs superinteligentes não destruirão humanos tão cedo - Tecnologia
Por que IAs superinteligentes não destruirão humanos tão cedo - Tecnologia

Contente


Fonte: Willyambradberry / Dreamstime.com

Leve embora:

Apesar de algumas das grandes obras de ficção científica que inspirou, os especialistas explicam que a IA provavelmente não nos ameaçará diretamente em termos de supremacia mental.

Se você está prestando atenção no que as pessoas estão falando no espaço tecnológico, você pode ter ouvido alguma versão das preocupações que Elon Musk, Bill Gates e outros têm sobre tecnologias de inteligência artificial superinteligentes - embora relatórios recentes mostrem que Gates esfriou um pouco em todas essas coisas de Cassandra, ainda há muita preocupação e raciocínio por trás disso.

As perguntas são muitas: os robôs se tornarão mais inteligentes que os humanos? A IA assumirá nossos empregos e nossas vidas? A tecnologia começará a controlar os seres humanos e os problemas com IA mal utilizada levarão à violência e à destruição?


Para muitos especialistas, a resposta é um retumbante "não", com base nas formas reais pelas quais estamos desenvolvendo as tecnologias atuais. A maioria concorda que precisamos de estruturas éticas e explicáveis ​​para direcionar as tecnologias de IA e ML - mas eles não concordam que os overlords de robôs sejam um resultado determinado.

Vamos analisar alguns dos debates em torno da superinteligência e ver por que muitos tecnólogos estão confiantes de que os humanos ainda manterão as rédeas em algumas centenas de anos.

Os seres humanos assumem a liderança

Quando você analisa as preocupações com a IA, um nome que aparece bastante é Grady Booch. Booch foi pioneiro na UML (Unified Modeling Language) e trabalhou nas principais tecnologias da IBM no início do milênio.

Uma palestra do TED de Booch ilustra um pouco de seu otimismo sobre os tipos de IA que costumávamos considerar ficção científica.


Em primeiro lugar, ele argumenta, o treinamento humano flexionará sua própria ética e normas no funcionamento dos sistemas de IA.

"Se eu quiser criar um assistente jurídico artificialmente inteligente, ensinarei a ele algum corpus da lei, mas ao mesmo tempo estou fundindo com ele o senso de misericórdia e justiça que faz parte dessa lei", diz Booch. "Em termos científicos, é o que chamamos de verdade do solo, e aqui está o ponto importante: ao produzir essas máquinas, estamos ensinando a elas um senso de nossos valores. Para esse fim, confio em uma inteligência artificial da mesma forma que um ser humano bem treinado, se não mais. ”(Para saber mais sobre o futuro (e o passado) da IA, consulte o artigo Thinking Machines: The Artificial Intelligence Debate).

Sem erros, sem estresse - seu guia passo a passo para criar software que muda vidas sem destruir sua vida

Você não pode melhorar suas habilidades de programação quando ninguém se importa com a qualidade do software.

Mais tarde na conversa, Booch traz outro argumento muito diferente sobre por que não precisamos temer uma aquisição pelas tecnologias.

"(Uma ameaça existencial para a humanidade a partir da tecnologia) teria que ser com uma superinteligência", diz Booch. “Teria que ter domínio sobre todo o mundo. Esse é o material da Skynet do filme 'O Exterminador do Futuro', no qual tínhamos uma superinteligência que comandava a vontade humana, que dirigia todos os dispositivos que estavam em todos os cantos do mundo. Praticamente falando, isso não vai acontecer. Não estamos construindo IAs que controlam o clima, que direcionam as marés, que nos comandam seres humanos caprichosos e caóticos. Além disso, se tal inteligência artificial existisse, ela teria que competir com as economias humanas e, portanto, competir por recursos conosco ... no final (não conte à Siri), podemos sempre desconectá-los. "

Nossos cérebros, nossos corpos

Outro argumento importante para a supremacia da cognição humana sobre a tecnologia está relacionado à exploração do cérebro humano.

Se você for ao YouTube e ouvir o renomado engenheiro Marvin Minsky, um dos pioneiros em ML e um exemplo para Ray Kurzweil e outros gurus da IA ​​de hoje, você pode ouvi-lo falando sobre o cérebro humano. Minsky enfatiza que a inteligência humana real não é um supercomputador poderoso, mas centenas de computadores diferentes interconectados de maneiras complexas. A IA, ele explica, pode replicar algumas dessas máquinas, mas não chega nem perto de replicar todas elas.

Para muitos especialistas em tecnologia, a IA nunca será capaz de imitar verdadeiramente a complexidade do cérebro humano e, portanto, sempre será inatamente menos poderosa.

"As IAs geralmente não são projetadas para sobreviver, mas para resolver problemas muito específicos e centrados nas pessoas, como jogar xadrez", escreveu Luc Claustres, Ph.D. final do ano passado. "Como tal, eles nem conseguem se adaptar a pequenas mudanças em seu ambiente sem reprogramá-las, enquanto os humanos gerenciam imprecisões ou alteram regras facilmente".

IA e Intuição

Há também um argumento corolário que se baseia no que você pode chamar de "problema da guarda de cruzamento" - expõe os limites do que a inteligência artificial pode fazer. A IA e a ML são ótimas em extrair insights de um conjunto diversificado de dados - mas não são boas na intuição, algo pelo qual os humanos são conhecidos. Portanto, em outras palavras, se você contratou um computador como guarda de travessia, poderá ter algumas funcionalidades - mas provavelmente terá algumas lacunas muito perigosas - nas quais não confiaria em seus filhos! (Para saber mais sobre o potencial da IA ​​para pensamentos semelhantes aos humanos, consulte A criatividade pode ser implementada na IA?)

Dessa forma, os programas de computador não conseguem entender nossas peculiaridades e idiossincrasias humanas na maneira como nos comunicamos e na maneira como vivemos - então essa é outra limitação importante.

Para saber mais sobre por que as preocupações com superinteligência podem ser exageradas, um artigo da Wired no ano passado por Kevin Kelly aborda algumas suposições que seriam necessárias para que a IA realmente assumisse o controle de qualquer maneira prática. Isso inclui o seguinte:

  • Que a inteligência artificial já está dominando a cognição humana
  • Essa inteligência pode ser expandida sem limite
  • Essa super inteligência pode resolver a maioria dos problemas que os humanos enfrentam

Lendo o artigo, você vê todas essas suposições explodidas e tratadas para mostrar, novamente, por que a cognição humana é tão especial.

Não é que a tecnologia não se torne poderosa - será. É uma questão de todas as diferentes dimensões que precisam ser dominadas para tornar a IA mais poderosa que os humanos. Os seres humanos evoluíram ao longo de milhões e milhões de anos - a inteligência artificial existe há cerca de 20 anos e, embora tenha feito enormes avanços, os seres humanos ainda têm a vantagem, e provavelmente sempre terão.

Se você ler alguns desses links e observar o que as pessoas estavam dizendo, o que realmente deveria nos preocupar mais é com nós mesmos. Existe um potencial abundante para que os humanos usem mal a tecnologia - de fato, muitos de nós diriam que já abusamos de muitas das tecnologias que possuímos. Portanto, esse pode ser realmente um lugar melhor para colocar a ansiedade e a ação quando se trata de criar IA ética.