Por que algumas empresas estão pensando em adicionar 'controles de feedback humano' aos modernos sistemas de IA? Apresentado por: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q:

Autor: Roger Morrison
Data De Criação: 25 Setembro 2021
Data De Atualização: 9 Poderia 2024
Anonim
Por que algumas empresas estão pensando em adicionar 'controles de feedback humano' aos modernos sistemas de IA? Apresentado por: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnologia
Por que algumas empresas estão pensando em adicionar 'controles de feedback humano' aos modernos sistemas de IA? Apresentado por: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnologia

Contente

Apresentado por: AltaML



Q:

Por que algumas empresas estão pensando em adicionar "controles de feedback humano" aos modernos sistemas de IA?

UMA:

Algumas empresas que trabalham com a tecnologia de ponta da IA ​​estão trabalhando para instituir controles humanos para esses sistemas, dando às ferramentas de aprendizado de máquina e de aprendizado profundo alguma supervisão humana direta. Essas empresas também não são pequenas - o DeepMind, do Google, e o OpenAI, de Elon Musk, são dois exemplos de grandes empresas que estão aprendendo sobre os avanços da inteligência artificial. Com isso em mente, os resultados diferem - por exemplo, o DeepMind tem sido objeto de controvérsia por sua falta de vontade de fornecer dados importantes ao público, enquanto o OpenAI é muito mais, bem, abrir sobre seu trabalho no controle da inteligência artificial.

Mesmo os notáveis ​​como Bill Gates refletiram sobre o assunto, Gates disse que ele é um dos muitos que estão preocupados com o surgimento de uma superinteligência artificial que, de alguma forma, pode ir além do controle humano. Musk, por sua vez, também apresentou uma linguagem alarmante sobre a possibilidade de "IA desonesta".


Essa é provavelmente a razão mais urgente pelas quais as empresas estão trabalhando para aplicar controles humanos à IA - a idéia de que alguma singularidade tecnológica resultará em uma tecnologia sensível superpoderosa que os humanos simplesmente não podem mais controlar. Desde o início das ambições humanas, colocamos ferramentas para garantir que possamos controlar os poderes que exercemos - sejam cavalos com rédeas e arreios, eletricidade em fios isolados ou qualquer outro tipo de mecanismo de controle, o controle é uma função humana inata e, portanto, faz todo o sentido do mundo que, à medida que a inteligência artificial se aproxima da funcionalidade real, os humanos aplicam seus próprios controles diretos para manter esse poder sob controle.

No entanto, o medo de robôs super inteligentes não é a única razão pela qual as empresas aplicam controles humanos ao aprendizado de máquina e a projetos de IA. Outro motivo importante é o viés da máquina - essa é a idéia de que os sistemas de inteligência artificial geralmente são limitados na maneira como avaliam os dados em questão - para que amplifiquem qualquer viés inerente ao sistema. A maioria dos profissionais que lidam com aprendizado de máquina pode contar histórias de horror sobre sistemas de TI que não foram capazes de tratar grupos de usuários humanos - seja disparidade étnica ou de gênero ou alguma outra falha do sistema em realmente entender as nuances de nossas sociedades humanas e como interagimos com as pessoas.


Em certo sentido, podemos colocar controles humanos nos sistemas porque temos medo de que sejam poderosos demais - ou alternativamente, porque temos medo de que não sejam poderosos o suficiente. Os controles humanos ajudam a direcionar os conjuntos de dados de aprendizado de máquina para fornecer mais precisão. Eles ajudam a reforçar idéias que o computador simplesmente não pode aprender por conta própria, ou porque o modelo não é sofisticado o suficiente, porque a IA não avançou o suficiente, ou porque algumas coisas estão na província da cognição humana. A inteligência artificial é excelente para algumas coisas - por exemplo, um sistema baseado em recompensa e pontuação permitiu que uma inteligência artificial vencesse um jogador humano no imensamente complexo jogo de tabuleiro “Go” - mas, para outras coisas, esse sistema baseado em incentivos é totalmente inadequado.

Em poucas palavras, existem inúmeras razões convincentes para manter os usuários humanos diretamente envolvidos em como os projetos de inteligência artificial funcionam. Mesmo as melhores tecnologias de inteligência artificial podem pensar muito por conta própria - mas sem um cérebro humano biológico real que possa processar coisas como emoções e costumes sociais, elas simplesmente não conseguem enxergar o cenário em termos humanos.

Uma empresa qualificada de aprendizado de máquina pode ajudar a encontrar esse equilíbrio com uma mistura de especialistas em negócios e no assunto, além de desenvolvedores de aprendizado de máquina com as habilidades necessárias para resolver problemas de grandes empresas.