Por que o viés de máquina é um problema no aprendizado de máquina? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q:

Autor: Roger Morrison
Data De Criação: 25 Setembro 2021
Data De Atualização: 6 Poderia 2024
Anonim
Por que o viés de máquina é um problema no aprendizado de máquina? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnologia
Por que o viés de máquina é um problema no aprendizado de máquina? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnologia

Contente

Q:

Por que o viés de máquina é um problema no aprendizado de máquina?


UMA:

Esta pergunta pode ser respondida de duas maneiras diferentes. Primeiro, por que o problema de viés de máquina, como em, por que existe nos processos de aprendizado de máquina?

O aprendizado de máquina, embora sofisticado e complexo, é em certa medida limitado com base nos conjuntos de dados que ele usa. A construção dos conjuntos de dados envolve viés inerente. Assim como na mídia, onde omissões e escolhas deliberadas de inclusão podem mostrar um viés específico, no aprendizado de máquina, os conjuntos de dados usados ​​devem ser examinados para determinar que tipo de viés existe.


Por exemplo, é um problema comum para testes de tecnologia e processos de design mostrar preferência por um tipo de usuário em detrimento de outro. Um grande exemplo é a disparidade de gênero no mundo da tecnologia.

Por que isso faz diferença e por que se aplica ao aprendizado de máquina?


Como a falta de mulheres existentes em um ambiente de teste pode levar a uma tecnologia produzida que é menos amigável para o público feminino. A maneira como alguns especialistas descrevem isso é que, sem os testes femininos existentes, o produto final pode não reconhecer a opinião das usuárias - pode não ter as ferramentas para reconhecer identidades femininas ou lidar adequadamente com as contribuições das mulheres.

O mesmo vale para várias etnias, pessoas de diferentes religiões ou qualquer outro tipo de demografia. Sem os dados corretos, os algoritmos de aprendizado de máquina não funcionarão corretamente para um determinado conjunto de usuários, para que os dados de inclusão sejam deliberadamente adicionados à tecnologia. Em vez de apenas pegar conjuntos de dados primários e reforçar o viés inerente, os manipuladores humanos precisam realmente analisar o problema.


Outro exemplo é um mecanismo de aprendizado de máquina que coleta informações de emprego e salário e divulga resultados. Se esse conjunto de dados inerente não for analisado, a máquina reforçará o viés. Se perceber que os homens mantêm a grande maioria dos cargos executivos, e o processo de aprendizado de máquina envolver a filtragem do conjunto de dados brutos e o retorno dos resultados correspondentes, retornará resultados que mostrem um viés masculino.

A segunda parte da pergunta envolve por que esse viés é tão prejudicial. Sem supervisão e teste adequados, as novas tecnologias podem prejudicar, e não ajudar, nosso senso de inclusão e igualdade. Se for lançado um novo produto de tecnologia que reconheça rostos com pele mais clara, mas não de pele mais escura, isso poderá levar a tensões étnicas crescentes e à sensação de que a empresa em questão não é sensível à diversidade. Se um algoritmo de aprendizado de máquina reproduzir e aumentar o viés nos conjuntos de dados, essa inteligência artificial adicionará sua voz às vozes humanas e às tendências humanas que já existem no sistema social que favorecem um grupo de pessoas em detrimento de outro.

A melhor maneira de lidar com isso é examinar atentamente os conjuntos de dados subjacentes, usar a seleção de recursos, adicionar entrada variável e manipular os próprios conjuntos de dados brutos, e aumentar o poder real do aprendizado de máquina com a criação de dados humana deliberada, para obter uma resultado que oferece grande poder analítico, mas também algumas dessas idéias humanas que os computadores ainda não podem replicar.