Esses pontos problemáticos estão impedindo as empresas de adotar o aprendizado profundo

Autor: Roger Morrison
Data De Criação: 23 Setembro 2021
Data De Atualização: 1 Julho 2024
Anonim
Esses pontos problemáticos estão impedindo as empresas de adotar o aprendizado profundo - Tecnologia
Esses pontos problemáticos estão impedindo as empresas de adotar o aprendizado profundo - Tecnologia

Contente


Fonte: Agsandrew / Dreamstime.com

Leve embora:

O aprendizado profundo tem muito a oferecer às empresas, mas muitos ainda hesitam em adotá-lo. Aqui, examinamos alguns de seus maiores pontos problemáticos.

O aprendizado profundo é um subcampo do aprendizado de máquina, que (de um modo geral) é uma tecnologia inspirada no cérebro humano e em suas funções. Introduzido pela primeira vez na década de 1950, o aprendizado de máquina é cumulativamente informado pelo que é conhecido como rede neural artificial, uma infinidade de nós de dados interconectados que coletivamente formam a base da inteligência artificial. (Para o básico do aprendizado de máquina, consulte Machine Learning 101.)

O aprendizado de máquina permite essencialmente que os programas de computador se alterem quando solicitados por dados ou programação externos. Por natureza, é capaz de fazer isso sem interação humana. Ele compartilha funcionalidade semelhante com a mineração de dados, mas com resultados extraídos a serem processados ​​por máquinas e não por humanos. É dividido em duas categorias principais: aprendizado supervisionado e não supervisionado.


O aprendizado de máquina supervisionado envolve a inferência de operações predeterminadas por meio de dados de treinamento rotulados. Em outras palavras, os resultados supervisionados são previamente conhecidos pelo programador (humano), mas o sistema que infere os resultados é treinado para "aprendê-los". O aprendizado de máquina não supervisionado, por outro lado, extrai inferências de dados de entrada não rotulados, geralmente como um meio de detectar padrões desconhecidos.

O aprendizado profundo é único em sua capacidade de treinar-se através de algoritmos hierárquicos, em oposição aos algoritmos lineares do aprendizado de máquina. Hierarquias de aprendizado profundo são cada vez mais complexas e abstratas à medida que se desenvolvem (ou “aprendem”) e não dependem de lógica supervisionada. Simplificando, o aprendizado profundo é uma forma altamente avançada, precisa e automatizada de aprendizado de máquina, e está na vanguarda da tecnologia de inteligência artificial.


Aplicativos de negócios do Deep Learning

O aprendizado de máquina já é comumente usado em vários setores diferentes. A mídia social, por exemplo, a utiliza para selecionar feeds de conteúdo nas linhas do tempo do usuário. O Google Brain foi fundado há vários anos com a intenção de produzir aprendizado profundo em toda a gama de serviços do Google à medida que a tecnologia evolui.

Com foco na análise preditiva, o campo do marketing é particularmente investido em inovação de aprendizado profundo. E como a acumulação de dados é o que impulsiona a tecnologia, setores como vendas e suporte ao cliente (que já possuem uma riqueza de dados ricos e diversificados de clientes) estão em uma posição única para adotá-los no nível do solo.

A adaptação precoce à aprendizagem profunda pode muito bem ser o fator determinante em quanto setores específicos se beneficiam com a tecnologia, especialmente em suas fases iniciais. No entanto, alguns pontos problemáticos específicos estão impedindo muitas empresas de mergulhar no investimento em tecnologia de aprendizado profundo.

Os Vs de Big Data e Deep Learning

Em 2001, um analista do META Group (agora Gartner) chamado Doug Laney descreveu o que os pesquisadores consideravam os três principais desafios do big data: volume, variedade e velocidade. Mais de uma década e meia depois, o rápido aumento nos pontos de acesso à Internet (devido em grande parte à proliferação de dispositivos móveis e à ascensão da tecnologia IoT) trouxe essas questões à vanguarda para grandes empresas de tecnologia e pequenas empresas e startups. (Para saber mais sobre os três Vs, consulte o Desafio de Big Data de hoje decorre de variedade, não de volume ou velocidade.)

Sem erros, sem estresse - seu guia passo a passo para criar software que muda vidas sem destruir sua vida

Você não pode melhorar suas habilidades de programação quando ninguém se importa com a qualidade do software.

Estatísticas recentes sobre o uso global de dados são impressionantes. Estudos indicam que aproximadamente 90% de todos os dados do mundo foram criados apenas nos últimos dois anos. O tráfego móvel mundial atingiu cerca de sete exabytes por mês em relação a 2016, segundo uma estimativa, e esse número deverá aumentar cerca de sete vezes na próxima meia década.

Além do volume, a variedade (a crescente diversidade de tipos de dados à medida que as novas mídias evoluem e se expandem) e a velocidade (a velocidade na qual as mídias eletrônicas são enviadas aos data centers e hubs) também são fatores importantes na forma como as empresas estão se adaptando ao crescente campo. de aprendizagem profunda. E para expandir o dispositivo mnemônico, várias outras palavras-v foram adicionadas à lista de pontos problemáticos de big data nos últimos anos, incluindo:

  • Validade: A medição da precisão dos dados de entrada em sistemas de big data. Dados inválidos que não são detectados podem causar problemas significativos e reações em cadeia em ambientes de aprendizado de máquina.
  • Vulnerabilidade: Big Data naturalmente evoca preocupações de segurança, simplesmente em virtude de sua escala. E embora haja um grande potencial observado nos sistemas de segurança habilitados pelo aprendizado de máquina, esses sistemas em suas encarnações atuais são notados por sua falta de eficiência, principalmente devido à tendência de gerar alarmes falsos.
  • Valor: provar o valor potencial do big data (nos negócios ou em qualquer outro lugar) pode ser um desafio significativo por várias razões. Se qualquer um dos outros pontos problemáticos desta lista não puder ser tratado com eficácia, eles poderão, de fato, agregar valor negativo a qualquer sistema ou organização, talvez mesmo com efeito catastrófico.

Outros pontos problemáticos aliterativos que foram adicionados à lista incluem variabilidade, veracidade, volatilidade e visualização - todos apresentando seus próprios conjuntos exclusivos de desafios aos sistemas de big data. E mais ainda podem ser adicionados à medida que a lista existente (provavelmente) diminui com o tempo. Embora possa parecer um pouco artificial para alguns, a lista mnemônica “v” abrange problemas sérios que confrontam o big data que desempenham um papel importante no futuro do aprendizado profundo.

O dilema da caixa preta

Uma das características mais atraentes do aprendizado profundo e da inteligência artificial é que ambos têm como objetivo resolver problemas que os humanos não conseguem. O mesmo fenômeno que deveria permitir isso, no entanto, também apresenta um dilema interessante, que vem na forma do que é conhecido como "caixa preta".

A rede neural criada através do processo de aprendizado profundo é tão vasta e tão complexa que suas intrincadas funções são essencialmente inescrutáveis ​​para a observação humana. Os cientistas e engenheiros de dados podem ter uma compreensão completa do que ocorre nos sistemas de aprendizagem profunda, mas como eles chegam às decisões de saída com mais frequência do que nunca é completamente inexplicável.

Embora isso possa não ser um problema significativo para, digamos, profissionais de marketing ou vendedores (dependendo do que eles estão comercializando ou vendendo), outros setores exigem uma certa quantidade de validação e raciocínio do processo para tirar proveito dos resultados. Uma empresa de serviços financeiros, por exemplo, pode usar o aprendizado profundo para estabelecer um mecanismo de pontuação de crédito altamente eficiente. Mas as pontuações de crédito geralmente precisam vir com algum tipo de explicação verbal ou escrita, que seria difícil de formar se a equação real da pontuação de crédito for totalmente opaca e inexplicável.

Esse problema também se estende a muitos outros setores, principalmente no âmbito da saúde e segurança. A medicina e o transporte poderiam se beneficiar tanto da aprendizagem profunda, mas também enfrentar um obstáculo significativo na forma da caixa preta. Qualquer resultado resultante nesses campos, por mais benéfico que seja, pode ser totalmente descartado devido à completa obscuridade dos algoritmos subjacentes. Isso nos leva ao ponto de dor mais controverso de todos eles ...

Regulamento

Na primavera de 2016, a União Europeia aprovou o Regulamento Geral de Proteção de Dados (GDPR), que (entre outras coisas) concede aos cidadãos o "direito a uma explicação" para decisões automatizadas geradas por sistemas de aprendizado de máquina que os "afetam significativamente". Programado para entrar em vigor em 2018, o regulamento está causando preocupação entre as empresas de tecnologia que investem em aprendizado profundo por conta de sua caixa preta impenetrável, que em muitos casos dificultava as explicações exigidas pelo RGPD.

A “tomada de decisão individual automatizada” que o GDPR pretende restringir é uma característica essencial do aprendizado profundo. Mas as preocupações com essa tecnologia são inevitáveis ​​(e amplamente válidas) quando o potencial de discriminação é tão alto e a transparência tão baixa. Nos Estados Unidos, a Food and Drug Administration regula similarmente o teste e a comercialização de medicamentos, exigindo que esses processos permaneçam auditáveis. Isso apresentou obstáculos para a indústria farmacêutica, como tem sido o caso da empresa de biotecnologia Biogen, com sede em Massachusetts, que foi impedida de usar métodos de aprendizado profundo ininterpretáveis ​​devido à regra da FDA.

As implicações da aprendizagem profunda (moral, prática e além) são sem precedentes e, francamente, bastante profundas. Uma grande apreensão envolve a tecnologia devido em grande parte a uma combinação de seu potencial de interrupção e sua lógica e funcionalidade opacas.Se as empresas puderem provar a existência de valor tangível dentro de um aprendizado profundo que exceda quaisquer ameaças ou perigos concebíveis, elas poderiam nos ajudar a liderar a próxima fase crítica da inteligência artificial.