Machine Learning vs. Cibercrime: 4 maneiras pelas quais ML está revidando

Autor: Laura McKinney
Data De Criação: 5 Abril 2021
Data De Atualização: 15 Poderia 2024
Anonim
Machine Learning vs. Cibercrime: 4 maneiras pelas quais ML está revidando - Tecnologia
Machine Learning vs. Cibercrime: 4 maneiras pelas quais ML está revidando - Tecnologia

Contente


Leve embora:

A IA e a ML são forças poderosas na interrupção do crime cibernético, na proteção das empresas e na proteção contra violações de dados.

O cibercrime está constantemente encontrando novas maneiras de causar estragos, roubar suas informações privadas e cometer todos os tipos de travessuras. Novas tecnologias, como inteligência artificial (IA) e aprendizado de máquina (ML), já foram aproveitadas por hackers e criminosos cibernéticos por suas intenções maliciosas.

Como um dos fundadores e CEO da Intel, Andy Grove disse uma vez:

No coração da cultura da Internet, há uma força que deseja descobrir tudo sobre você. E depois que descobrir tudo sobre você e duzentos milhões de outros, esse é um ativo muito valioso, e as pessoas serão tentadas a negociar e a comercializar com esse ativo. "


No entanto, a IA e a ML também são forças poderosas na interrupção do crime cibernético, na proteção das empresas e na proteção de dados contra violações e explorações. Quais são alguns desenvolvimentos recentes na adoção de BC para defesa de crimes cibernéticos?

Protegendo a segurança e a privacidade do cartão de crédito

Hoje, proteger a privacidade e a segurança dos cartões de crédito dos compradores é obrigatório - muitas pessoas compram on-line e, mesmo em lojas de varejo, os cartões de crédito são usados ​​rotineiramente. Todas as transações que ocorrem devem ser examinadas em tempo real quanto a sinais de fraude.

Um feito verdadeiramente titânico, se pensarmos no fato de que um processador de pagamento global, como a Mastercard, pode processar quase 165 milhões de transações por hora.


Somente os algoritmos ML alimentados pela computação de alto desempenho (HPC) são capazes de estabelecer essa camada de proteção necessária, aplicando 1,9 milhão de regras a cada transação em menos de um segundo.

Ensinando os usuários a se proteger

A maneira mais eficaz de evitar algumas formas de cibercrime, como o phishing, é simplesmente ensinar as pessoas a evitar se apaixonar por elas. A maioria dos crimes de phishing é bastante transparente, enquanto outros são mais sorrateiros e difíceis de detectar. Por esse motivo, muitas empresas ensinam seus funcionários a se proteger contra phishing com campanhas de simulação.

Sem erros, sem estresse - seu guia passo a passo para criar software que muda vidas sem destruir sua vida

Você não pode melhorar suas habilidades de programação quando ninguém se importa com a qualidade do software.

Alguns trabalhadores de uma organização são inerentemente mais vulneráveis ​​do que outros - mas aqueles que não são, ainda continuam recebendo as mesmas coisas irritantes vezes sem conta.

A Hoxhunt é uma empresa que emprega ML para levar a eficácia das simulações de phishing para o próximo nível. Em vez de ensinar as mesmas lições para todos, independentemente de suas habilidades, funções e padrões de uso, o sistema é capaz de extrair informações das respostas individuais de cada funcionário.

A IA "personaliza" a experiência de aprendizado de acordo, introduzindo phishing falso ao longo do tempo com sofisticação crescente para testar a vigilância das pessoas. Quanto mais um trabalhador se apaixona pela simulação de phishing, mais treinamento ele recebe. Da mesma forma, se um usuário demonstrar um nível mais alto de conhecimento, a plataforma reduzirá a frequência das simulações.

Como explicou Mika Aalto, CEO da Hoxhunt:

Um dos múltiplos desafios enfrentados pelas organizações atualmente é a grave escassez de profissionais de segurança talentosos no mercado. Com o apoio da ML, é possível adaptar o treinamento individual a cada funcionário com base em sua função e progressão, sem adicionar restrições adicionais à equipe atual.

Combate ao fogo com fogo

Embora o uso de novos algoritmos de ML esteja ajudando os cibercriminosos a automatizar seus ataques e explorações maciças, a IA pode ser usada para automatizar e otimizar a análise de dados para defesa contra crimes cibernéticos. Os programas de IA podem examinar o tráfego comercial de entrada e saída a uma velocidade incrível para detectar qualquer anomalia ou anormalidade nos padrões de dados.

Eles podem ser usados ​​para identificar uma violação conforme ela ocorre, impedindo-a efetivamente ou, pelo menos, mitigando-a. O aprendizado supervisionado pode ajudar a IA a se tornar mais eficiente na detecção de malware avançado ao longo do tempo.

Por exemplo, o DeepArmor é uma ferramenta baseada em ML que utiliza o Google Cloud Machine Learning Engine para impedir ataques de terminais, detectando ameaças precocemente com 99,5% de precisão.

A escalabilidade da IA ​​também é crítica para reduzir a carga de trabalho esmagadora dos departamentos de segurança de TI que precisam urgentemente de processos mais simplificados para analisar todos os dados e eliminar ameaças.

Especialmente no caso de empresas menores, quase um quarto das empresas carece de recursos para alcançar uma cibersegurança interna eficaz, como ter uma equipe totalmente dedicada para monitorar o desempenho e detectar sinais de ameaça.

A IA pode classificar os riscos de forma autônoma, sugerir um curso de ação e, quando combinada com os esforços humanos, possibilitar uma tomada de decisão flagrante e baseada em ameaças que vai além de depender apenas de estratégias predefinidas de gerenciamento de riscos.

As ferramentas inteligentes de gerenciamento de ameaças podem ajudar os profissionais de gerenciamento de segurança de TI a gerenciar seus recursos com eficiência e se concentrar nas ameaças mais destacadas onde é necessária intervenção imediata.

Ignorando redes perigosas de seqüestro

Um crime cibernético cada vez mais popular é seqüestrar endereços IP para fins maliciosos, como roubar criptomoedas ou malware e spam. O Border Gateway Protocol (BGP) é um mecanismo de roteamento usado para pacotes de dados para seu destino correto e para troca de dados entre redes.

No final dos anos 90, uma equipe crítica de hackers encontrou uma falha crítica que levou a uma séria exploração. Mais de 20 anos depois, nenhum procedimento de segurança está disponível para validar se os seqüestradores de IP podem redirecionar facilmente pacotes de dados para redes "ruins" específicas.

Até empresas como Google e Amazon foram prejudicadas por tentativas de sequestro de IP, que também são usadas para espionagem global. Um novo sistema de aprendizado de máquina foi desenvolvido por pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT.

Eles identificaram algumas das características dos seqüestradores de IP, como alta volatilidade e a presença de endereços IP estrangeiros, e sinalizaram mais de 800 redes suspeitas - algumas das quais foram usadas para fins maliciosos por anos. Este sistema pode ser usado para bloquear incidentes fraudulentos de roteamento e complementar as soluções existentes para evitar esses crimes.

Conclusão

AI e ML estão entre os principais impulsionadores da Quarta Revolução Industrial. À medida que o cenário de riscos e ameaças continua a mudar e evoluir, essas tecnologias são os instrumentos fundamentais de que precisamos para preparar uma resposta adequada.