COMO A INTELIGENCIA ARTIFICIAL IMPACTA A CIBERSEGURANÇA | ENTREVISTA A JAVIER CASTRO

Como é que a inteligência artificial pode ser utilizada para melhorar a cibersegurança nas empresas, especificamente na deteção e resposta a ameaças em tempo real

A inteligência artificial (IA), quando utilizada de forma segura, ética e responsável pelas organizações, pode desempenhar um papel importante na melhoria da eficiência de muitos processos empresariais. Isto inclui a cibersegurança das empresas, especialmente nos domínios da deteção e resposta a ameaças em tempo real.

Por exemplo, as capacidades fornecida pelos sistemas baseados em IA, para analisar grandes volumes de dados com elevada velocidade e precisão, podem ajudar os analistas de cibersegurança a detetar, precocemente, ciberameaças, identificando ameaças reais e incidentes de segurança, detetando também falsos ataques. Isto inclui a deteção de possíveis contas comprometidas, versões avançadas de malware ou atividades de rede invulgares que possam conduzir a potenciais tentativas de intrusão ou ciberataques.

Uma vez detetada a ameaça, utilizando técnicas de aprendizagem automática, a IA – com formação adequada – seria capaz de tomar decisões para atenuar o risco e com uma resposta automática. Por exemplo, bloquear uma conta potencialmente comprometida ou o seu acesso a determinados recursos críticos para a empresa, isolar o dispositivo comprometido ou ativar protocolos de resposta previamente definidos pela empresa.

Desta forma, a IA pode ajudar a reduzir significativamente o tempo de deteção e resposta a incidentes de segurança, o que é crucial para limitar o potencial impacto do ataque à empresa.

Quais são os principais desafios que as empresas enfrentam ao integrar soluções de inteligência artificial nas suas estratégias de cibersegurança e como podem ser superados?

A utilização da IA em ambientes empresariais coloca uma série de desafios e riscos relacionados com a proteção de dados e a segurança da informação que têm de ser abordados através de um quadro adequado de governação, ética e responsabilidade empresarial em matéria de IA:

Do ponto de vista da cibersegurança e da privacidade, surgem os seguintes desafios:

  • Vulnerabilidades de segurança: os sistemas de IA podem ser suscetíveis de ciberataques e de manipulação por terceiros, o que pode resultar em comportamentos incorretos ou no acesso não autorizado a informações sensíveis (propriedade intelectual, informações sobre o desempenho dos modelos, etc.).
  • Não conformidade com o regulamento de proteção de dados (RGPD): o tratamento de grandes volumes de dados pessoais pode representar riscos para a privacidade e a segurança da informação.
  • Potencial perda de dados: A utilização incorreta dos modelos de IA pelos colaboradores da empresa pode levar à fuga de dados sensíveis, tanto pessoais como empresariais. Para o evitar, é importante estabelecer regras de Prevenção da Perda de Dados (DLP) que regulem a troca de informações com modelos de IA.

Por outro lado, do ponto de vista da ética, da transparência e da responsabilidade das empresas, surgem outros desafios:

  • Discriminação: Os algoritmos de IA podem perpetuar preconceitos e discriminar, se não forem concebidos e treinados corretamente.
  • Falta de transparência: as decisões tomadas pela IA são por vezes opacas e difíceis de explicar, o que pode levar à desconfiança dos utilizadores.
  • Responsabilidade das empresas: As empresas são responsáveis pelo conteúdo gerado autonomamente pelos seus sistemas de IA. Por conseguinte, têm de garantir que o processo de desenvolvimento e formação é adequado, no sentido de estar alinhado com a sua estratégia empresarial e regulamentos internos.
  • Dependência tecnológica: a dependência excessiva da IA pode ser problemática se os sistemas se comportarem de forma inesperada ou falharem. Além disso, delegar decisões críticas nos sistemas de IA pode significar reduzir a intervenção e a supervisão humanas, o que constitui um risco.

Por último, do ponto de vista da conformidade regulamentar:

  • Desafios regulamentares: A rápida evolução da IA pode dificultar o desenvolvimento e a aplicação de regulamentos adequados. A este respeito, a União Europeia foi a primeira instituição a publicar um regulamento sobre a utilização da IA, que procura garantir um desenvolvimento e utilização de forma ética e segura, minimizando os riscos associados e promovendo a inovação responsável.
  • Conformidade legal: As empresas devem garantir que a utilização da IA está em conformidade com as leis e regulamentos existentes.

Algumas medidas que podem ajudar as empresas a integrar a IA de forma segura e responsável nas suas estratégias empresariais são: (1) a criação de equipas de trabalho interdisciplinares que integrem perfis especializados em diferentes áreas (jurídica, cibersegurança, data scientists, etc.); (2) ações de formação e sensibilização dos utilizadores; (3) a criação de um comité de ética para avaliar o potencial impacto dos sistemas a desenvolver ou implementar na empresa.

De que forma a utilização de inteligência artificial para realizar ataques está a evoluir e quais são as medidas que podem ser tomadas para mitigar esses riscos?

Em contraste com os benefícios que a IA pode proporcionar às empresas e aos que a utilizam de forma segura e responsável, a inteligência artificial (IA) nas mãos dos cibercriminosos representa uma ameaça significativa para a cibersegurança das empresas por várias razões:

Ataques avançados de engenharia social, como deepfakes e phishing. Alguns exemplos:

  • A IA pode criar e-mails de phishing altamente personalizados e convincentes, enganando os colaboradores para que revelem informações sensíveis ou executem ações maliciosas.
  • Os chatbots e assistentes virtuais controlados por IA podem realizar ataques de engenharia social mais sofisticados, interagindo com os colaboradores em tempo real e recolhendo informações sensíveis através de burlas complexas.
  • Além disso, a IA pode gerar deepfakes altamente convincentes, utilizando imagens, vídeos ou áudios falsos e utilizá-los para se fazer passar por executivos ou colaboradores com cargos de chefia, facilitando a fraude financeira ou o acesso a informações críticas.

Ataques mais automatizados, inteligentes e autónomos:

  • Os cibercriminosos podem utilizar a IA para automatizar e escalar os seus ataques, permitindo a execução simultânea de múltiplos ciberataques contra diferentes alvos, aumentando a eficiência, a taxa de sucesso e o impacto. Os ataques automatizados existentes, como a força bruta, a negação de serviço, etc., serão intensificados à medida que for acrescentada uma solução adicional que pode tomar decisões com base nos resultados e no progresso do ataque.
  • Malware inteligente: Os atacantes podem desenvolver malware que se adapta e aprende com os ambientes em que entra, escapando mais eficazmente às soluções de segurança tradicionais e ajustando-se aos mecanismos de defesa específicos de uma empresa.
  • Evasão de deteção: Os sistemas baseados em IA podem analisar padrões no comportamento das soluções de segurança de uma empresa e ajustar-se em conformidade para evitar a deteção, utilizando técnicas como a análise de padrões e a geração de tráfego malicioso que imita um comportamento legítimo.
  • Democratização do conhecimento sobre geração de ataques: A utilização da IA para conceber ataques elimina a barreira à entrada que, anteriormente, exigia conhecimentos técnicos avançados por parte dos cibercriminosos.

O risco é tal, que o Fórum Económico Mundial (FEM), no seu relatório anual “Global Risks” 2024, classifica a “disinformation and misinformation”, potenciadas pela utilização de ferramentas de IA, como o principal risco global a curto prazo, mesmo acima das “condições meteorológicas extremas” e da “cibersegurança”.

Esta noticia se ha publicado en: