Banca de DEFESA: PAULO FREITAS DE ARAUJO FILHO

Uma banca de DEFESA de DOUTORADO foi cadastrada pelo programa.
DISCENTE: PAULO FREITAS DE ARAUJO FILHO
DATA : 15/03/2023
HORA: 13:00
LOCAL: Virtual
TÍTULO:

Towards Intelligent Security Mechanisms for Connected Things


PALAVRAS-CHAVES:

Internet das Coisas. Segurança. Segurança de Redes. Sistemas de Detecção de Intrusão. Aprendizagem de Máquina. Aprendizagem Profunda. Redes Generativas Adversariais. Classificação de Modulação. Ataques Adversariais.


PÁGINAS: 135
RESUMO:

A natureza broadcast da comunicação sem fio e a adoção em larga escala de objetos conectados aumentam as superfícies de ataques e permitem que atacantes realizem diversos ciberataques. Além disso, a adoção crescente de aprendizagem de máquina (ou ML: machine learning) em várias aplicações, incluindo comunicações sem fio, introduz novos riscos e vulnerabilidades. Ataques adversariais constroem e introduzem pequenas perturbações que enganam modelos de ML para que eles tomem decisões erradas. Dessa forma, eles podem comprometer a disponibilidade da comunicação e a segurança de objetos conectados. Portanto, ciberataques e ataques adversariais podem comprometer os objetivos da segurança, causando danos severos e prejuízos financeiros, bem como colocando em risco a vida das pessoas. Nesta tese, avançamos o estado da arte na área da segurança considerando os problemas de ciberataques e ataques adversariais. Melhoramos a segurança de objetos conectados detectando ciberataques de maneira eficaz e eficiente, e defendendo sistemas baseados em aprendizagem de máquina de ataques adversariais. No Capítulo 3, verificamos que embora sistemas de detecção de intrusão (ou IDS: intrusion detection systems) baseados em modelos de ML supervisionados não consigam detectar ataques desconhecidos e requeiram dados de treinamento rotulados, o que é demorado, desafiador e às vezes até impossível de ser obter, abordagens não supervisionadas geralmente apresentam taxas de falsos positivos altas que interrompem serviços e causam problemas em centros de operação de segurança (ou SOCs: security operation centers). Além disso, verificamos que a maioria dos IDSs não supervisionados têm dificuldades com o tempo necessário para modelar sistemas altamente complexos e heterogêneos, de modo que eles não conseguem detectar ciberataques rápido o suficiente para pará-los antes eles causem danos. Assim, propomos um novo IDS não supervisionado para detectar ataques conhecidos e desconhecidos usando redes generativas adversariais (ou GANs: generative adversarial networks). Nossa abordagem combina a saída do discriminador da GAN com uma perda de reconstrução que avalia o quanto as amostras de dados estão de acordo com os dados de treinamento. Ela treina uma rede neural encoder que acelera o cálculo da perda de reconstrução, reduzindo significativamente os tempos de detecção em comparação com abordagens do estado da arte. Como muitos ataques possuem vários passos e são lançados de diferentes aplicações e dispositivos, o Capítulo 4 trata de diferentes estratégias para considerar dependências temporais entre os dados na detecção de ciberataques. Verificamos que embora a maioria dos IDSs existentes utilize redes long short-term memory (LSTM), trabalhos recentes mostram que essas redes apresentam várias desvantagens que aumentam os tempos de detecção, como a sua capacidade limitada de paralelizar computações. Assim, propomos um novo IDS não supervisionado baseado em GAN que usa redes convolucionais temporais (ou TCN: temporal convolutional networks) e self-attention para substituir as redes LSTM e considerar dependências temporais entre os dados. Nossa abordagem substitui com sucesso redes LSTM na detecção de ataques e obtém resultados de detecção melhores. Além disso, ela permite diferentes configurações das camadas de TCN e self-attention para atingir diferentes balanceamentos entre taxas e tempos de detecção e satisfazer diferentes requisitos. Em contraste com os Capítulos 3 e 4, o Capítulo 5 trata de ataques adversariais que comprometem classificadores de modulação em receptores sem fio, comprometendo a disponibilidade da comunicação. Verificamos que as técnicas de ataques adversariais existentes ou requerem total conhecimento sobre o modelo do classificador, o que é uma suposição irrealista, ou demoram muito para criar perturbações adversariais, de modo que não conseguem adulterar os sinais modulados recebidos. Assim, propomos uma nova técnica de ataque adversarial caixa-preta que reduz a acurácia de classificadores de modulação mais do que outras técnicas de ataques adversariais caixa-preta e constrói perturbações adversariais significantemente mais rápido do que elas. Nossa técnica proposta é essencial para avaliar os riscos do uso de classificadores de modulação baseados em aprendizagem de máquina em comunicações sem fio. Finalmente, mediante os riscos e danos que ataques adversariais podem causar, o Capítulo 6 foca o estudo de técnicas de defesa contra essas ameaças sofisticadas. Verificamos que existem apenas poucas técnicas de defesa para proteger classificadores de modulação contra ataques adversariais, e que a maioria delas reduz apenas marginalmente o impacto desses ataques na acurácia do classificador. Assim, propomos uma técnica de defesa para proteger classificadores de modulação de ataques adversariais para que esses ataques não prejudiquem a disponibilidade da comunicação sem fio. Nossa abordagem detecta e remove perturbações adversariais enquanto também reduz a sensibilidade de classificadores baseados em aprendizagem de máquina a elas. Portanto, ela diminui com sucesso a redução de acurácia causada por diferentes técnicas de ataques adversariais.


MEMBROS DA BANCA:
Externo à Instituição - CHAMSEDDINE TALHI - UQR
Externo à Instituição - KIM KHOA NGUYEN - UQR
Externa à Instituição - SUSANA SARGENTO - UA
Externa à Instituição - MICHELE NOGUEIRA LIMA - UFMG
Externo à Instituição - EDUARDO COELHO CERQUEIRA - UFPA
Presidente - 1512321 - GEORGE DARMITON DA CUNHA CAVALCANTI
Notícia cadastrada em: 15/02/2023 08:58
SIGAA | Superintendência de Tecnologia da Informação (STI-UFPE) - (81) 2126-7777 | Copyright © 2006-2024 - UFRN - sigaa09.ufpe.br.sigaa09