Dissertation/Thèse

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPE

2024
Thèses
1
  • MAIRA FARIAS DE ANDRADE LIRA
  • Abordagens para Seleção de Limiares de Decisão e Filtros de 
    Suavização em Detecção de Anomalias

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • JOÃO PAULO PORDEUS GOMES
  • PAULO SALGADO GOMES DE MATTOS NETO
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 25 janv. 2024


  • Afficher le Résumé
  • Técnicas de detecção de anomalias são amplamente utilizadas em diversos 
    cenários para identificar instâncias com padrões distintos do comportamento 
    geral observado em um conjunto de dados. O desenvolvimento de novas 
    técnicas, como as baseadas em aprendizado profundo, e a maior 
    disponibilidade de dados têm alavancado ainda mais o uso da detecção de 
    anomalias em contextos diversos como na  detecção de falhas em equipamentos 
    industriais. Comumente, uma técnica de detecção gera para cada instância um 
    \textit{score} de anomalia, que é então usado para classificar as 
    instâncias entre anômalas ou normais. Para realizar a classificação, um 
    limiar de decisão (\textit{threshold}) é estabelecido de forma que se o 
    \textit{score} de uma determinada instância for superior ao 
    \textit{threshold}, esta instância é considerada anômala, caso contrário é 
    classificada como normal. Neste trabalho, foi investigado o impacto de 
    diferentes abordagens não-supervisionadas usadas para definição de 
    \textit{thresholds}, avaliadas especificamente para a detecção de anomalias 
    \textit{online} por um modelo de Sparse Autoencoder (SAE). Para os 
    experimentos, foi utilizada uma base de dados pública referente a um 
    problema de detecção de anomalias no metrô da cidade do Porto. Foi 
    constatado que a abordagem de cálculo do \textit{threshold} impactou 
    fortemente as métricas de avaliação da detecção. Por exemplo, a abordagem 
    baseada em erro máximo do SAE garantiu a menor taxa de falsos positivos. 
    Por sua vez, a abordagem baseada em intervalo interquartil obteve o maior 
    número de verdadeiros positivos, e, consequentemente \textit{recall}, 
    enquanto que a abordagem baseada em 99-percentil garantiu o maior F1-Score. 
    Além desses experimentos, foi avaliado ainda o uso de três tipos de filtros 
    passa-baixa em duas abordagens distintas para a suavização do 
    \textit{score} de anomalia. De uma forma geral, a aplicação de filtros 
    diretamente sobre o \textit{score} de anomalia garantiu uma maximização de 
    verdadeiros positivos, enquanto a aplicação de filtros após uma 
    classificação prévia das instâncias minimizou os falsos positivos. Além 
    disso, foi verificado que a utilização do filtro foi essencial para 
    detectar sequências de anomalias.

2
  • RENATA FIGUEREDO LINS
  • CR Analysis: Classificação de Change Requests em um Ambiente de 
    Fluxo de Dados

  • Leader : FLAVIA DE ALMEIDA BARROS
  • MEMBRES DE LA BANQUE :
  • TIAGO AGOSTINHO DE ALMEIDA
  • ALEXANDRE CABRAL MOTA
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 29 janv. 2024


  • Afficher le Résumé
  • Os testes de software são atividades essenciais para o desenvolvimento e a 
    manutenção eficiente de um produto. Durante o ciclo de vida do software, 
    diferentes tipos de teste são executados para garantir que as 
    funcionalidades foram implementadas corretamente, ou para encontrar erros. 
    Quando casos de teste falham, requisições de mudança (do inglês, Change 
    Requests - CRs) descrevendo os erros encontrados são criadas pelos 
    testadores e armazenadas nos repositórios associados a ferramentas de 
    gerenciamento de software. As CRs são então inspecionadas em um processo de 
    triagem, que visa identificar a criticidade dos erros e direcionar as 
    requisições para as áreas responsáveis. A criticidade das CRs irá 
    determinar com qual nível de urgência os problemas relatados devem ser 
    resolvidos. O processo de triagem costuma ser uma atividade custosa e 
    demorada, pois geralmente é realizada manualmente. Como uma solução, a 
    triagem pode ser automatizada com o uso de técnicas de Aprendizado de 
    Máquina (AM) para classificar automaticamente a criticidade das CRs. Embora 
    algoritmos tradicionais de AM tenham sido utilizados extensivamente na 
    literatura para lidar com tarefas de classificação de texto dentro de 
    domínios específicos, o desempenho de tais algoritmos pode se tornar 
    incerto em ambientes de fluxos de dados na presença de mudanças de 
    conceito. Fluxos de dados são comumente caracterizados por uma sequência de 
    instâncias que se tornam disponíveis continuamente ao longo do tempo, sendo 
    geradas de forma dinâmica e potencialmente ilimitadas em tamanho. Dessa 
    forma, uma mudança de conceito significa que as propriedades dos dados se 
    tornam não-estacionárias, e indicam que a estrutura e o conhecimento retido 
    pelos modelos induzidos previamente podem se tornar obsoletos para a 
    classificação de novos dados. Com isso, se torna imprescindível desenvolver 
    aplicações mais precisas para tomada de decisão baseadas em dados. Neste 
    sentido, esta dissertação investiga o uso de algoritmos de AM Online, bem 
    como métodos de detecção de mudanças de conceitos, com o objetivo de 
    resolver o problema de classificação de criticidade de CRs em um ambiente 
    de fluxo de dados não-estacionário. Este trabalho foi desenvolvido no 
    contexto de uma colaboração entre o CIn-UFPE e a Motorola Mobility, e teve 
    como objetivo a criação de uma aplicação para automatizar o processo de 
    triagem e classificação de CRs. Os experimentos realizados para o 
    desenvolvimento da aplicação apresentaram resultados bastante positivos, 
    onde foi possível obter um modelo de classificação com a métrica 
    Prequential-AUC de 80.23%, e uma Média Geométrica de 73.83%, sugerindo que 
    a utilização de métodos de aprendizado online e algoritmos de detecção de 
    mudança seja uma alternativa adequada para a resolução do problema em 
    questão.

3
  • THIAGO MELO DELGADO AZEVEDO
  • Decomposição de operadores quânticos multicontrolados

  • Leader : ADENILTON JOSÉ DA SILVA
  • MEMBRES DE LA BANQUE :
  • ADENILTON JOSÉ DA SILVA
  • ISRAEL FERRAZ DE ARAUJO
  • NADJA KOLB BERNARDES
  • Data: 31 janv. 2024


  • Afficher le Résumé
  • Apenas um conjunto de operações elementares, como operadores de um qubit e 
    operadores CNOT, podem ser implementados diretamente em dispositivos 
    quânticos. As demais operações precisam ser decompostas em termos dessas 
    operações elementares. Esse é o caso de operadores quânticos U(2) 
    multi-controlados, para os quais há diferentes estratégias para minimizar a 
    profundidade dos circuitos e/ou o número de portas elementares das 
    decomposições. Algumas estratégias podem exigir o uso de qubits auxiliares 
    ou de aproximações. Os dispositivos quânticos atuais são limitados tanto 
    pelo número de qubits quanto pelas operações ruidosas, o que restringe o 
    número de operações que podem ser utilizados nesses dispositivos. Dessa 
    forma, o uso de decomposições eficientes é crucial para a utilização 
    prática da computação quântica. Este trabalho tem como objetivo propor 
    novas decomposições para operadores U(2) multi-controlados, com o objetivo 
    de minimizar o número de operações CNOTs no circuito sem utilizar qubits 
    auxiliares. Para operadores SU(2) com a diagonal secundária real, o 
    trabalho desenvolve uma decomposição com 16n-40 CNOTs, um número menor do 
    que o do estado da arte. Tal decomposição pode ser modificada para decompor 
    operadores SU(2) com diagonal principal real, com o mesmo número de CNOTs, 
    ou operadores SU(2) arbitrários com no máximo 20n-42 CNOTs. O trabalho 
    também introduz uma decomposição aproximada para operadores U(2) 
    multi-controlados, com número de CNOTs proporcional a 32n, enquanto a 
    melhor decomposição aproximada sem qubits auxiliares possui um número de 
    CNOTs proporcional a 32np, em que p depende do erro introduzido no 
    circuito. Os resultados desse trabalho podem ser utilizados em aplicações 
    como a decomposições de operadores mais gerais, preparação de estados, 
    memórias RAM quânticas e aprendizagem de máquina, resultando em circuitos 
    quânticos mais eficientes e em menos ruído quando esses circuitos são 
    executados em um dispositivo quântico.

4
  • FULVIO MYBBSON CARNEIRO FALCAO
  • CONSUMO DE ENERGIA E AVALIAÇÃO DE DESEMPENHO DE SGBDS NOSQL MULTIMODELOS

  • Leader : EDUARDO ANTONIO GUIMARAES TAVARES
  • MEMBRES DE LA BANQUE :
  • EDUARDO ANTONIO GUIMARAES TAVARES
  • ERICA TEIXEIRA GOMES DE SOUSA
  • JAMILSON RAMALHO DANTAS
  • Data: 2 févr. 2024


  • Afficher le Résumé
  • Os sistemas de gerenciamento de banco de dados NoSQL foram introduzidos 
    recentemente como alternativas aos sistemas de gerenciamento de banco de 
    dados relacionais tradicionais. Estes sistemas implementam modelos de dados 
    mais simples e escaláveis que aumentam a eficiência e o desempenho de uma 
    nova geração de sistemas com alta exigência de acesso e escalabilidade. 
    NoSQL não substitui as abordagens de sistemas de gerenciamento de banco de 
    dados relacionais, mas sim atende às restrições relacionadas à manipulação 
    de dados em massa. Entretanto novos tipos de aplicações que modelam seus 
    dados usando dois ou mais modelos de dados NoSQL são conhecidas como 
    aplicações com persistência poliglota. Normalmente suas implementações são 
    complexas porque elas devem gerenciar e armazenar seus dados utilizando 
    simultaneamente vários sistemas de gerenciamento de bancos de dados. 
    Recentemente, foi introduzida uma nova família de sistemas de gerenciamento 
    chamados de multi-modelo que integram vários modelos de dados NoSQL em um 
    único sistema. A importância de tal tecnologia tem motivado muitos 
    trabalhos, principalmente em relação ao desempenho. Mas  nenhum  trabalhos 
    caracterizam e comparam o consumo de energia no contexto de SGBDs NoSQL e 
    SGBDs multi-modelo, apesar de sua importância. De fato, o consumo de 
    energia não deve ser negligenciado devido ao aumento dos custos financeiros 
    e ambientais. A fim de avaliar essa questão, esta desertação de mestrado 
    analisa uma avaliação do desempenho dos gerenciadores de bancos de dados 
    NoSQL tradicionais e NoSql multi-modelo quando utilizados em aplicações com 
    persistência poliglota,  mais especificamente MongoDB (orientado a 
    documentos), Redis (chave-valor)  e ArangoDB (multimodelo), OrientDB 
    (multimodelo). Para essa avaliação, foram aplicados um conjunto de testes 
    (benchmark) simulando uma aplicação com persistência poliglota executando 
    operações básicas em bancos de dados. A metodologia baseia-se em Design of 
    Experiments, de tal forma que as cargas de trabalho são geradas por Yahoo! 
    Cloud Serving Benchmark (YCSB) produzindo leitura, escrita e atualização, 
    por ciclos de 1.000, 5.000 e 10.000 operações. Como resultado são avaliados 
    54 tratamentos. Para a medição do consumo de energia é aplicado um 
    framework específico. As métricas são tempo de execução e consumo de 
    energia, assim como a evolução no incremento da carga de trabalho. Os 
    resultados demonstram que o consumo de energia pode variar 
    significativamente entre os SGBDs para comandos distintos (por exemplo, 
    leitura) e cargas de trabalho.  No qual os resultados demonstram que o 
    consumo de energia pode variar significativamente entre os SGBDs para 
    comandos distintos e cargas de trabalho.

5
  • MAYSA BORGES GAMA
  • Human-Computer Interaction guidelines for complex Augmentative and 
    Alternative Communication systems with Large Language Model integration

  • Leader : JUDITH KELNER
  • MEMBRES DE LA BANQUE :
  • ANNA PRISCILLA DE ALBUQUERQUE
  • CLEBER ZANCHETTIN
  • JUDITH KELNER
  • Data: 5 févr. 2024


  • Afficher le Résumé
  • Alguns indivíduos com necessidades complexas de comunicação dependem de 
    dispositivos de Comunicação Aumentativa e Alternativa (CAA) para suas 
    interações diárias. Contudo, usuários de CAA comumente enfrentam 
    dificuldades ao se comunicar em tempo real, devido ao grande esforço físico 
    e mental demandado para compor as mensagens. Mesmo que os usuários se 
    prepararem com antecedência e incluam novas palavras ou frases em seus 
    dispositivos de comunicação, as mensagens pré-programadas nem sempre suprem 
    tudo o que é necessário para se expressar plenamente durante uma conversa. 
    Tendo em vista essa problemática, pesquisadores têm explorado o uso de 
    Inteligência Artificial (IA), particularmente os Grandes Modelos de 
    Linguagem (GML), para aprimorar os sistemas CAA. Entretanto, é crucial 
    analisar cuidadosamente os benefícios e desvantagens antes do 
    desenvolvimento desenfreado de novas intervenções tecnológicas. O presente 
    estudo analisa as contribuições existentes e realiza um levantamento das 
    oportunidades e desafios na aplicação de GML para softwares CAA, em 
    colaboração com os usuários. Além disso, o estudo aborda o uso de 
    Blissymbolics, uma linguagem com gramática e vocabulário, mas sem 
    fonologia, que desempenha um papel essencial em auxiliar indivíduos com 
    condições congênitas a se alfabetizarem. Duas pesquisas secundárias foram 
    conduzidas para revisar sistematicamente e criticamente a literatura 
    relevante sobre ambos os usos de GML e Blissymbolics na CAA. Seguindo a 
    abordagem de Design Colaborativo, a pesquisa primária envolveu usuários e 
    ouvintes familiares de CAA, os quais compartilharam suas expectativas, 
    preocupações e ideias sobre futuras integrações de GML em dispositivos CAA. 
    Os dados coletados das pesquisas primária e secundárias foram utilizados na 
    criação de diretrizes para o desenvolvimento de sistemas robustos de CAA 
    que aplicam modelos de linguagem e IA. Em conjunto, as oportunidades, 
    desafios e riscos envolvidos foram também discutidos. Ademais, este 
    trabalho aplicou as diretrizes propostas e demonstrou sua adaptabilidade 
    através da criação de um sistema CAA conceitual que utiliza GML.

6
  • LUCAS AURELIO GOMES COSTA
  • Zero Trust and Service Meshes on Microservice Cloud-based Applications: A Comparative Study

  • Leader : CARLOS ANDRE GUIMARAES FERRAZ
  • MEMBRES DE LA BANQUE :
  • NELSON SOUTO ROSA
  • CARLOS ANDRE GUIMARAES FERRAZ
  • IORAM SCHECHTMAN SETTE
  • Data: 7 févr. 2024


  • Afficher le Résumé
  • Migrating microservices to a cloud environment poses challenges for maintaining security. Though Zero-Trust architecture provides guidelines on protecting the services, protecting the applications is still a major concern for companies. Research has shown that service meshes, such as Istio or Linkerd, can facilitate protection for services in a Kubernetes environment.

    This study aims to understand how service meshes can enable Zero-Trust approaches to service-to-service communication. Investigating how Zero-Trust protection aligns with service mesh capabilities, how it can affect service communication performance, and how Istio and Linkerd compare to each other in terms of security and performance.

    This research used experiments as the key part of the process to fulfill its objectives. A proof-of-concept architecture was implemented to facilitate experiments, while the experiments were divided into two categories (security and performance) and the results were used to compare Istio to Linkerd.

    Analysis of the experiments has shown that Linkerd can be faster than Istio while providing similar levels of protection.

    The results indicate that different security configurations for service meshes can decrease service communication performance and how these configurations align with Zero-Trust guidelines. Based on this information, companies seeking to enforce Zero-Trust protection to services in the cloud must consider the compromises required between performance and security.

7
  • MAYNARA DONATO DE SOUZA
  • Using Generative Methods for Enhancing Wearable Device Data via 
    Synthetic Samples

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • LEONARDO NOGUEIRA MATOS
  • TSANG ING REN
  • Data: 20 févr. 2024


  • Afficher le Résumé
  • Os dispositivos vestíveis oferecem uma maneira conveniente e prática de 
    monitorar a saúde e o bem-estar dos usuários. Esses equipamentos podem 
    monitorar sinais como frequência respiratória, nível de oxigênio no sangue, 
    calorias queimadas, padrões de sono, temperatura e movimentação corporal. A 
    combinação dessas informações com técnicas de Aprendizagem de Máquina (ML) 
    permite, além de monitorar, classificar e realizar prescrições das 
    atividades realizadas pelos usuários, fornecendo insights sobre a saúde, 
    comportamento, hábitos e estilo de vida do usuário. Apesar de uma gama de 
    aplicabilidades, o uso desta tecnologia enfrenta desafios desde a aquisição 
    dos dados até a qualidade das prescrições realizadas, especialmente pra 
    novos usuários. Outro ponto crucial no uso desta tecnologia são questões de 
    privacidade e segurança dos dados dos usuários. Estes fatores contribuem 
    para a escassez de dados úteis para o treinamento dos modelos baseados em 
    Aprendizagem de Máquina. Esta dissertação aborda o desafio de gerar dados 
    sintéticos para sensores de dispositivos móveis usando modelos generativos. 
    O desafio no desenvolvimento destes modelos aumenta se considerarmos que os 
    dados dos sensores correspondem a dados temporais em diferentes dimensões. 
    São propostas novas estratégias para geração de dados sintéticos baseados 
    em Generative Adversarial Network (GAN) e Large Language Models (LLM) para 
    séries temporais de sinais de sensores de dispositivos vestíveis.   
    Comparamos nossas abordagens com modelos estado-da-arte e conduzimos uma 
    investigação experimental sobre o uso destes modelos para aumento de dados, 
    incluindo um estudo abrangente sobre a qualidade dos dados sintéticos 
    gerados e seu impacto no desempenho do classificador utilizado. Nossas 
    descobertas sugerem que exemplos sintéticos podem melhorar o desempenho de 
    modelos treinados, especialmente quando a quantidade de dados reais é 
    limitada. A partir dos resultados obtidos, identificamos que a qualidade 
    dos dados sintéticos é mais importante do que a quantidade na melhoria do 
    desempenho do classificador treinado. Além das técnicas de geração de dados 
    sintéticos, a dissertação oferece insights sobre como lidar com a escassez 
    de dados reais em classificadores de atividades e como avaliar a qualidade 
    destes dados.

8
  • ADRIEL FILIPE LINS ALVES DA SILVA
  • Agrupamento Dinâmico para Reconhecimento Visual de Lugares

  • Leader : ALUIZIO FAUSTO RIBEIRO ARAUJO
  • MEMBRES DE LA BANQUE :
  • ALUIZIO FAUSTO RIBEIRO ARAUJO
  • CARLOS ALEXANDRE BARROS DE MELLO
  • JOSE ALFREDO FERREIRA COSTA
  • Data: 28 févr. 2024


  • Afficher le Résumé
  • Navegação autônoma desempenha um papel muito importante em aplicações que 
    mostraram uma grande evolução nos últimos anos como,  por exemplo, missões 
    espaciais, agricultura, veículos autônomos, veículos autônomos 
    subaquáticos, robôs de limpeza e logística. Para a realização dessa tarefa, 
    é importante que o robô tenha informação a respeito do ambiente e da sua 
    localização dentro dele.
    Reconhecimento Visual de Lugares (Visual Place Recognition ou VPR) usa 
    somente sensores visuais para o agente autônomo saber o local onde ele 
    está. Esse processo pode ser utilizado de forma independente ou dentro de 
    um sistema de mapeamento e localização simultâneos, como detector de 
    fechamento de laço ou para relocalização. Nesse contexto, há alguns 
    problemas inerentes ao reconhecimento visual de lugares, sendo um dos 
    principais o custo computacional (principalmente para aplicações em longos 
    trajetos), visto que, de uma forma geral, para comparar o local atual com 
    todos os outros locais, a complexidade computacional seria linear com 
    relação a quantidade de locais armazenados.
    Dentro desse contexto, a abordagem proposta neste trabalho consiste na 
    utilização de um Mapa Auto-organizável com topologia variante no tempo, 
    empregando ciclos de treinamento para analisar o agrupamento das amostras 
    de dados conforme um critério de erro estabelecido para cada protótipo da 
    rede. Esse método leva em consideração a disposição espacial das amostras 
    agrupadas e ajusta os protótipos quando o critério não é atendido. 
    Adicionalmente, o modelo proposto pode lidar com grande quantidade de dados 
    e permite aprendizagem incremental que incorpora novos conhecimentos com 
    pouca ou nenhuma perda de conhecimento anterior. Por último, o modelo 
    proposto determina o número de categorias para o reconhecimento tendo como 
    parâmetro apenas uma relação de semelhança entre o protótipo de uma 
    categoria e as amostras que a integra.
    O modelo proposto, enquanto se mantém competitivo com relação a outros 
    modelos bem estabelecidos, possui uma menor complexidade computacional na 
    tarefa de conhecimento de lugares, devido ao agrupamento por meio de SOM, 
    que reduz substancialmente o número de comparações para determinação de um 
    local.

9
  • LORRAINE ALMEIDA DE MORAIS
  • Políticas de encriptação: da imprescindibilidade da criptografia 
    para garantia do exercício dos direitos fundamentais

  • Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • MEMBRES DE LA BANQUE :
  • CARLOS AFFONSO PEREIRA DE SOUZA
  • ALEXANDRE FREIRE PIMENTEL
  • CARLOS ANDRE GUIMARAES FERRAZ
  • RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • Data: 11 mars 2024


  • Afficher le Résumé
  • A política de encriptação, entendida como normativo que dispõe como se dará 
    aplicabilidade, limites e utilização da criptografia de ponta a ponta em 
    jurisdições, torna-se um objeto bastante pertinente de estudo e 
    aprofundamento, que intersecciona duas áreas do saber: o direito e a 
    ciência da computação. Países com nível de desenvolvimento alto e de 
    histórico de estarem sempre em busca de avanços tecnológicos, como por 
    exemplo: Estados Unidos, Canadá, Inglaterra, Nova Zelândia e Austrália, 
    possuem em paralelo um arcabouço normativo forte no que tange à regulação 
    da tecnologia, partindo, inclusive, para a celebração de tratados 
    internacionais, como é o caso da Aliança dos Cinco olhos, composta pelos 
    países anteriormente mencionados. Diante dessa realidade, foi desenvolvida 
    esta pesquisa, a fim de se verificar a relação entre as políticas de 
    encriptação com o exercício dos direitos fundamentais por cidadãos desses 
    países e os reflexos que esse relacionamento pode provocar em países em 
    desenvolvimento, como, por exemplo, o Brasil. De modo a subsidiar o 
    desenvolvimento da pesquisa, foram buscados, dentro do ordenamento jurídico 
    de cada um dos países, normativos que regulassem a utilização
    da criptografia, bem como o relacionamento desses países com países 
    aliados. Muito embora o Brasil não seja membro da Aliança dos Cinco Olhos, 
    a fim de trazer uma perspectiva local acerca da temática, também foi 
    realizada uma análise junto à legislação brasileira. Para apoiar o estudo 
    de caso desenvolvido junto ao sistema jurídico de cada um dos países, foi 
    feito uso de bibliografia, acompanhada da realização de entrevistas a 
    especialistas no domínio do direito e da tecnologia para comentarem acerca 
    da temática numa perspectiva própria e entender eventuais lacunas e 
    intersecções existentes que podem ser trabalhadas, a fim da temática tomar 
    maior notoriedade para a sociedade. Pois, por se tratar de uma tecnologia 
    que interfere direta e cotidianamente na vida das pessoas de todo o mundo, 
    por estar presente em vários dispositivos utilizados pelas pessoas, faz-se 
    necessário perceber se há a vulnerabilidade do exercício de direitos 
    fundamentais em razão de políticas hipervigilantes. Como resultados 
    encontrados com a pesquisa, conclui-se que é a normatização da tecnologia, 
    deveria ser observada pelos países como uma alternativa de garantir a 
    segurança jurídica daqueles que fazem o seu uso, evitando lesões à sua 
    imagem, vida privada, intimidade, honra e proteção de dados, e não no 
    objetivo de majorar a vigilância estatal sobre as atividades do cotidiano, 
    ainda que gerem receio quanto à intenção daquele que faz uso da tecnologia, 
    devendo, assim, os governantes centrarem suas capacidades de mudança social 
    no investimento na educação digital.

10
  • LUCAS PONTES DE ALBUQUERQUE
  • DQ-Mesh: Fotografia 3D com imagem única em dispositivos mobile

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • MANUEL MENEZES DE OLIVEIRA NETO
  • SILVIO DE BARROS MELO
  • TSANG ING REN
  • Data: 20 mars 2024


  • Afficher le Résumé
  • Apesar do crescente avanço e desenvolvimento de técnicas de aprendizagem 
    profunda na construção de modelos 3D utilizando fotografias, ainda é um 
    problema bastante desafiador e ainda com certas limitações. Mesmo com as 
    constantes melhorias de precisão em técnicas de estimação de profundidade e 
    de preenchimento de cor, os trabalhos atuais têm focado em adaptar novas 
    arquiteturas à construção das estruturas 3D para renderização. Logo, esses 
    métodos podem ter um elevado custo computacional dificultando a 
    implementação em dispositivos mobile. Além disso, os métodos com abordagem 
    NeRF (Neural Radiance Fields) que possuem o estado da arte em fotografia 3D 
    precisam de uma certa quantidade de imagens e posições de câmera para obter 
    uma modelagem acurada. Com isso, neste trabalho propomos o DQ-Mesh, que 
    consiste em um método de construção de uma estrutura mesh utilizando apenas 
    um estimador de profundidade e um modelo de preenchimento de cor. Diferente 
    dos métodos no estado da arte, esse método não precisa de treinamento para 
    a construção da estrutura 3D, utilizando apenas o mapa de profundidade como 
    referência. Assim, o foco das otimizações para embarcar em dispositivos com 
    menor capacidade computacional recai sobre os algoritmos de estimação de 
    profundidade e preenchimento de cor. Os experimentos em conjuntos de dados 
    sintéticos e reais mostram que o desempenho do nosso método proposto tem 
    desempenho comparável aos atuais modelos no estado da arte.

11
  • MARIA EDUARDA VERCOSA CARNEIRO DE ANDRADE
  • ABORDAGENS E DESAFIOS NA GESTÃO DE DADOS DE GÊNERO EM PESQUISAS EMPÍRICAS DE ENGENHARIA DE SOFTWARE: UM MAPEAMENTO SISTEMÁTICO


  • Leader : FABIO QUEDA BUENO DA SILVA
  • MEMBRES DE LA BANQUE :
  • FABIO QUEDA BUENO DA SILVA
  • KIEV SANTOS DA GAMA
  • LILIANE SHEYLA DA SILVA
  • Data: 22 mars 2024


  • Afficher le Résumé
  • Contexto: Estudos empíricos de engenharia de software geralmente envolvem 
    participantes humanos diretamente na coleta de dados ou indiretamente como 
    produtores/consumidores de dados coletados nos estudos. O crescente 
    interesse por questões relacionadas à gênero como equidade, diversidade, 
    equilíbrio, preconceito, etc., torna necessário coletar e usar dados de 
    gênero em estudos empíricos. Apesar de sua importância, nem todos os 
    estudos envolvendo seres humanos em engenharia de software coletam dados de 
    gênero e menos ainda usam os dados coletados como parte de sua análise.
    Objetivo: Este estudo tem como objetivo caracterizar como os dados de 
    gênero são coletados e usados em pesquisas empíricas de engenharia de 
    software.
    Método: Foi realizado um mapeamento sistemático da literatura científica em 
    engenharia de software, por meio de busca manual em quatro fontes de dados, 
    limitado aos estudos publicados em 2020-2021.
    Resultados: Foram analisados 946 estudos de quatro fontes primárias. Deste 
    total, 221 estudos que envolvem fatores humanos foram selecionados para 
    análise. Entre os estudos selecionados, 149 não mencionam gênero, 37 
    coletam porém não reportam os dados de gênero, 23 reportam dados de gênero, 
    12 utilizam os dados de gênero nas análises entre os quais 6 dos estudos 
    utilizam gênero como variável independente nas análises.
    Conclusão: A grande maioria dos estudos analisados ainda não leva em 
    consideração o fator gênero em suas análises. O número de publicações que 
    coletam e analisam dados de gênero é significativamente pequeno quando 
    comparado com o número de publicações em geral. E os estudos que coletam os 
    dados de gênero não tiram o maior proveito possível dos mesmos.

12
  • ANA ALICE PEREGRINO PINTO
  • Uma análise comparativa de modelos para a predição de fluxos 
    pendulares para planejamento urbano

  • Leader : NIVAN ROBERTO FERREIRA JUNIOR
  • MEMBRES DE LA BANQUE :
  • FABIO MARKUS NUNES MIRANDA
  • CLEBER ZANCHETTIN
  • NIVAN ROBERTO FERREIRA JUNIOR
  • Data: 25 mars 2024


  • Afficher le Résumé
  • Com o crescimento desenfreado dos centros urbanos, o planejamento urbano se tornou
    imprescindível na criação e gestão de cidades a fim de melhorar a qualidade de vida
    de seus habitantes. Mobilidade urbana é uma das frentes desse planejamento de grande
    importância em grandes cidades. Problemas de mobilidade estão associados a questões
    como mal uso de recursos materiais e tempo, emissão de gases de efeito estufa e desperdício de tempo das pessoas em deslocamento. Fluxos pendulares, em particular, que são os fluxos entre casa e trabalho feitos diariamente, são bastante estudados por sua importãncia para a qualidade de vida dos cidadãos. Neste contexto, técnicas de modelagem de fluxos de deslocamento são ferramentas importantes para auxiliar os tomadores de decisão na definição das melhores estratégias de planejamento. Tais ferramentas são importantes não só para entender os atuais padrões nas cidades, mas também para realizar planejamento de cenários, que consiste em tentar antever como possíveis ações irão impactar a mobilidade urbana. Com o crescimento da disponibilização de dados urbanos, modelos baseados em técnicas de aprendizagem de máquina têm se destacado por sua performance em prever fluxos de mobilidade. O objetivo do presente trabalho é realizar uma análise comparativa dos principais modelos baseados em aprendizagem de máquina propostos para previsão de fluxos pendulares, com foco em tarefas relacionadas ao planejamento de cenários. Os modelos selecionados são divididos entre abordagens lineares, modelos baseados em árvore e redes neurais. Para realizar a análise foram usadas métricas de desempenho utilizadas na literatura para o tipo de problema estudado, técnicas de interpretabilidade das saídas dos modelos, além de cenários de uso que simulam o planejamento de cenários. Os resultados indicam uma performance superior dos modelos baseados em redes neurais para grafos, mas também mostram padrões interessantes para modelos menos complexos, o que poderia tornar esses modelos competitivos como uma ferramenta de planejamento de cenários, devido ao seu menor tempo de treinamento e simplicidade na implementação.

13
  • LUCAS AUGUSTO MOTA DE ALCANTARA
  • Aprendizagem Contínua para Classificação de Imagens

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • LUIZ EDUARDO SOARES OLIVEIRA
  • TSANG ING REN
  • Data: 26 mars 2024


  • Afficher le Résumé
  • A habilidade de realizar Aprendizado Contínuo (Continual Learning) é 
    crucial para o desenvolvimento de modelos de Inteligência Artificial 
    capazes de adquirir e manter conhecimento ao longo do tempo sem esquecer 
    informações anteriores. Isso representa um grande desafio técnico, dado que 
    redes neurais são suscetíveis ao fenômeno de esquecimento catastrófico 
    durante o processo de aprendizado de novas tarefas. Métodos basados na 
    abordagem de pseudo-replay utilizam redes gerativas para criar amostras 
    sintéticas de tarefas anteriores, que são então apresentadas ao modelo 
    durante o aprendizado de novas tarefas com o intuito de reduzir o 
    esquecimento. Nesta dissertação, exploramos melhorias no então método 
    estado da arte baseado na abordagem de pseudo-replay, Invariant 
    Representation for Continual Learning (IRCL). Utilizamos como modelo 
    gerativo uma cVAE-GAN (Conditional Variational Autoencoder Generative 
    Adversarial Network) e desacoplamos o seu treinamnto do restante da 
    arquitetura, de forma a otimizar as diferentes partes da rede de forma 
    independente. Além disso, utilizamos camadas convolucionais ao invés de 
    camadas lineares. Os resultados experimentais alcançados demonstram 
    melhorias de até 10 pontos percentuais na Acurácia Média e de até 8 pontos 
    na média do Backward Transfer, superando o estado da arte nos conjuntos de 
    dados Split MNIST e Split FashionMNIST

14
  • EDUARDO BARRETO BRITO
  • Analysis and proposal of a quantum classifier based on open quantum 
    systems with amplitude information loading

  • Leader : FERNANDO MACIANO DE PAULA NETO
  • MEMBRES DE LA BANQUE :
  • DANIEL JOST BROD
  • FERNANDO MACIANO DE PAULA NETO
  • WILSON ROSA DE OLIVEIRA JUNIOR
  • Data: 26 mars 2024


  • Afficher le Résumé
  • Apesar dos progresso no estudo de algorítmos quânticos, ainda se faz 
    necessário o ampliamento da investigação de sistemas quânticos abertos. 
    Nesse trabalho é apresentado o uso de sistemas quânticos abertos para 
    implementar um algorítmo de classificador quântico. Zhang et al. propõem um 
    sistema de 1 QuBit que interagem com o ambiente através de um operador que 
    vem do Hamiltoniano do sistema. Na nossa proposta, os dados de entrada são 
    carregados na amplitude do sistema ao invés de estarem presentes no 
    operador unitário. Essa mudança trouxe um impacto positivo na performance 
    do modelo em diferentes bancos de dados testados e também no comportamento 
    do emaranhamento. Os modelos foram testados em quatro bancos de dados 
    reais: Iris Dataset, Wine Dataset, Caesarian Section Classification Dataset 
    e Pima Indians Diabetes Dataset, além de outros 7 bancos de dados 
    artificiais, e os resultados são avaliados considerando a acurácia e o 
    F1-Score. Além da análise de resultados, ainda foi feita uma análise mais 
    profunda em relação ao Iris Dataset, checando melhores parâmetros para o 
    modelo e como o mesmo se comporta em relação à negatividade. Os resultados 
    mostram que, apesar de ter uma área de decisão mais simples que o modelo de 
    Zhang et al., o neurônio proposto performou melhor que o modelo de Zhang et 
    al. Entretanto, nenhum padrão foi observado em relação ao emaranhamento. 
    Devido à uma perfomance abaixo do esperado para um problema linearmente 
    separável, um kernel exponencial foi adicionado a ambos modelos. Essa 
    adição trouxe um impacto positivo na acurácia de ambos os classificadores.

15
  • BERNARDO DE MORAES SANTANA JÚNIOR
  • Explorando frameworks multiplataforma para desenvolvimento Android: 
    Uma investigação sobre o consumo de recursos

  • Leader : FERNANDO JOSE CASTOR DE LIMA FILHO
  • MEMBRES DE LA BANQUE :
  • FERNANDO ANTONIO MOTA TRINTA
  • FERNANDO JOSE CASTOR DE LIMA FILHO
  • LEOPOLDO MOTTA TEIXEIRA
  • Data: 27 mars 2024


  • Afficher le Résumé
  • O desenvolvimento multiplataforma tem chamado a atenção de várias empresas 
    do mercado devido à necessidade de uma única base de código para várias 
    plataformas distintas. Essa característica é vantajosa, pois tende a 
    acelerar o processo de desenvolvimento de software e reduzir a quantidade 
    de bugs. Porém, essa forma de desenvolvimento normalmente adiciona camadas 
    de abstração ao código que podem impactar negativamente no desempenho da 
    aplicação final. Este trabalho visa analisar o impacto causado pelo 
    desenvolvimento com a abordagem multiplataforma em dispositivos Android, e 
    também apresenta uma ferramenta para automação do processo de análise, 
    chamada de Ebserver. Esta pesquisa analisou os frameworks de maior destaque 
    da atualidade e comparou a performance de dois programas e dez benchmarks 
    para entender qual o custo de escolha dos frameworks em relação ao 
    desenvolvimento na abordagem nativa. Para facilitar o processo de análise, 
    a construção do Ebserver se mostrou de grande utilidade para garantir uma 
    maior confiabilidade dos dados gerados e velocidade no processo de coleta 
    dos dados durante os testes dos programas. Para análise dos frameworks, foi 
    utilizado um conjunto de programas de benchmarks - sem interação com a 
    interface gráfica -, além de uma aplicação focada em animação de imagens e 
    outra aplicação de gerenciamento de contatos, uma que atualiza a GUI 
    constantemente e outra que envolve interação com usuário. Para coleta de 
    informações, como consumo de memória, CPU, energia e tempo de execução, foi 
    utilizado o Android Debug Bridge (ADB). Dados encontrados mostram que, a 
    depender da aplicação, os frameworks multiplataforma podem ser bastante 
    competitivos a nível de performance em comparação com a abordagem nativa, 
    em Java. Flutter, no geral, foi o que apresentou menor impacto em 
    comparação aos demais frameworks, havendo cenários em que até mesmo 
    performou melhor do que a abordagem nativa. React Native, enquanto tendo a 
    pior performance em cenários de alto consumo de CPU, obteve a melhor 
    performance nos testes mais focados em atualização frequente da interface 
    gráfica. Os resultados mostram que a escolha de qual ferramenta utilizar 
    vai depender do cenário e o processo de análise é de grande importância 
    antes de se dedicar a um framework para desenvolvimento de aplicações de 
    grande porte.

16
  • MATEUS BALTAZAR DE ALMEIDA
  • Comparações de Modelos Neurais em Redução de Ruído de Imagens de 
    Tomografia Computadorizada

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • ALCEU DE SOUZA BRITTO JÚNIOR
  • CLEBER ZANCHETTIN
  • TSANG ING REN
  • Data: 27 mars 2024


  • Afficher le Résumé
  • Reduzir a exposição de pacientes à radiação ionizante em exames de 
    Tomografia Computadorizada (CT) é primordial para minimizar os riscos 
    oncogênicos, desafiando o desenvolvimento de técnicas que viabilizem 
    imagens claras mesmo com doses baixas de radiação. A remoção eficaz de 
    ruído das imagens médicas mediante modelos neurais surge como solução para 
    recuperar a qualidade de imagens produzidas com menor corrente elétrica nos 
    tubos de raio-X. Este estudo centra-se na comparação equitativa de 
    diferentes arquiteturas de redes neurais nessa aplicação, confrontando a 
    adequação das avaliações tradicionais, ancoradas em análises pontuais que 
    ignoram variações experimentais, permitindo conclusões superficiais e 
    tendenciosas, além de abordar a inconsistência entre métricas quantitativas 
    e qualidade visual. Com ênfase nos desafios inerentes, a metodologia 
    adotada perpassou por um controle rigoroso de hiperparâmetros, tal como o 
    tamanho do batch e seeds, para garimpar nuances no desempenho dos modelos 
    sob variações experimentais. As experimentações, sob um meticuloso ambiente 
    de testes, buscaram garantir replicabilidade e entender cuidadosamente o 
    papel das funções de perda na preservação de detalhes diagnósticos. 
    O "Efeito MSE", um artefato visual induzido por funções de perda 
    pixel-wise, foi um dos delineamentos qualitativos observados, desafiando a 
    confiabilidade das métricas tradicionais. A pesquisa evidencia a 
    complexidade subjacente nas análises de desempenho, postulando o design de 
    um framework que confere maior confiabilidade aos resultados, além de 
    apontar para a necessidade de práticas de avaliação mais robustas e 
    holísticas no campo da reconstrução de imagens médicas.

17
  • RICARDO HELISSON BEZERRA AMORIM
  • MONITORANDO REDES EM INTERNET DAS COISAS (IoT): segurança de baixo custo com Suricata

  • Leader : JOSE AUGUSTO SURUAGY MONTEIRO
  • MEMBRES DE LA BANQUE :
  • FREDERICO ARAÚJO DA SILVA LOPES
  • CARLOS ANDRE GUIMARAES FERRAZ
  • JOSE AUGUSTO SURUAGY MONTEIRO
  • Data: 27 mars 2024


  • Afficher le Résumé
  • A Internet das Coisas trouxe inegáveis avanços científicos em várias áreas 
    do conhecimento e, por outro lado, foi protagonista do aumento do número de 
    ataques DDoS mundialmente nos últimos anos, principalmente envolvendo 
    dispositivos IoT residenciais. Diante desse cenário, os dispositivos IoT 
    residenciais têm preferência para participar de ataques DDoS como slaves 
    porque possuem falhas na segurança e alta disponibilidade, ou seja, 
    geralmente estão funcionando por longos períodos e não dispõem de 
    mecanismos robustos de segurança, devido a limitações de hardware e de 
    software. Nesse sentido, a nova abordagem para a segurança em IoT envolve o 
    desafio de produzir uma solução de segurança eficiente, com baixo custo e 
    consumo de hardware limitado. Notando uma necessária atenção da comunidade 
    científica nesse aspecto, o presente trabalho propõe uma solução de 
    segurança de baixo custo com Suricata, nomeada de Block Suricata Anti-DDoS, 
    capaz de alertar sobre as vulnerabilidades de segurança em dispositivos IoT 
    de redes residenciais, com foco em ataques DDoS de inundação HTTP. Trata-se 
    de uma solução gratuita, com código eficiente, capaz de enviar notificações 
    via aplicativo Telegram ao administrador da rede doméstica. Na avaliação de 
    desempenho, o computador de baixo custo com o Block Suricata Anti-DDoS foi 
    considerado como sistema, e os alertas gerados foram considerados como 
    serviço. Foram consideradas diferentes configurações em três cenários 
    distintos. O primeiro cenário foi configurado com a velocidade máxima de 
    ataques gerados pelo software Low Orbit Ion Cannon (LOIC), o segundo 
    cenário com a velocidade média, e o terceiro cenário com a velocidade 
    mínima de ataques DDoS. No primeiro cenário, obteve-se um consumo de 
    memória de 75,4% e consumo de CPU de 99.6%, impactando na acurácia da 
    detecção em 97,2%. No segundo cenário, obteve-se um consumo de memória de 
    45,8% e consumo de CPU de 90.8%, impactando na acurácia da detecção em 
    99,2%. No terceiro cenário, obteve-se um consumo de memória de 31,7% e 
    consumo de CPU de 38.9%, impactando na acurácia da detecção em 99,5%. A 
    avaliação de desempenho utilizando tráfego real de três meses em três casas 
    inteligentes demonstrou uma média 98,633% de acurácia do Block Suricata 
    Anti-DDoS para detectar ataques DDoS de inundação HTTP, comprovando o 
    benefício da solução de segurança proposta.

Thèses
1
  • PAULO FERNANDO LEITE FILHO
  • ESCALA PSICOMÉTRICA NA AVALIAÇÃO COGNITIVA DO APRENDIZADO DE MÁQUINA

  • Leader : SILVIO DE BARROS MELO
  • MEMBRES DE LA BANQUE :
  • CARMELO JOSÉ ALBANEZ BASTOS FILHO
  • CHRISTIAN ROBSON DE SOUZA REIS
  • NIVAN ROBERTO FERREIRA JUNIOR
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • SERGIO DE CARVALHO BEZERRA
  • Data: 30 janv. 2024


  • Afficher le Résumé
  • A Inteligência Artificial (IA) desempenha atividades complexas, e 
    determinar métodos de avaliação cognitiva após as etapas de aprendizagem é 
    fundamental para aplicação da IA. O objetivo desta Tese foi avaliar as 
    dificuldades (b) calculadas pela escala psicométrica da Teoria da Resposta 
    ao Item (TRI) nas seguintes situações: nas classificações dos algoritmos em 
    diferentes situações de fatores adversos aos algoritmos, nos resultados das 
    métricas e nas regras de  tomada de decisão para a cognição. Foram 
    comparadas as classificações de 34 algoritmos não supervisionados em 11 
    datasets, os resultados das métricas do Erro Quadrado Médio (EQM), 
    Precisão, Sensibilidade e Especificidade com os valores de b. Destacando os 
    grupos de algoritmos habilidosos nas dificuldades de classificação: 
    k.means.fit.Lloyd (15,90% dos 45,45%), Fanny (18,18%), Clara (11.35%), 
    Cluster-Medoids (9,09%), Sota (9,09%) e PAM (6,81%), assim como os modelos 
    1PL e 3PL da TRI como melhores referências de b para situações adversas 
    para as classificações mais complexas.

2
  • PAULO ROGER GOMES CORDEIRO
  • Uma abordagem para pós-seleção de ensembles utilizando conceitos de 
    Oráculo e Multi-view Learning

  • Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBRES DE LA BANQUE :
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • LUIZ EDUARDO SOARES OLIVEIRA
  • RAFAEL FERREIRA LEITE DE MELLO
  • TSANG ING REN
  • Data: 6 févr. 2024


  • Afficher le Résumé
  • Os Sistema de múltiplos classificadores (SMC) foram desenvolvidos como 
    alternativa às abordagens tradicionais que utilizam classificadores 
    individuais. Entre as abordagens de SMC, os algoritmos de Seleção dinâmica 
    de ensemble (SDE) destacam-se por apresentarem melhor desempenho em 
    diversos cenários. Contudo, mesmo com os resultados promissores das 
    abordagens de SDE, dada a heterogeneidade dos cenários de aplicação, é 
    improvável que um único algoritmo SDE seja a solução ideal em todos os 
    casos. É diante dessa lacuna que este trabalho propõe um novo método 
    denominado Post-Selection Dynamic Ensemble Selection (OS DES). O PS-DES 
    atua como uma estratégia de pós-seleção, avaliando e escolhendo os melhores 
    ensembles selecionados por diferentes técnicas de SDE, para cada amostra 
    apresentada. Para avaliar os ensembles é proposta uma nova medida 
    denominada Hardness-aware Oracle (HaO). Ao contrário da avaliação 
    tradicional, aplicada em técnicas SDE que é centrada em classificadores 
    individuais, o HaO estende o conceito do Oráculo ao analisar como os 
    classificadores do ensemble selecionado cooperam entre si. Também é 
    proposto adicionar uma nova camada ao PS-DES, visando gerar mais 
    diversidade ao sistema, utilizando conceitos de Multi-view learning (MVL) 
    ao aplicar diversas funções de transformação nos dados originais. Essa 
    versão do PS-DES é chamada de Post-Selection Dynamic Ensemble Selection 
    with Multi-View Learning (PS-DES-MVL). Para avaliar as abordagens 
    propostas, foram realizados experimentos em 30 bases de dados, utilizando 
    configurações de pools homogêneas e heterogêneas com três 
    classificadores-base (Perceptron, Logistic Regression e Naive Bayes), 
    avaliando o OS DES com quatro abordagens de SDE estabelecidas na 
    literatura. A avaliação do PS-DES-MVL segue o mesmo arranjo experimental 
    apresentado para o PS-DES, adicionando a aplicação de técnicas de geração 
    de views. Os resultados demonstraram que o PS-DES supera ou obtém 
    resultados similares às abordagens SDE individuais, principalmente em 
    configurações de pools heterogêneos. Além disso, o PS-DES demonstrou 
    eficiência na escolha de técnicas SDE adequadas a diferentes situações. O 
    PS-DES-MVL, ao avaliar formas individuais de geração de views, obteve 
    resultados similares ou superiores na maior parte das análises.

3
  • MARCONDES RICARTE DA SILVA JÚNIOR
  • Mapas Auto-organizáveis Multi-camadas Especialistas com Relevâncias 
    Intra e Inter-categoria

  • Leader : ALUIZIO FAUSTO RIBEIRO ARAUJO
  • MEMBRES DE LA BANQUE :
  • ADRIEN JOAN SYLVAIN DURAND PETITEVILLE
  • BRUNO JOSE TORRES FERNANDES
  • GUILHERME DE ALENCAR BARRETO
  • HANSENCLEVER DE FRANCA BASSANI
  • ZHAO LIANG
  • Data: 27 févr. 2024


  • Afficher le Résumé
  • O crescimento exponencial na quantidade e acessibilidade de dados 
    provenientes de diversas fontes tem gerado uma demanda crescente por 
    modelos e ferramentas capazes de capturar, armazenar, analisar e visualizar 
    esses dados.Por exemplo, a habilidade de categorizar cenas é crucial para a 
    construção de mapas semânticos por robôs, proporcionando-lhes a capacidade 
    de compreender o contexto do ambiente com conceitos de alto nível. Tarefas 
    de categorização para mineração de dados ou categorização de objetos também 
    são muito relevantes e demandadas. A complexidade do agrupamento aumenta 
    proporcionalmente ao número de amostras, categorias e dimensionalidade dos 
    dados, levando as métricas de distância a perderem poder de discriminação. 
    Nesse contexto, apresentamos um algoritmo de agrupamento por subespaço que 
    aprende uma categoria por vez em um Mapa Auto-organizável (SOM) próprio. 
    Nosso modelo de SOMs com múltiplas camadas aprende um coeficiente de 
    relevância intra-categoria para cada dimensão de agrupamento, enfatizando 
    os atributos mais importantes para a categorização. Cada camada realiza 
    incorpora também a relevância inter-categoria dos atributos. As amostras 
    são propagadas entre as camadas por meio de um processo de composição de 
    amostras com protótipos treinados. Ao final de todas as camadas, é 
    realizado um refinamento por meio de inferência variacional. Avaliamos o 
    modelo utilizando conjuntos de dados para mineração, reconhecimento de 
    objetos e cenas. Comparamos os resultados com modelos que dividem o espaço 
    por diagrama de Voronoi, famílias de modelos derivados do k-NN e do LVQ. 
    Nossos experimentos indicam que nosso modelo é competitivo e escalável.

4
  • DAVID ALAIN DO NASCIMENTO
  • Enabling TSN Scheduled Traffic on Ethernet Multidrop In-Vehicle Networks

  • Leader : DIVANILSON RODRIGO DE SOUSA CAMPELO
  • MEMBRES DE LA BANQUE :
  • MOISÉS RENATO NUNES RIBEIRO
  • ABEL GUILHERMINO DA SILVA FILHO
  • DAVE ALBERTO TEIXEIRA CAVALCANTI
  • JOSE AUGUSTO SURUAGY MONTEIRO
  • KELVIN LOPES DIAS
  • Data: 29 févr. 2024


  • Afficher le Résumé
  • Por conta dos diferentes requisitos de largura de banda, atraso, jitter e perdas, diferentes tecnologias de comunicação intra-veicular foram utilizadas em diferentes domínios,
    pois uma única tecnologia que fosse capaz de cumprir com todos os distintos requisitos
    das aplicações dos veículos atuais não existia. Entretanto, os recentes padrões de camada física do Ethernet 100BASE-T1, 1000BASE-T1 e 10BASE-T1S, quando usados em
    conjunto com os protocolos Time-Sensitive Networking (TSN), abriram incontáveis possibilidades para aplicações intra-veiculares que eram inimagináveis a alguns anos atrás.
    O conceito de um veículo totalmente Ethernet, o qual faz o uso do Ethernet como uma
    solução completa para comunicações intra-veiculares, tornou-se uma realidade. Apesar do
    fato de que estudos recentes investigaram o comportamento de alguns protocolos TSN,
    como por exemplo o Time-Aware Shaper (TAS), com respeito às suas utilizações em
    aplicações do tipo safety-critical, nenhum deles considerou o uso do 10BASE-T1S como
    uma substituição à tecnologias legadas para comunicação em barramento entre Electronic
    Control Units (ECUs). Neste trabalho, apresentamos uma solução para a modelagem e
    análise usando Network Calculus de uma rede veicular totalmente Ethernet com enlaces
    ponto-a-ponto e barramentos multidrop para transmissão de fluxos de tráfego agendados.
    A modelagem e análise propostas se baseiam no Deterministic Network Calculus, um arcabouço matemático que consegue calcular analiticamente as garantias de desempenho
    requeridas em sistemas críticos em relação à segurança e aplicações em tempo real. Como
    parte deste estudo, apresentamos a modelagem formal do tráfego agendado em uma rede
    veicular totalmente Ethernet usando o protocolo TAS na camada de enlace, bem como a
    modelagem do Physical Layer Collision Avoidance (PLCA), um novo método coordenado
    de acesso canal disponível no padrão de camada física 10BASE-T1S e sua capacidade de
    transmitir vários quadros em rajadas em um barramento multidrop. Também provemos
    uma ferramenta de código aberto para o cálculo dos limitantes de pior caso de redes TAS
    e TAS integradas com PLCA.

5
  • FRANCIMARIA RAYANNE DOS SANTOS NASCIMENTO
  • HATE SPEECH DETECTION AND GENDER BIAS MITIGATION USING ENSEMBLE LEARNING

  • Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBRES DE LA BANQUE :
  • CAROLINA SCARTON
  • LILIAN BERTON
  • MIRELLA MOURA MORO
  • RAFAEL MENELAU OLIVEIRA E CRUZ
  • TSANG ING REN
  • Data: 12 mars 2024


  • Afficher le Résumé
  • AAAA

6
  • WILLAMS DE LIMA COSTA
  • Emotion recognition based on nonverbal communication cues

  • Leader : VERONICA TEICHRIEB
  • MEMBRES DE LA BANQUE :
  • ANGELICA LIM
  • PETIA RADEVA
  • GILBERTO OCHOA-RUIZ
  • SUSAN HAO
  • VALTER SILVA FERREIRA FILHO
  • CLEBER ZANCHETTIN
  • Data: 22 mars 2024


  • Afficher le Résumé
  • aaaa

7
  • DAYVID WELLES DE CASTRO OLIVEIRA
  • An End-to-End Approach for Handwriting Recognition: From 
    Handwritten Text Lines to Complete Manuscripts

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • ALCEU DE SOUZA BRITTO JÚNIOR
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • LUIZ EDUARDO SOARES OLIVEIRA
  • TSANG ING REN
  • Data: 25 mars 2024


  • Afficher le Résumé
  • Esta tese investiga modelos inovadores para o Reconhecimento de Texto 
    Manuscrito (em inglês, Handwritten Text Recognition ou HTR), abordando a 
    complexidade de transcrever imagens de documentos manuscritos para texto 
    digital. A tarefa de HTR tem sido um tópico central de pesquisa no campo de 
    análise e reconhecimento de documentos ao longo das últimas décadas e 
    permanece um desafio atual com contínuos estudos que buscam otimizar os 
    sistemas de reconhecimento. Essa tarefa evoluiu seguindo uma tendência de 
    remover restrições e suposições no processo de reconhecimento. Os primeiros 
    estudos se limitavam ao reconhecimento de caracteres ou dígitos, e hoje 
    existem soluções capazes de lidar com uma página manuscrita completa. Como 
    resultado dessa tendência, o Reconhecimento de Documentos Manuscritos 
    surgiu como uma tarefa desafiadora que integra o reconhecimento de texto e 
    informações de layout para reconhecer manuscritos de ponta a ponta. Este 
    trabalho apresenta como primeira contribuição o modelo Octave Convolutional 
    Recurrent Neural Network para reconhecer linhas isoladas de texto, que está 
    em consonância com o estado da arte em reconhecimento de linhas enquanto 
    reduz os requisitos computacionais. Ainda assim, a solução inicial requer 
    imagens de linhas pré-segmentadas, que nem sempre estão disponíveis. 
    Portanto, a segunda contribuição explora o reconhecimento de documentos 
    manuscritos livre de segmentação através do DANCER, um modelo inovador que 
    melhora a eficiência computacional enquanto mantém acurácia robusta. O 
    modelo se distingue das abordagens existentes com sua estrutura única 
    encoder-decoder, onde o encoder reduz a redundância espacial e melhora a 
    atenção espacial, e o decoder, um modelo Transformer, decodifica o texto de 
    maneira eficiente usando operações de atenção otimizadas. Este design 
    resulta em um modelo eficiente capaz de transcrever e compreender 
    documentos manuscritos com layouts complexos. A eficácia do DANCER foi 
    avaliada em um conjunto de dados históricos desafiador, considerando o 
    reconhecimento de documentos de uma e duas páginas. Dentre os benefícios do 
    DANCER identificados nos experimentos, destacam-se sua eficiência de 
    memória, escalabilidade para documentos mais longos, além de apresentar 
    treinamento e inferência mais rápidos que modelos anteriores. Este trabalho 
    não apenas avança o estado da arte em HTR, mas define bases para futuras 
    explorações em sistemas de reconhecimento de documentos manuscritos.

8
  • HEMILIS JOYSE BARBOSA ROCHA
  • O comportamento “abuso do sistema” em estudantes iniciantes em 
    programação durante a resolução de problemas em ambientes virtuais de 
    aprendizagem

  • Leader : PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • MEMBRES DE LA BANQUE :
  • LUCIA MARIA MARTINS GIRAFFA
  • SEAN WOLFGAND MATSUI SIQUEIRA
  • DANIELLE ROUSY DIAS RICARTE
  • GEBER LISBOA RAMALHO
  • MARIA AUXILIADORA SOARES PADILHA
  • Data: 3 avr. 2024


  • Afficher le Résumé
  • Nos últimos anos, observamos um aumento significativo no interesse pelo 
    comportamento do "abuso do sistema" em ambientes de aprendizagem online, 
    onde alunos buscam avançar no sistema sem efetivamente se engajarem em 
    processos de aprendizado autênticos. Embora estudos experimentais 
    anteriores tenham avançado na identificação e compreensão desse 
    comportamento, há uma necessidade de uma exploração mais aprofundada, 
    especialmente no que diz respeito aos desafios relacionados a influências 
    socioeconômicas e demográficas. Este estudo amplia a investigação ao 
    examinar programadores iniciantes em uma escola rural no nordeste do 
    Brasil, analisando não apenas o contexto socioeconômico e demográfico, mas 
    também as interações dos alunos em uma plataforma online dedicada à 
    resolução de problemas de programação. O objetivo é aprimorar a 
    compreensão, destacando o impacto desses contextos no fenômeno do "abuso do 
    sistema". Para atingir esse propósito, foi conduzido um experimento 
    envolvendo alunos iniciantes em programação, revelando atitudes que podem 
    ser caracterizadas como tentativas de "abuso do sistema", além de 
    estabelecer associações significativas com o contexto em que estão 
    inseridos. Além disso, foi desenvolvido um modelo de detecção automática 
    para identificar as instâncias desse comportamento, com bons resultados de 
    classificação.

2023
Thèses
1
  • HUMBERTO WILLAMS CAVALCANTE ANDRADE
  • What triggers consumer adoption of Real Digital in Financial Products

  • Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • MEMBRES DE LA BANQUE :
  • JOSE CARLOS SILVA CAVALCANTI
  • JOÃO JOSÉ COSTA GONDIM
  • RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • Data: 14 févr. 2023


  • Afficher le Résumé
  • Uma vez que o ecossistema financeiro está mudando após o desenvolvimento do mercado de criptoativos, a maioria dos Bancos Centrais ao redor do mundo têm tentado desenvolver sua própria moeda digital para se inserir nesse novo mercado. Essa moeda é conhecida como Central Bank Digital Curriencies (CBDC), ou Moedas Digitais de Bancos Centrais, em tradução livre.

    Essa discussão cresceu desde a pandemia do Covid-19 e muitos países iniciaram a pesquisar e divulgar insights a respeito do que eles estavam fazendo na tentativa de promover esta tecnologia internamente e também como isso impactaria a economia global.

    Além disso, a economia digital pode prover dados que ajudarão governos a minimizarem problemas internos uma vez que ela facilita a inclusão financeira.

    O Brasil experienciou isso após o seu bem sucedido sistema de pagamento instantâneo, conhecido como PIX. Agora o Banco Central do Brasil tem trabalhado para lançar sua própria moeda digital.

    Ainda que a discussão sobre como moedas digitais de bancos centrais impactarão os cidadãos esteja em seu início, essa tese busca entender o que engatilha a adoção dos consumidores nos produtos financeiros do Brasil, na tentativa de promover o debate acerca do estágio de desenvolvimento do Real Digital e fazendo, também, um panorama geral do tema de moedas digitais de bancos centrais.

2
  • WALTER DE MACEDO RODRIGUES
  • Contribuições para a Elicitação de Requisitos de software: Análise 
    e Proposições para Elicitação de Requisitos Normativos

  • Leader : JESSYKA FLAVYANNE FERREIRA VILELA
  • MEMBRES DE LA BANQUE :
  • CARLOS ANDRE GUIMARAES FERRAZ
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • MARIA AMALIA OLIVEIRA DE ARRUDA CAMARA
  • Data: 15 févr. 2023


  • Afficher le Résumé
  • Contexto: A elicitação de requisitos de software é imprescindível para a 
    qualidade do software, especialmente em ambientes regulados. A 
    identificação de requisitos legais, relacionados a regulamentos e normas 
    técnicas, neste trabalho denominado de requisitos normativos, é necessária 
    para desenvolver software em conformidade com os normativos. A complexidade 
    para identificar os requisitos normativos relativos ao software em 
    desenvolvimento pode significar a necessidade da contratação de equipes 
    especializadas para elicitação de requisitos ou a leniência a depender da 
    complexidade e disponibilidade de recursos. Além disso, a tomada de decisão 
    durante o processo de elicitação e definição dos requisitos normativos é 
    influenciada pelas diferentes metodologias existentes que utilizam 
    diferentes ferramentas das ciências jurídicas na atividade interpretativa. 
    Objetivo: propor uma metodologia para elicitação de requisitos normativos 
    baseada em doutrinas pós-positivistas, adicionando características como 
    ponderação de princípios e decisões orientadas para garantir segurança 
    jurídica, conjugando previsibilidade e flexibilização de requisitos. 
    Método: uma revisão sistemática de literatura foi realizada para 
    identificar as metodologias existentes, analisar suas características, 
    classificá-las de acordo com os aspectos jurídicos utilizados e 
    compará-las. Além disso, a metodologia proposta foi aplicada em dois 
    cenários ilustrativos. Resultados: A maioria dos estudos incluídos na 
    revisão sistemática de literatura contém metodologias consideradas 
    anteriores à década de 50 acerca da norma e sua interpretação. Essas 
    metodologias têm como característica principal assumir processos 
    interpretativos da aplicação das normas como algo pacífico e não 
    contencioso, em especial quando se tratam de normas legais, focando em 
    aspectos práticos da elicitação. Foi também observado que aspectos 
    relacionados às estas teorias, em sua maioria, como hierarquia entre 
    normas, também não são considerados. Foi possível propor uma metodologia 
    com base em teorias mais atuais, que possibilitou uma maior flexibilidade 
    sem comprometer o rigor necessário para o processo de elicitação. Ao 
    aplicar a metodologia proposta nos dois cenários, observou-se uma 
    possibilidade de propor a flexibilização de requisitos que poderiam ter 
    sido considerados como essenciais e também uma maior facilidade em prever 
    alterações no sistema. Conclusões: A metodologia proposta pode garantir uma 
    maior previsibilidade nos resultados de aplicações que utilizam tecnologias 
    disruptivas, são ou estão para serem lançadas em mercados emergentes ou em 
    situações de inovação normativa. Foi demonstrado que uma abordagem 
    interdisciplinar do tema de elicitação de requisitos também deve passar por 
    uma atualização de discussões relacionadas às ciências jurídicas.

3
  • BEATRIZ BEZERRA DE SOUZA
  • Learning to Detect Text-Code Inconsistencies with Weak and Manual 
    Supervision

  • Leader : MARCELO BEZERRA D AMORIM
  • MEMBRES DE LA BANQUE :
  • MICHAEL PRADEL
  • LEOPOLDO MOTTA TEIXEIRA
  • MARCELO BEZERRA D AMORIM
  • Data: 15 févr. 2023


  • Afficher le Résumé
  • O código-fonte geralmente está associado a um resumo em linguagem natural, permitindo
    que os desenvolvedores entendam o comportamento e a intenção do código. Por exemplo, comentários em nível de método resumem o comportamento de um método e descrições de teste resumem a intenção de um caso de teste. Infelizmente, o texto e seu código correspondente às vezes são inconsistentes, o que pode atrapalhar a compreensão do código, a reutilização do código e a manutenção do código. Propomos TCID, uma abordagem para Detecção de Inconsistência de Código e Texto, que treina um modelo neural para distinguir pares de texto-código consistentes de inconsistentes. Nossa principal contribuição é combinar duas formas de treinar tal modelo. Primeiro, o TCID executa pré-treinamento fracamente supervisionado com base em grandes quantidades de exemplos consistentes extraídos do código como está e exemplos inconsistentes criados pela recombinação aleatória de pares texto-código. Em seguida, o TCID faz o ajuste fino no modelo baseado em um conjunto pequeno e curado de exemplos rotulados manualmente. Esta combinação é motivada pela observação de que a supervisão fraca por si só leva a modelos que generalizam mal a inconsistências do mundo real. Nossa avaliação
    aplica o procedimento de treinamento em duas etapas a quatro modelos de última geração e avalia-os em dois problemas de texto versus código: 40.7K comentários em nível de método verificados em relação ao corpo do método Java correspondente e—como um problema não considerado em trabalhos anteriores—338.8K as descrições dos casos de teste são verificadas em relação às implementações JavaScript correspondentes. Nossos resultados mostram que uma pequena quantidade de rotulagem manual permite que a eficácia da abordagem melhore significativamente, superando o estado da arte atual e melhorando a pontuação de F1 em 5% em Java e em 17% em JavaScript. Validamos a utilidade das previsões do TCID por envio de pull requests, dos quais 10 foram aceitos até o momento.

4
  • ALEXANDRE HENRIQUE KAVALERSKI TEIXEIRA
  • Cultura de inovação em organizações privadas: uma revisão 
    sistemática de literatura

  • Leader : GEBER LISBOA RAMALHO
  • MEMBRES DE LA BANQUE :
  • ALBERTO CESAR CAVALCANTI FRANCA
  • CRISTIANO COELHO DE ARAUJO
  • GEBER LISBOA RAMALHO
  • Data: 16 févr. 2023


  • Afficher le Résumé
  • Cultura de Inovação (CI) é o conjunto de valores, crenças, premissas, 
    atitudes e comportamentos que favorecem a inovação dentro de uma 
    organização, e é relevante para as empresas, pois representa um recurso 
    intangível e difícil de ser copiado por competidores, por levar a uma 
    melhor performance e aumento nas fontes de receita. Apesar dos avanços e 
    pesquisas realizadas na área de Cultura de Inovação, ainda há uma série de 
    divergências, inconsistências e desafios em definir os traços culturais que 
    a compõem, quais as barreiras, os determinantes e como medi-las no contexto 
    de organizações privadas. Esta dissertação visa identificar, avaliar e 
    interpretar os estudos disponíveis e relevantes na área para identificar os 
    traços culturais associados à CI, seus determinantes e barreiras. É 
    proposta uma categorização por meio dos construtos que representam o 
    fenômeno e também um questionário para medir a Cultura de Inovação nas 
    empresas. Os objetivos de pesquisa deste trabalho visaram identificar: 1) 
    Os traços culturais; 2) Como medir; 3) As barreiras para promover ou 
    manter; 4) Os determinantes para promover uma cultura de inovação nas 
    organizações privadas. Para responder a essas perguntas, foi desenvolvida 
    uma Revisão Sistemática de Literatura com o objetivo de apresentar uma 
    abordagem metodológica rigorosa para avaliar evidências empíricas 
    disponíveis na literatura sobre CI nas empresas. A revisão inclui trabalhos 
    publicados entre 2003 e 2021. Dos 70 trabalhos inicialmente selecionados 
    para extração de dados, 59 permaneceram após aplicação dos critérios de 
    qualidade e compreendem os resultados desta dissertação. Dentre eles, foram 
    identificados dezesseis construtos que representam os traços culturais 
    associados à Cultura de Inovação nas empresas; e doze barreiras que podem 
    impedir ou prejudicar o desenvolvimento de uma Cultura de Inovação nas 
    organizações. Além disso, onze determinantes de CI foram identificados e 
    definidos com base na literatura, e oitenta e nove itens de medida para 
    avaliar os elementos de Cultura de Inovação.

5
  • PRISCILA LYRA CABRAL
  • Social Robot as Mindfulness Tool for Children

  • Leader : JUDITH KELNER
  • MEMBRES DE LA BANQUE :
  • IVALDIR HONORIO DE FARIAS JUNIOR
  • JAELSON FREIRE BRELAZ DE CASTRO
  • JUDITH KELNER
  • Data: 16 févr. 2023


  • Afficher le Résumé
  • A saúde mental das crianças é bastante afetada por eventos adversos. O impacto da pandemia do COVID-19 ainda não pode ser totalmente mensurado, no entanto, alguns aspectos já podem ser percebidos. Em particular, o impacto negativo na saúde mental das crianças. Além do grande receio decorrente das incertezas sobre a doença, as crianças foram fortemente afetadas pelo isolamento social utilizado como medida para mitigar a propagação da doença. Atualmente, o uso de robôs está sendo encontrado em todos os lugares, incluindo seu uso por crianças em contextos de educação, saúde e entretenimento. A pesquisa com robôs sociais para a saúde infantil é um campo de estudo ainda em crescimento e que já demonstrou grande potencial tanto em aspectos de viabilidade quanto de eficácia. Exercícios de atenção plena (mindfulness) têm sido cada vez mais usados como uma ferramenta para, entre outras coisas, melhorar a saúde mental das crianças. A prática de yoga é particularmente útil, pois também inclui uma atividade física. O objetivo desta dissertação é projetar, desenvolver e testar uma aplicação para o robô social Zenbo Junior (ASUSTeK Computer Inc.), na qual o robô deve ser um companheiro e guia durante uma atividade prática de mindfulness , no caso a yoga. Este trabalho descreve as etapas de desenvolvimento da aplicação, incluindo as de inspiração, ideação e implementação; e detalhes dos aspectos da aplicação, tais como: requisitos, roteiro, fluxo de trabalho, recursos e arquitetura. Os testes do usuário, seu planejamento, configuração do local, métodos de coleta de dados e seus resultados também são descritos. Os testes consistiram numa única sessão de teste, e foram realizados com 14 crianças (8 meninas, 6 meninos) e 8 pais/responsáveis (5 do sexo feminino, 3 do sexo masculino). Dados quantitativos do SUS foram obtidos (75,71 para as crianças e 80,31 para os responsáveis) e dados qualitativos de observação e entrevista semiestruturada indicam que a aplicação foi bem aceita, e as crianças gostariam de fazer atividade física acompanhada de um robô. No futuro, uma pesquisa mais aprofundada, incluindo outras atividades de atenção plena e recursos mais acessíveis, deve complementar esta dissertação. Além disso, uma revisão sistemática do estado da arte deverá ser realizada.

6
  • JOSÉ NATANIEL ANDRADE DE SÁ
  • Modelos de Co-clustering Fuzzy Baseados em Kernel no Espaço de 
    Características com Ponderação Automática das Variáveis

  • Leader : FRANCISCO DE ASSIS TENORIO DE CARVALHO
  • MEMBRES DE LA BANQUE :
  • FRANCISCO DE ASSIS TENORIO DE CARVALHO
  • LUCIANO DEMETRIO SANTOS PACIFICO
  • SERGIO RICARDO DE MELO QUEIROZ
  • Data: 24 févr. 2023


  • Afficher le Résumé
  • Nesta dissertação, propomos métodos de co-clustering fuzzy baseados em 
    kernel com ponderação automática das variáveis via distâncias adaptativas. 
    Algoritmos de co-clustering realizam o agrupamento simultâneo de objetos e 
    variáveis. Esses métodos organizam a matriz de dados em blocos homogêneos, 
    conseguindo fornecer insights a respeito da associação entre objetos e 
    variáveis. Funções kernel têm sido usadas com sucesso nos algoritmos de 
    agrupamento convencional para mitigar o problema da separabilidade dos 
    grupos, que também pode afetar os algoritmos de co-clustering. O uso de 
    distâncias adaptativas nos permite aprender dinamicamente os pesos das 
    variáveis durante o processo de otimização, levando a uma melhora no 
    desempenho dos algoritmos. Distâncias adaptativas mudam a cada iteração do 
    algoritmo e podem ser a mesma para todos os grupos (distância adaptativa 
    global) ou diferentes de um grupo para outro (distância adaptativa local). 
    Nesse sentido, três algoritmos foram propostos: (i) O Gaussian Kernel Fuzzy 
    Double K-Means (GKFDK) é o algoritmo base, o qual combina co-clustering com 
    o kernel gaussiano, mas considera que todas as variáveis são igualmente 
    importantes na formação dos grupos de objetos. (ii) O Gaussian Kernel Fuzzy 
    Double K-Means Based on Global Adaptive Distance (GKFDK-GP) é uma extensão 
    do GKFDK que realiza a ponderação de variáveis. O GKFDK-GP considera que as variáveis têm o mesmo  peso para todos os grupos de objetos. (iii) O Gaussian Kernel Fuzzy Double 
    K-Means Based on Local Adaptive Distance (GKFDK-LP) também é uma extensão 
    do GKFDK que realiza a ponderação de variáveis. Contudo, o GKFDK-LP 
    considera que as variáveis têm pesos diferentes para cada grupo de objetos. 
    Experimentos realizados com dados sintéticos e reais, em comparação com 
    algoritmos de co-clustering e de agrupamento convencional do estado da 
    arte, mostraram a eficácia dos algoritmos propostos. Os modelos com 
    ponderação das variáveis apresentaram os melhores resultados no geral, onde 
    o GKFDK-LP obteve o melhor desempenho entre todos, seguido do GKFDK-GP. O 
    algoritmo base GKFDK obteve o terceiro melhor desempenho, em relação à 
    maioria das métricas de avaliação.

7
  • GUSTAVO TENÓRIO CARNEIRO
  • Digital Video Instruments: Tangible Interfaces for Live Video Manipulation in Art

  • Leader : FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • MEMBRES DE LA BANQUE :
  • MARCELO MORTENSEN WANDERLEY
  • MARIANA AMARO CRUZ
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • Data: 27 févr. 2023


  • Afficher le Résumé
  • Este trabalho explora o conceito de Instrumentos de Vídeo Digital (DVI), artefatos
    tangíveis feitos para performances artísticas ao vivo que usam vídeo como mídia,
    através da metodologia de Design Science Research. Isto procura aumentar o
    ferramental de artistas que trabalhamemvárias áreas da artes performáticas contemporâneas,
    particularmente performances audiovisuais, VJing e Visual Music.
    Nós exploramos o estado-da-arte da literatura sobre temas relacionados e entrevistamos
    artistascomdiferentes práticas para deőnir premissas de design que ajudema
    preencher lacunas encontradas na literatura. Baseados nisso, propomos que
    instrumentos tangíveis são uma área subdesenvolvida que pode contribuir para
    expandir as possibilidades criaturas deste tipo de prática artística. Nós baseamos
    isso no potencial dessas interfaces de ajudar os artistas a incorporar o controle de
    vídeo digital e ajudar a audiência a entendermelhor a relação entre osmovimentos
    feitos pelos artistas e o vídeo apresentado durante uma performance. Seguindo
    essas premissas, desenvolvemos o Probatio VJ, um DVImodular que usamos para
    testar várias possibilidades de gestos com artistas. Após analisar o retorno dado
    pelos participantes dessas sessões de avaliação, desenvolvemos ainda uma segunda
    geração de DVIs, o Videolim e o Videomin. Esses instrumentos foram também
    testados por artistas e utilizados em performances ao vivo, como mais uma
    exploração do conceito proposto.

8
  • MATHEUS FELIPE FERREIRA DA SILVA LISBOA TIGRE
  • Utilizando modelos de Machine Learning para classificar Fake News 
    de COVID-19

  • Leader : DJAMEL FAWZI HADJ SADOK
  • MEMBRES DE LA BANQUE :
  • DJAMEL FAWZI HADJ SADOK
  • LUCIANA PEREIRA OLIVEIRA
  • NELSON SOUTO ROSA
  • Data: 28 févr. 2023


  • Afficher le Résumé
  • Com a chegada da pandemia de COVID-19 a internet se tornou um meio de co-
    municação muito utilizado para divulgação e consumo de informações sobre o que estava
    acontecendo no mundo e também de como se prevenir da contaminação do vírus. Acontece
    que ao mesmo tempo também eram espalhadas notícias que muitas vezes não condiziam
    com a realidade e eram utilizadas para confundir a população do Brasil, as chamadas
    Fake News. Devido ao seu grande volume, verificar todas de maneira manual pode ser
    uma tarefa quase impossível e com isso surge a necessidade da utilização de técnicas de
    Inteligências Artificiais que consigam classifica-las de maneira automática. Para esse fim,
    modelos de Machine Learning podem vir a ser utilizados. Como não existiam bases de
    dados de texto em português do Brasil, foi necessária a criação de um dataset colhendo
    textos em veículos de imprensa verificados e posteriormente ocorreu a análise dessas bases
    identificando diferenças em suas estruturas. Por fim, ao realizar experimentos com dife-
    rentes modelos de Machine Learning comparando diferentes combinações de Features foi
    identificado um desempenho superior quando utilizado como modelo o Random Forest

9
  • RAQUEL MARIA SANTOS DE OLIVEIRA
  • Uma Ferramenta para Detecção Estática de Vazamentos de Recursos em 
    Aplicações Android

  • Leader : LEOPOLDO MOTTA TEIXEIRA
  • MEMBRES DE LA BANQUE :
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • LEOPOLDO MOTTA TEIXEIRA
  • BALDOINO FONSECA DOS SANTOS NETO
  • Data: 28 févr. 2023


  • Afficher le Résumé
  • Um problema comum em aplicações desenvolvidas para dispositivos móveis é o 
    vazamento de recursos. Adquirir recursos sem corretamente liberá-los após o 
    seu uso é uma das principais causas. No contexto de dispositivos móveis, 
    estes problemas podem causar danos à experiência dos usuários por conta de 
    problemas com desempenho, travamentos, ou comportamento incorreto. Este 
    trabalho foca em identificar vazamentos de recursos em aplicações 
    desenvolvidas para a plataforma Android. Ferramentas existentes exigem a 
    execução do programa ou não estão disponíveis publicamente. Este trabalho 
    propõe o FindLeak, uma ferramenta baseada em análise estática para 
    identificar possíveis vazamentos em classes de recursos do tipo Camera, 
    Cursor e MediaPlayer. O FindLeak identifica automaticamente classes que 
    contém possíveis vazamentos de recurso em aplicações Android desenvolvidas 
    em Java. A ferramenta foi avaliada utilizando projetos extraídos de bases 
    de dados previamente definidas em outros trabalhos, como DroidLeaks e 
    AppLeak, assim como minerando repositórios disponíveis no GitHub. Com isto, 
    foi possível aplicar a ferramenta em 966 repositórios de projetos reais, 
    detectando 494 arquivos de classes com vazamentos de recursos. Os 
    resultados fornecem evidência inicial de que o FindLeak pode ser utilizado 
    para auxiliar os desenvolvedores a detectar vazamentos de recursos de forma 
    automática e simples.

10
  • LARISSA FELICIANA DA SILVA BRITTO
  • Identificação Automática de Restrições Alimentares em Receitas 
    Culinárias Através de Técnicas de Aprendizagem de Máquina

  • Leader : TERESA BERNARDA LUDERMIR
  • MEMBRES DE LA BANQUE :
  • DOUGLAS VÉRAS E SILVA
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • TERESA BERNARDA LUDERMIR
  • Data: 3 mars 2023


  • Afficher le Résumé
  • A alimentação desempenha um papel fundamental para o ser humano. É a 
    principal fonte de nutrientes, que fornecem energia para as atividades 
    básicas, crescimento, e todas as funções corporais, como respiração, 
    digestão e termorregulação, além de manter o sistema imunológico saudável. 
    A comida também é um forte fator social, conectando culturas e gerações.
    Com o avanço e popularização da internet e de tecnologias como os 
    smartphones, a alimentação sofreu uma revolução, na qual as receitas 
    culinárias se tornaram um dos tópicos mais acessados e comentados da Web.
    Apesar da facilidade de acesso trazida pela internet, encontrar a receita 
    ideal para uma dada ocasião pode se torna uma tarefa árdua, devido ao 
    grande volume de dados disponibilizados pelos sites de receitas, e à 
    dificuldade do processo de busca, que envolve diversos fatores, como sabor, 
    informações nutricionais, variáveis econômicas e políticas e culturais. 
    Esse processo pode ser ainda mais complexo para pessoas que possuem algum 
    tipo de restrição alimentar, para as quais o número de receitas disponíveis 
    é consideravelmente inferior às do público geral (sem qualquer restrição).
    Visando auxiliar esses usuários, sistemas de filtragem ou recomendação têm 
    sido aplicados a esse problema de busca. Diversos estudos recentes têm 
    abordado o desenvolvimento de ferramentas de identificação automática de 
    restrições alimentares em receitas culinárias, buscando reconhecer 
    alimentos que podem ou não ser consumidos por um usuário que possui uma ou 
    várias restrições alimentares.
     A identificação correta dos alimentos que infrinjam determinada restrição 
    é fundamental para saúde e bem estar do indivíduo que segue uma dieta 
    restritiva, uma vez que o consumo de um alimento fora de sua dieta pode 
    causar frustração, mal estar e até problemas de saúde.
    Este trabalho tem como principal objetivo realizar a identificação 
    automática de alimentos que infrinjam restrições alimentares, através da 
    classificação de receitas dietéticas, utilizando técnicas de Aprendizagem 
    de Máquina. Essa classificação pode ser aplicada para facilitar a busca de 
    usuários de sites de receitas que possuem algum tipo de restrição 
    alimentar, seja por motivos de saúde, por questões culturais ou, 
    simplesmente, por preferências pessoais. Para isso, algumas dietas 
    associadas a restrições alimentares são selecionadas para identificação, 
    sendo elas: a diabética, livre de glúten, livre de lactose, kid-friendly e 
    vegana. Para o presente trabalho, os dados foram adquiridos de uma base de 
    receitas culinárias no idioma inglês, obtida através do site Food.com. 
    Alguns dos principais modelos da literatura de classificação de receitas 
    culinárias são escolhidos para avaliação, no intuito de apurar qual deles 
    seria o mais adequado para execução da tarefa de identificação de dietas e 
    restrições em receitas. Os seguintes classificadores são adotados: Árvore 
    de Decisão (AD), Bidirectional Encoder Representations from Transformers 
    (BERT), Floresta Aleatória (FA), K-Vizinhos Mais Próximos (K-NN), Naive 
    Bayes (NB), Perceptron Multicamadas (MLP), Regressão Logística (RL) e 
    Máquinas de Vetores de Suporte (SVM). As listas de ingredientes, modos de 
    preparo, títulos e descrições das receitas são avaliados, individualmente e 
    combinados, com o propósito da seleção dos conjuntos de dados que mais 
    contribuem para o processo de aprendizado dos classificadores. Esses dados 
    se encontram em formato textual, sendo necessário o emprego de técnicas de 
    Processamento de Linguagem Natural para a extração de características dos 
    documentos da base.
    Experimentos são realizados, nos quais os classificadores selecionados são 
    executados, e seus desempenhos são mensurados e comparados uns com os 
    outros.
    Os resultados experimentais são avaliados empiricamente, e através de 
    métodos estatísticos (teste de hipóteses de Friedman/Nemenyi). A avaliação 
    aponta o bom desempenho dos modelos adotados na tarefa de classificação de 
    receitas dietéticas, com destaque para os classificadores Regressão 
    Logística, BERT e MLP. Os resultados obtidos indicam ainda que as 
    características mais adequadas para a classificação podem variar de 
    restrição para restrição.

11
  • FELIPE DIAS DE OLIVEIRA
  • MODELAGEM DE DISPONIBILIDADE DE AVIÁRIOS INTELIGENTES

  • Leader : PAULO ROMERO MARTINS MACIEL
  • MEMBRES DE LA BANQUE :
  • DANILO MENDONÇA OLIVEIRA
  • JAMILSON RAMALHO DANTAS
  • PAULO ROMERO MARTINS MACIEL
  • Data: 3 mars 2023


  • Afficher le Résumé
  • Os aplicativos de IoT equipam os produtores rurais com ferramentas de apoio 
    à decisão e soluções automatizadas que aumentam a produtividade, a 
    qualidade e o lucro do agronegócio. No entanto, a maioria dos avicultores 
    ainda utiliza métodos convencionais de operação em que trabalhadores 
    humanos realizam todas as rotinas de monitoramento e controle de suas 
    granjas em detrimento de uma maior produtividade. Uma dessas atividades 
    humanas é a pesagem manual, que pode ser substituída por métodos não 
    invasivos, como aplicativos de visão computacional que estimam o peso de 
    aves vivas por meio de câmeras de vídeo. Como os dispositivos IoT podem ter 
    baixo poder de computação, limitando a capacidade de processar os dados 
    localmente, eles podem transferi-los para um data center em nuvem ou em 
    nuvem, onde são processados. Este trabalho tem como objetivo realizar um 
    estudo de confiabilidade de um aviário automatizado com um sistema baseado 
    em visão computacional para estimar o peso das aves considerando modelos 
    hierárquicos (por exemplo, cadeia de Markov, RBD e equação de forma 
    fechada) para representar todo o sistema e obter estabilidade 
    disponibilidade de estado e tempo de inatividade anual. Além disso, nosso 
    objetivo é considerar e comparar diferentes soluções arquitetônicas, como 
    soluções baseadas em edge e fog computing. A solução proposta verificou que 
    uma aplicação baseada em nuvem sem redundância apresenta um downtime de 
    34,14% e 9,176% horas quando considerada uma estratégia de redundância 
    hot-standby no nó escritório de uma solução em nuvem.

12
  • ARTHUR BARROS SÉRVIO
  • Avaliação de disponibilidade em provedores de internet autônomos

  • Leader : JAMILSON RAMALHO DANTAS
  • MEMBRES DE LA BANQUE :
  • JAMILSON RAMALHO DANTAS
  • JEAN CARLOS TEIXEIRA DE ARAUJO
  • RUBENS DE SOUZA MATOS JÚNIOR
  • Data: 10 mars 2023


  • Afficher le Résumé
  • A Internet é sem dúvidas o meio de comunicação mais usado na atualidade, 
    independente do grupo social ou da faixa etária, é quase impossível 
    encontrar quem não esteja conectado. Em virtude desse uso massivo,  passou 
    a existir uma demanda de mercado online específica, e hoje, mesmo para 
    negócios físicos, torna-se inviável pensar em uma estratégia de negócios 
    onde o marketing ou até mesmo as vendas não sejam feitas pela a Internet.
    Ainda que o mundo conectado traga diversas possibilidades e facilidades, 
    oportunidades e serviços, com o bônus também estamos sujeitos ao ônus. 
    Dentro desse contexto, o desafio do Provedor de Internet é garantir a alta 
    disponibilidade de serviços para atender às expectativas dos seus usuários 
    e clientes, garantindo a disponibilidade dos serviços de internet com 
    segurança, em qualquer tempo, e pronto para quaisquer que sejam os 
    interesses de seus usuários.
    Uma vez que cada usuário é único e tenta acessar um serviço ou produto 
    específico, se o mesmo não está disponível, temos a caracterização de um 
    serviço de indisponibilidade. Em nossa pesquisa, avaliamos a 
    disponibilidade do núcleo do Provedor de Internet com foco em segurança na 
    ênfase de mitigação dos possíveis ataques de Border Gateway Protocol (BGP) 
    Hijacking, identificando problemas de disponibilidade no componente do 
    roteador e estudando os modelos Cadeias de Markov de Tempo Contínuo(CTMC) e 
    Diagramas de Bloco de Confiabilidade (RBD) com o intuito de realizarmos um 
    experimento de validação de modelo, executando melhorias na disponibilidade 
    de execução de análises de sensibilidade. Estratégias de modelagem 
    hierárquica, modelos de disponibilidade combinando, RBD e CTMC, indicando a 
    disponibilidade da infraestrutura.
    A partir do nosso trabalho percebemos que o componente crítico do sistema 
    foi indicado por meio da análise de sensibilidade. Então, realizamos uma 
    técnica de validação de modelos para demonstrar que os modelos representam 
    o comportamento do sistema real.
    Os resultados finais mostraram que a disponibilidade do sistema é 0,99941, 
    e a análise de sensibilidade indicou que se o administrador do sistema 
    otimizar a infraestrutura do Provedor de Internet em 50%, essa otimização 
    resultaria em uma redução anual do tempo de inatividade de 3,4 horas. 
    Tornando assim os serviços de Internet mais seguros e disponíveis para 
    todos os seus usuários.

13
  • LUCAS HENRIQUE CAVALCANTI SANTOS
  • Improving Mobile Robot Navigation through Odometry Optimization 
    using Particle Swarm Optimization at Kinematics Model

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • FLAVIO TONIDANDEL
  • EDNA NATIVIDADE DA SILVA BARROS
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 14 mars 2023


  • Afficher le Résumé
  • A navegação autônoma de robôs móveis é importante para a sua movimentação e 
    interação com o ambiente. Isso exige inteligência, percepção e controle nos 
    robôs.

    O primeiro passo para modelar o movimento dos robôs é criar um modelo 
    cinemático que descreve como os atuadores afetam seu deslocamento. Usando a 
    velocidade das rodas e o modelo cinemático, é possível calcular a 
    velocidade do robô e determinar o caminho percorrido. Esse processo é 
    chamado de odometria e é a base para a navegação autônoma de robôs. Mesmo 
    se baseado na construção do robô, o modelo cinemático possui erros 
    sistemáticos, que se acumulam no processo de integração no tempo. Sendo 
    assim, a odometria também apresentará erros de translação e rotação.
    Este trabalho apresenta um método para melhorar a precisão da odometria 
    baseado em Particle Swarm Optimization (PSO), o qual utiliza dados da 
    velocidade das rodas e de um
    sensor inercial para otimizar o modelo cinemático do robô. A técnica 
    proposta inclui experimentos com o robô, registrando sua velocidade e 
    posição, e compara a simulação do caminho percorrido com as posições reais. 
    O método de PSO é usado para otimizar os parâmetros cinemáticos para 
    minimizar o erro entre a simulação e as posições reais.
    Com o processo de otimização, a odometria foi melhorada em 75%, de um erro 
    médio quadrático de 0.37 para 0.09. O resultado mostrou que a posição final de um 
    caminho de 6 metros tinha um erro menor que 5 cm, enquanto outros métodos 
    alcançaram erro mínimo de 10 cm. A otimização permite que os robôs naveguem 
    com maior autonomia sem precisar de informações externas ou sensores 
    adicionais e também é eficiente para computadores embarcados de baixa 
    potência.

14
  • JOSÉ FLÁVIO VIEIRA MELO
  • Um Sistema baseado em Aprendizagem Adaptativa para previsão de 
    séries temporais

  • Leader : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBRES DE LA BANQUE :
  • FERNANDO MACIANO DE PAULA NETO
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 14 mars 2023


  • Afficher le Résumé
  • A previsão de séries temporais em aplicações do mundo real é uma tarefa 
    desafiadora, uma vez que esses fenômenos podem apresentar padrões temporais 
    que mudam ao longo do tempo. A adoção de um único modelo pode levar a 
    previsões de baixa acurácia nessas tarefas. Sistemas de Múltiplo Preditores 
    (SMP) que empregam Seleção Dinâmica (SD) surgem como uma alternativa 
    promissora para modelagem de séries temporais reais. Os SMP que utilizam SD 
    escolhem um ou mais modelos mais competentes a partir de um Pool 
    pré-treinado para prever cada novo padrão de teste. Contudo, as técnicas de 
    seleção dinâmica do estado da arte apresentam dificuldades para selecionar 
    os melhores modelos. Frequentemente, emprega-se um critério para avaliar o 
    desempenho dos modelos na região de competência, que é formada pelos 
    padrões (geralmente presentes nos conjuntos de treinamento ou validação) 
    mais similares ao padrão de teste sob análise. Entretanto, não há garantia 
    de que existem padrões similares ao padrão de teste nos conjuntos 
    disponíveis. Esse trabalho propõe o sistema Adaptive Learning Forecaster 
    (ALF), um SMP que treina um modelo de previsão para cada novo padrão de 
    teste a partir da região de competência mais similar ao padrão alvo. O 
    processo de treinamento ocorre “on the fly” e visa criar um modelo 
    especialista para cada novo padrão de teste. Desse modo, não é necessária a 
    criação de um Pool de modelos e todo modelo criado é especialista em um 
    padrão local. Um estudo experimental utilizando dez séries temporais bem 
    conhecidas mostrou que o ALF supera as abordagens da literatura, 
    consolidando-a como uma alternativa promissora às técnicas de seleção 
    dinâmica de preditores.

15
  • ROBERTO COSTA FERNANDES
  • Embedded Object Detection and Position Estimation for RoboCup Small 
    Size League

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • EDNA NATIVIDADE DA SILVA BARROS
  • FILIPE ROLIM CORDEIRO
  • Data: 15 mars 2023


  • Afficher le Résumé
  • A categoria Small Size League (SSL) da RoboCup tem o desafio de aumentar o 
    nível de autonomia dos robôs para que eles possam realizar algumas tarefas 
    sem receber nenhuma informação externa. Para garantir essa autonomia o robô 
    tem que ser capaz de detectar e estimar a posição dos objetos no campo, 
    para que ele possa marcar gols e se movimentar sem colidir com outros 
    robôs. Modelos para detecção de objetos geralmente utilizam imagens 
    monoculares como entrada, no entanto é desafiante calcular a posição 
    relativa desses objetos, já que a imagem monocular não tem nenhuma 
    informação da distância. O principal objetivo dessa dissertação é propor um 
    sistema completo para detectar um objeto e calcular sua posição relativa no 
    campo, usando uma imagem monocular como entrada. O primeiro obstáculo para 
    treinar um modelo para detectar objetos em um contexto específico é ter um 
    dataset de treinamento com imagens anotadas. Outras categorias da RoboCup 
    já possuem dataset com imagens anotadas para treinar e avaliar um modelo. 
    Assim, esse trabalho também propõe um dataset para a categoria SSL para ser 
    usado como referência de comparação para detecção de objetos nessa 
    categoria. Utilizando esse dataset, esse trabalho apresenta um fluxo para 
    treinar, avaliar e realizar a inferência de uma Convolutional Neural 
    Networks (CNNs) para detecção de objetos em um sistema embarcado. 
    Combinando a detecção de objetos com a posição global recebida do 
    SSL-Vision, esse trabalho ainda propõe uma arquitetura baseada em 
    Multilayer Perceptron (MLP) para estimar a posição dos objetos usando 
    somente a imagem monocular como entrada. Na detecção de objetos, o modelo 
    MobileNet v1 SSD alcançou 55.77% AP para as três classes de interesse 
    rodando a 94 Frames Per Second (FPS) em um robô de SSL. O modelo para 
    estimar a posição de um objeto da classe Bola atingiu um Root Mean Square 
    Error (RMSE) de 34.88mm.

16
  • LAVINIA FRANCESCA PAGANINI
  • The impact of event design choices of an online women-focused 
    hackathon on participants and mentors

  • Leader : KIEV SANTOS DA GAMA
  • MEMBRES DE LA BANQUE :
  • KARINA KOHL SILVEIRA
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • KIEV SANTOS DA GAMA
  • Data: 29 mars 2023


  • Afficher le Résumé
  • Hackathons são frequentemente vistos como não inclusivos para mulheres, dado a baixa participação delas nesses eventos. Algumas das razões para isso incluem baixa auto-estima no campo de STEM (ciências, tecnologia, engenharia e matemática), ambiente tóxico, poucas horas dormidas durante o evento, e um ambiente competitivo. Hackathons também são uma oportunidade valiosa para alunos da graduação de melhorarem suas habilidades, mas a baixa diversidade de gênero pode se tornar uma barreira para mulheres aproveitarem essas oportunidades. Usualmente, hackathons incluem mentorias para ajudar os seus participantes a melhorarem as habilidades técnicas durante o evento. Recentemente, várias iniciativas foram feitas para aumentar o número de mulheres nesses eventos, como por exemplo eventos com participação apenas de mulheres, equilibrar as vagas na hackathon por gênero durante a seleção de participantes e a hackathon possuir temas feministas e sociais. Nosso estudo qualitativo investigou como escolhas feitas no design do evento (Foco em mulheres; Atividades de suporte ao evento como mentoria e pré-pitch; Atividades de aquecimento) podem influenciar a experiência de participantes e mentoras num hackathon focado em mulheres. Dados foram coletados através de questionários e entrevistas semi-estruturadas com participantes e mentoras.

17
  • MARIA GIMENA CHAVES FITZGERALD
  • 3D Reconstruction of Caves: An analysis of existing low-cost 
    reconstruction alternatives and their application process

  • Leader : VERONICA TEICHRIEB
  • MEMBRES DE LA BANQUE :
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • ENRICO BERNARD
  • VERONICA TEICHRIEB
  • Data: 26 avr. 2023


  • Afficher le Résumé
  • Cavernas são ambientes complexos sob o ponto de vista espacial, e representá-las graficamente não é uma tarefa trivial. Não obstante, modelos 3D são frequentemente necessários para a pesquisa, registro e representação destes ambientes. Recentemente, com o uso de sistemas de escaneamento a laser, tem se tornado possível obter representações 3D fidedignas de cavernas. Porém, os elevados custos e a difícil aquisição dos equipamentos usados para este fim limitam as possibilidades de sua utilização no Brasil. Considerando o potencial espeleológico do país, conseguir realizar mapeamentos 3D acessíveis e de baixo custo das cavidades naturais subterrâneas permitiria ampliar as documentações das cavernas do território brasileiro, adicionando possibilidades como cálculos precisos de volume e área. Os produtos tridimensionais também serviriam para múltiplas finalidades como licenciamento ambiental e ecoturismo, entre outras. Esta dissertação apresenta uma análise de três alternativas existentes de reconstrução de baixo custo e seu processo de aplicação completo para captura dedados, processamento, visualização e estimações de área e volume.

18
  • GABRIEL HARRISON FIDELIS TEOTONIO
  • Variable Weighted Fuzzy Clustering Algorithm For Qualitative Data

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • BRUNO ALMEIDA PIMENTEL
  • NIVAN ROBERTO FERREIRA JUNIOR
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • Data: 25 mai 2023


  • Afficher le Résumé
  • Este trabalho se concentra nos métodos de agrupamento dentro do aprendizado não supervisionado, uma subdivisão desafiadora da aprendizagem de máquina. O agrupamento é uma técnica para encontrar subgrupos em um conjunto de dados, onde as observações em cada grupo são semelhantes umas às outras e diferentes das observações em outros grupos. Os métodos de agrupamento existentes lidam com variáveis quantitativas, com o método K-Means sendo o mais conhecido e amplamente utilizado. No entanto, o algoritmo
    K-Means não pode ser usado com variáveis qualitativas, como gênero ou nível de educação.
    Para superar esta limitação, foi proposto o método K-Modes, que usa modos em vez de
    médias para representar as classes. Os algoritmos de agrupamento existentes têm a limitação de atribuir importância igual a todas as características, o que pode ser problemático ao agrupar dados de alta dimensão e esparsos, onde a estrutura do agrupamento é limitada a um subconjunto específico de características. Para abordar este problema, foram propostas técnicas de agrupamento de subespaço e distâncias adaptativas, sendo estas últimas derivadas a partir de restrições baseadas na soma e no produto dos pesos relativos à importância das variáveis. O estudo propõe um novo algoritmo de agrupamento difuso para dados qualitativos baseado em distâncias adaptativas, o qual demonstra desempenho melhorado em comparação aos métodos convencionais. As distâncias adaptativas locais, que atribuem pesos diferentes para cada variável em relação aos agrupamentos, apresentam melhor desempenho para conjuntos de dados com altos níveis de dispersão e sobreposição de classes. Os resultados do estudo ampliam as capacidades dos algoritmos de agrupamento existentes baseados em distâncias adaptativas.

19
  • DANIEL CÂNDIDO CAUÁS
  • A modern approach for rendering 3D top-down games in Pixel Art

  • Leader : SILVIO DE BARROS MELO
  • MEMBRES DE LA BANQUE :
  • GEBER LISBOA RAMALHO
  • SILVIO DE BARROS MELO
  • WALTER FRANKLIN MARQUES CORREIA
  • Data: 16 juin 2023


  • Afficher le Résumé
  • Pixel Art é uma técnica de arte digital que se tornou popular nas décadas 
    de 1980 e 1990, especialmente em jogos, onde os gráficos eram limitados 
    pelas capacidades dos consoles e computadores da época. Desde então, o 
    Pixel Art evoluiu e se tornou uma forma de arte, com seus próprios estilos, 
    técnicas e características.
     Com a evolução da tecnologia e o advento da criação e progresso dos jogos 
    3D, alguns títulos tem obtido visuais tão realistas que podem ser quase 
    indistinguíveis da realidade. Novas técnicas são criadas todos os dias para 
    melhorar os algoritmos de renderização, a potência das GPUs e assim por 
    diante. É natural que o Pixel Art também se beneficie de novas tecnologias 
    e técnicas para avançar para novas estéticas de arte que pareçam mais 
    modernas e contemporâneas. É importante que a arte acompanhe o que a 
    tecnologia tem a oferecer, já que muitos jogadores adquirem jogos apenas 
    por ter algo que consideram impressionante, e a primeira coisa capaz de 
    impressionar é frequentemente o gráfico.
     O objetivo desta tese é definir uma maneira moderna de ter Pixel Art em 
    jogos, descrevendo um pipeline para criar uma visualização Pixel Art a 
    partir de uma cena 3D padrão com uma perspectiva top-down em tempo real. 
    Este assunto foi visitado algumas vezes até o presente momento, mas não 
    existem pipelines definidos cujo objetivo seja definir a criação de um jogo 
    Pixel Art a partir de um ambiente 3D.
     O estado atual da arte contém algumas soluções que podem ser estendidas 
    para resolver essa tarefa específica, mas elas utilizam diferentes 
    metodologias. Técnicas como gerar sequências de imagens (spritesheets) a 
    partir de modelos 3D em softwares alternativos, aplicar efeitos de 
    pixelização em tela cheia, etc., já foram testadas em títulos existentes e 
    provaram funcionar, embora tragam consigo algumas complicações, como o 
    excesso de arquivos de imagem no projeto e resultados visuais que às vezes 
    não se parecem com Pixel Art. O pipeline a ser apresentado tenta evitar 
    esses problemas definindo um conjunto de características para o que é um 
    objeto Pixel Art e propondo técnicas de renderização que respeitem essas 
    características.

20
  • JOSÉ FAUSTINO MACÊDO DE SOUZA FERREIRA
  • MUITO ALÉM DOS CÓDIGOS: UMA ABORDAGEM ÉTICA DA INTELIGENCIA 
    ARTIFICIAL NO PODER JUDICIÁRIO

  • Leader : ADRIANO LORENA INACIO DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • SAMUEL MEIRA BRASIL JR
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • GEBER LISBOA RAMALHO
  • Data: 16 juin 2023


  • Afficher le Résumé
  • Com o desenvolvimento tecnológico, ferramentas de inteligência artificial 
    têm sido cada vez mais empregadas pelo Poder Judiciário na tomada de 
    decisões. Os principais motivadores para o uso de ferramentas de IA pelos 
    tribunais são aumentar a produtividade, buscar a inovação, melhorar a 
    qualidade dos serviços judiciários e reduzir custos.
    Partindo da preocupação de que a inteligência artificial, ao mesmo tempo em 
    que traz benefícios substanciais para os indivíduos e para a sociedade, 
    também apresenta erros, riscos e impactos negativos que podem ser de 
    difícil antecipação, identificação e mensuração, o Conselho Nacional de 
    Justiça, editou a Resolução nº 332/2020, que dispõe sobre a ética, a 
    transparência e a governança na produção e no uso de Inteligência 
    Artificial no Poder Judiciário.
    Embora relevante e comemorada a iniciativa, porque aponta para a 
    preocupação do Judiciário com o desenvolvimento ético de IA em seus muros, 
    o fato é que a norma não deixa claro como cada um dos servidores e 
    magistrados, técnicos de informática, cientistas de dados e programadores 
    devem se portar concretamente para que os produtos e serviços criados 
    tenham conformidade ética.
    Conduzimos estudos exploratórios, através de entrevistas narrativas, que 
    nos permitiram levantar hipóteses, compreender os sentidos e as percepções 
    sobre o fenômeno do uso e desenvolvimento de IA pelos tribunais 
    brasileiros, abordando questões de utilidade e adequação da tecnologia, 
    benefícios e riscos, desafios concretos e abordagem ética.
    Os estudos constataram um vazio de referencial ético para uso e 
    desenvolvimento concreto de IA pelo Judiciário, de modo que foram 
    identificados, no cenário internacional, estândares éticos usualmente 
    utilizados e, posteriormente, aplicada pesquisa com o objetivo de testar as 
    hipóteses levantadas na entrevista narrativa e capturar, de forma mais 
    ampla, a percepção dos tribunais nacionais quanto aos temas ética e IA pelo 
    Judiciário, além de permitir classificação em escala de importância e 
    pertencimento, sob a ótica do Judiciário, de cada um dos estândares 
    identificados.

21
  • RAFAEL DA CAMARA FIGUEREDO
  • Tailoring agile practices in distributed large-scale contexts: 
    TARGET Framework

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • SIMONE CRISTIANE DOS SANTOS LIMA
  • HERMANO PERRELLI DE MOURA
  • GLEISON DOS SANTOS SOUZA
  • Data: 19 juin 2023


  • Afficher le Résumé
  • Com o aumento da adoção de metodologias ágeis em equipes distribuídas de 
    desenvolvimento de software, surge a necessidade de adaptar essas práticas 
    para ambientes de grande escala. No entanto, a falta de orientações 
    específicas pode dificultar esse processo. Este estudo avalia como as 
    equipes distribuídas ágeis de grande escala estão adaptando suas práticas 
    para acomodar as necessidades do seu contexto. Foi realizada uma Revisão 
    Sistemática da Literatura (RSL) sobre a adaptação do ágil em projetos 
    distribuídos de grande escala, que identificou 96 práticas adaptadas a 
    partir de cinco frameworks ágeis usados por vários estudos de caso de 2007 
    até 2021. A maioria dos estudos adaptou o Scrum com 32 práticas 
    customizadas para suas realidades distribuídas em um contexto de larga 
    escala, seguido pelo SAFe com 25 práticas, LeSS  com 17, o modelo Spotify 
    com 13 e o DAD com nove práticas. Com base no conteúdo da RSL, foi possível 
    gerar o TARGET, que serve como um guia especializado na adaptação das 
    práticas ágeis para o contexto específico de várias organizações de 17 
    domínios de negócios, sobre diferentes dimensões de tamanho e usando 
    diferentes frameworks ágeis e escalonáveis. Por fim, foi realizado um 
    estudo de caso em uma equipe ágil distribuída de uma consultoria de 
    Software do Brasil para analisar a aderência do framework TARGET à 
    realidade de um caso real de mercado, com resultados positivos.

22
  • HERIKLES VINICYUS FRANCA CORDEIRO
  • Em direção a um cálculo de sequentes para a lógica de descrição ALCH

  • Leader : ANJOLINA GRISI DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • PEDRO PORFIRIO MUNIZ FARIAS
  • ANJOLINA GRISI DE OLIVEIRA
  • RUAN VASCONCELOS BEZERRA CARVALHO
  • Data: 28 juin 2023


  • Afficher le Résumé
  • A Lógica de Descrições é um dos formalismos usados para representar conhecimento
    de um domínio. A lógica de descrição pode ser entendida como um subconjunto da Lógica
    de Primeira Ordem e é equipada com uma semântica formal e uma sintaxe bem definida. O
    conhecimento representado em sistemas baseados em lógica de descrições pode ser validado através de diversos métodos, e esses métodos têm a capacidade de inferência para deduzir conhecimento implícito a partir dos conceitos e relações explicitamente representados. Um desses métodos de validação é o Cálculo de Sequentes. As provas geradas por esse método são consideradas de fácil compreensão. Isso é uma grande vantagem em relação a outros métodos de validação, pois a legibilidade/explicabilidade das provas é uma das partes mais fundamentais para um sistema de provas/deduções. Nesta dissertação, investigamos a teoria da prova para a lógica de descrição. Apresentamos um cálculo de sequentes para a DL ALCH e comparamos os resultados obtidos com outros cálculos de sequentes para a DL presentes na literatura.

23
  • JOSÉ MATHEUS LACERDA BARBOSA
  • Improving Binary Classifiers on Imbalanced Data Using Large 
    Language Models

  • Leader : LUCIANO DE ANDRADE BARBOSA
  • MEMBRES DE LA BANQUE :
  • CLAUDIO DE SOUZA BAPTISTA
  • LUCIANO DE ANDRADE BARBOSA
  • TSANG ING REN
  • Data: 12 juil. 2023


  • Afficher le Résumé
  • Em tarefas de classificação do mundo real, é comum lidarmos com dados desbalanceados. Neste trabalho, propomos o BALANCE, um framework que gera dados sintéticos para a classe minoritária para balancear conjuntos de dados textuais para classificação
    binária. Ele faz isso usando o aprendizado baseado em prompt. Mais eficiente, o BALANCE otimiza os parâmetros de decodificação de um determinado modelo de linguagem
    para produzir texto adaptado à classe minoritária. Em seguida, ele usa um prompt específico para gerar as instâncias usando o modelo de linguagem otimizado. Realizamos
    uma extensa avaliação experimental usando três conjuntos de dados desbalanceados de
    classificação de texto do mundo real. Os resultados mostram que o BALANCE supera as
    abordagens que lidam com criação/desbalanceamento de dados na maioria dos cenários,
    confirmando a alta qualidade das instâncias geradas.

24
  • CARLOS HENRIQUE DO NASCIMENTO MELO
  • Análise de sentimentos de postagens em português na pandemia de 
    COVID-19 utilizando redes de codificadores automáticos

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • LEANDRO MACIEL ALMEIDA
  • LUCIANO DE ANDRADE BARBOSA
  • Data: 19 juil. 2023


  • Afficher le Résumé
  • A pandemia da Corona Virus Disease 2019 (COVID-19) impulsionou um aumento 
    no número de interações em redes sociais, através de postagens, em virtude 
    das medidas não farmacológicas implementadas durante o período de 2020 e 
    2021. Essa maior conexão da população com as diversas plataformas 
    propiciaram uma grande quantidade de conteúdos textuais relacionados à 
    vivência dos usuários nos períodos de surto da doença. Muitas dessas 
    postagens apresentam um caráter opinativo, no qual indica a possibilidade 
    de um estudo acerca dos sentimentos expressados pelos usuários das redes 
    sociais. Desse modo, a utilização de técnicas da área de Processamento de 
    Linguagem Natural (PLN) em conjunto com modelos da Aprendizagem de Máquina 
    (AM) fornecem uma análise de sentimentos através de classificadores 
    automáticos. Porém, é visto em estudos anteriores que a tarefa de Análise 
    de Sentimentos (AS) sofre da maldição da dimensionalidade (CHEN, 2009), 
    pois os métodos principais de transformar conteúdo textual em informação 
    útil recaem sobre vetores de grande dimensionalidade. Em pesquisas mais 
    recentes, o uso de técnicas de redes neurais têm sido utilizadas como 
    método de redução da dimensionalidade para a classificação de sentimentos 
    (GHOSH; RAVI; RAVI, 2016; KIM; LEE, 2020; YILDIRIM, 2020). Dentre as 
    técnicas, os Codificadores Automáticos (CA) (do inglês autoencoders) surgem 
    como uma proposta já utilizada para redução de dados de imagem e áudio, 
    pois processa vetores desses conteúdos e os reduz para diferentes 
    propósitos. A utilização das RNN para redução possibilita construir um novo 
    vetor contendo uma grande proporção da informa- ção contida no vetor 
    original para realizar o treinamento dos modelos. Portanto, este trabalho 
    apresenta como objetivo explorar a técnica de CA para redução da 
    dimensiona- lidade de vetores produzidos por técnicas de incorporação de 
    palavras sobre dois corpus textuais na língua portuguesa, coletados através 
    da rede social Twitter. Baseado nisso foi visto que os codificadores 
    conseguem manter até 90% da informação e qualidade contida no treinamento, 
    podendo ser observado uma diferença de pouco menos de 10% na acurácia dos 
    modelos treinados sem a técnica. Além disso, é observado que custo 
    computacional envolvido no treinamento dos modelos apresentaram uma redução 
    em comparação aos classificadores treinados com o vetor original e aos 
    modelos mais recentes, como LSTM e BERT, apresentando uma diferença de 
    tempo de até 96%. Assim, mostra que a partir dos resultados obtidos através 
    da técnica de redução por codificadores automáticos são pro- duzidas 
    qualidades equiparáveis aos modelos mais utilizados que realizam essa 
    codificação de forma conjunta para a língua portuguesa. Desse modo, 
    possibilita o uso de modelos mais custosos para a validação de resultados e 
    uso de predição.

25
  • MARIA KATARINE SANTANA BARBOSA
  • Deep-HO5GAero: Handover Inteligente em Redes de Estações Rádio-Base 
    5G Aéreas Montadas em UAVs: Uma Abordagem baseada em Aprendizado Profundo

  • Leader : KELVIN LOPES DIAS
  • MEMBRES DE LA BANQUE :
  • ANTÔNIO CORREIA DE SÁ BARRETO NETO
  • KELVIN LOPES DIAS
  • RENATO MARIZ DE MORAES
  • Data: 21 juil. 2023


  • Afficher le Résumé
  • Recentemente, os Veículos Aéreos Não Tripulados (UAVs) também estão 
    assumindo a função de estações rádio-base aéreas, denominadas UAV-BS, 
    viabilizando conectividade a usuários terrestres independentemente da 
    infraestrutura celular tradicional. Espera-se que nas redes 5G atuais e nos 
    futuros sistemas 6G, tais UAV-BSs formem redes aéreas para prover acesso 
    sem fio de forma ubíqua em áreas remotas, desassistidas pelas operadoras ou 
    zonas rurais, conectividade sem fio confiável para equipes de resgate em 
    cenários de desastre, mais oportunidades de conectividade para carros 
    conectados/autonômos e para os Sistemas de Transporte Inteligentes (ITS - 
    Intelligent Transportation System), estenda e melhore o sinal na borda da 
    cobertura celular de BSs terrestres e, por fim, UAV-BSs podem ser 
    empregados em áreas urbanas densas ou grandes eventos e shows. Manter a 
    continuidade do serviço para os usuários terrestres atendidos por uma rede 
    de UAV-BSs, em particular, garantir QoS/QoE durante o procedimento de 
    handover, é ainda mais desafiador para tais redes aéreas do que para as 
    redes celulares terrestres pelos seguintes motivos: tanto as UAVs-BSs 
    quanto os usuários terrestres podem estar em movimento, UAV-BS têm 
    limitações de energia, a cobertura celular de UAV-BSs é reduzida, o que 
    pode aumentar o efeito ping-pong e, por fim, os UAV-BSs vizinhos podem 
    interferir na comunicação da UE com o UAV-BS servidora. Esta dissertação 
    fornece uma análise de diferentes algoritmos de aprendizado profundo para 
    resolver o problema de mobilidade e propõe estratégias de handover 
    inteligentes para uma rede de UAV-BSs. Primeiramente, um canal de rádio 
    ar-terra 5G é modelado. Em seguida, a dissertação propõe estratégias de 
    aprendizado profundo supervisionado para gerenciamento de handover baseadas 
    em Recurrent Neural Network - RNN, Gated Recurrent Unit - GRU e Long 
    Short-Term Memory - LSTM para previsões de trajetória e sinal. Finalmente, 
    uma estratégia de Deep Reinforcement Learning (Double Deep Q-Network - 
    DDQN) sensível ao contexto, que combina mobilidade e parâmetros de rede, é 
    elaborada. O estudo foi realizado com base em simulações de eventos 
    discretos. A rede UAV-BS e mecanismos relacionados foram implementados por 
    meio da adição de novos módulos e extensões das bibliotecas 5G Stand Alone 
    (SA) do simulador OMNeT++. Os resultados indicam a eficácia e superioridade 
    da proposta quando comparada ao procedimento de handover convencional de 
    redes 5G e a soluções presentes em trabalhos relacionados que abordam 
    sistemas UAV-BS. Dessa forma, obteve-se melhores indicadores de qualidade 
    de canal (CQI – Channel Quality Indicator), ganhos em termos de métricas de 
    QoS, como perda de pacotes e taxa de transferência, além da maior acurácia 
    na obtenção dos tempos ideais para disparar o processo de handover.

26
  • ALEXSANDRO FERREIRA COÊLHO
  • SAVIPS - Uma Infraetrutura Veicular Autônoma em Pequena Escala para Platoon

  • Leader : ABEL GUILHERMINO DA SILVA FILHO
  • MEMBRES DE LA BANQUE :
  • ABEL GUILHERMINO DA SILVA FILHO
  • EVANDRO LEONARDO SILVA TEIXEIRA
  • PAULO FREITAS DE ARAUJO FILHO
  • Data: 26 juil. 2023


  • Afficher le Résumé
  • Os acidentes de trânsito são uma das principais causas de morte no mundo, 
    muitos deles devido a falha humana. Para reduzir esses números alarmantes, 
    universidades, empresas de tecnologia e do setor automotivo estão 
    colaborando no desenvolvimento de sistemas que melhorem a condução em áreas 
    urbanas e rodovias, por meio da aplicação de tecnologias avançadas, como 
    sistemas embarcados, redes de comunicação sem fio e Inteligência Artificial 
    (IA). A aplicação dos sistemas embarcados na área automotiva tem 
    contribuído para melhorar a segurança no trânsito, permitindo o controle de 
    funções do veículo, como multimídia, climatização, controle de tração e 
    acionamento de atuadores do motor. Contudo, o desenvolvimento de Veículos 
    Autônomos (VAs) enfrenta desafios significativos em termos de custos e 
    dificuldades tecnológicas. A implementação de tecnologias avançadas, como 
    sensores, sistemas de processamento de dados e algoritmos complexos, 
    aumenta os custos de produção. Além disso, a pesquisa e o desenvolvimento 
    de sistemas autônomos requerem recursos com especialistas em inteligência 
    artificial, engenheiros de software e infraestrutura de testes. A 
    complexidade do ambiente de tráfego real, com suas variações imprevisíveis 
    e interações complexas, dificulta a replicação de todos os desafios em 
    cenários de teste controlados. Nesse contexto, a utilização de veículos em 
    escala reduzida tem se mostrado uma abordagem comum em projetos de veículos 
    autônomos, proporcionando uma plataforma segura, controlada e de baixo 
    custo. Esses modelos permitem a validação, redução de riscos e a 
    oportunidade de explorar algoritmos e sistemas em um ambiente controlado 
    antes da implementação em veículos em tamanho real. O presente trabalho tem 
    como objetivo o desenvolvimento de protótipos de veículos elétricos 
    autônomos em escala reduzida para a avaliação das funções ADAS (Sistemas 
    avançados de Assistência ao Motorista) em um pelotão de veículos. O 
    processo envolve desde a montagem da estrutura física, elaboração do 
    projeto e desenvolvimento de circuitos eletrônicos, até os testes desses 
    protótipos. A ideia é fornecer funcionalidades que permitam aos usuários 
    realizar validações e análises de dados em um sistema ADAS aplicado a um 
    pelotão, de forma segura e com custos reduzidos em comparação com um 
    pelotão de veículos em escala real. Como resultado, foram desenvolvidos 
    dois veículos elétricos de pequeno porte equipados com ECUs, câmeras (alta 
    definição e estereoscópicas) e radar de ondas milimétricas, possibilitando 
    a demonstração do comportamento dos sistemas desenvolvidos, como o Sistema 
    de Direção Automatizada (ADS), Controle de Cruzeiro Adaptativo (ACC), 
    Sistema de Manutenção de Faixa (LKS) e Sistema de Frenagem de Emergência 
    (EBS), para o controle lateral e longitudinal dos veículos elétricos de 
    pequeno porte.

27
  • ELLEN CRISTINA XAVIER COELHO
  • Análise de desempenho de modelos de aprendizagem de máquina na 
    classificação de séries temporais dos compostos voláteis fúngicos

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • CICERO PINHEIRO INACIO
  • CLEBER ZANCHETTIN
  • LEANDRO MACIEL ALMEIDA
  • Data: 27 juil. 2023


  • Afficher le Résumé
  • Os fungos são organismos essenciais para garantir a manutenção da vida no meio
    ambiente. Leveduras do gênero Candida fazem parte da microbiota do corpo humano, colonizando a pele e mucosas dos tratos digestivo e urinário, bucal e vaginal. Em condições normais, a maioria não causa danos ao indivíduo, entretanto, esses mesmos fungos podem apresentar características patogênicas. Atualmente, existem cerca de duzentas espécies do gênero Candida, no entanto, pouco mais de vinte são nocivas ao homem. O principal fator do desenvolvimento de infecções por essas leveduras, ocorre pelo rompimento do equilíbrio parasita-hospedeiro, desencadeado por alterações na barreira tecidual, alterações na microbiota normal e pelo comprometimento do sistema imunológico. Esse desequilíbrio pode causar desde doenças superficiais até invasivas, e, principalmente em hospedeiros debilitados, pode ser fatal. Dado a criticidade das infecções causadas por esses fungos, um diagnóstico precoce da infecção é fundamental para um tratamento eficaz. Métodos alternativos vêm sendo estudados e desenvolvidos com o objetivo de aliar a entrega de um resultado rápido e preciso a um baixo custo econômico, e que não precise de um conhecimento especializado para operá-los. Uma tecnologia que se destaca entre esses métodos é a dos narizes eletrônicos (e-nose). Os dados produzidos por esses instrumentos, normalmente, possuem características complexas. Dessa forma, o objetivo deste trabalho é buscar por métodos e técnicas satisfatórios com menores custos computacionais para o processo de identificação das espécies de fungos Candida. Assim, com o auxílio de um nariz eletrônico, foram coletadas diversas amostras do ar de seis diferentes espécies do gênero Candida. A partir dessas coletas, um conjunto de dados foi formado, e aplicou-se técnicas de pré-processamento e processamento a fim de buscar um classificador com bom desempenho e um baixo custo computacional. No geral, o classificador TimeSeries Forest obteve os melhores resultados com a acurácia, sensibilidade de precisão de 100% e um tempo de processamento de 0.58 segundos. Como trabalhos futuros tem-se a expansão e a diversificação das espécies de leveduras clínicas do gênero Candida utilizadas para estudo, visando cobrir uma gama mais ampla de problemas e patologias, além disso, a criação e utilização de um ambiente controlado para realização de novos experimentos, a fim de minimizar erros causados por fatores externos.

28
  • AMANDA MARIA CHAVES
  • Identificação e avaliação dos principais fatores e efeitos do 
    Turnover em Projetos Distribuídos de Software

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • HERMANO PERRELLI DE MOURA
  • MARCELO LUIZ MONTEIRO MARINHO
  • SIMONE CRISTIANE DOS SANTOS LIMA
  • Data: 28 juil. 2023


  • Afficher le Résumé
  • Altos níveis de Turnover podem causar danos aos mais diferentes tipos de 
    projeto, como exemplo de aumento dos custos, atrasos, dificuldades de 
    gerenciar a equipe e causar um grande impacto no sucesso e na qualidade 
    final do produto. O modelo de desenvolvimento distribuído de software 
    apresenta ainda maiores níveis de rotatividade, sendo considerados um dos 
    principais desafios relacionado à gestão de projetos. A pesquisa realizada 
    teve como objetivo investigar e analisar os principais fatores e efeitos 
    relacionados ao turnover em Projetos Distribuídos de Software, bem como 
    classificá-los como preventivos ou antecessores e relacioná-los aos modelos 
    de previsão de turnover existentes na literatura. Além disso, buscou captar 
    a percepção da importância desses fatores e efeitos sob a ótica de autores 
    e profissionais da área. Dividida em três principais fases: Fase 1 (Revisão 
    Ad-Hoc e Survey 1), Fase 2 (Revisão Sistemática da Literatura) e Fase 3 
    (Survey 3), foram encontrados 14 fatores, classificados como Humanos 
    Organizacionais e seus desdobramentos foram relacionados a 17 efeitos 
    indicativos de intenção de turnover em um contexto organizacional. 
    Posteriormente, esses fatores foram avaliados de acordo com a percepção de 
    autores mapeados na literatura e profissionais da área de acordo com sua 
    importância, bem como, sua relação de efeito de acordo com a concordância. 
    Foi destacada a importância de compreender e abordar os fatores humanos e 
    motivacionais que influenciam a intenção de rotatividade dos colaboradores. 
    A satisfação no trabalho e com a carreira foi identificada como um fator 
    chave, diretamente relacionado à intenção de rotatividade. A percepção dos 
    gestores e a revisão sistemática da literatura reforçaram a importância de 
    fatores como satisfação no trabalho, autonomia, particularidades do 
    colaborador, competência, relação e similaridade com o time, oportunidades 
    percebidas, criatividade, comunicação e fatores organizacionais. Esses 
    resultados contribuem para o entendimento do fenômeno do turnover em 
    projetos distribuídos de software e podem orientar práticas e estratégias 
    para a mitigação desse.

29
  • DIÓGENES WALLIS DE FRANCA SILVA
  • Unsupervised Multi-View Multi-Person 3D Pose Estimation

  • Leader : VERONICA TEICHRIEB
  • MEMBRES DE LA BANQUE :
  • DIEGO GABRIEL FRANCIS THOMAS
  • CLEBER ZANCHETTIN
  • VERONICA TEICHRIEB
  • Data: 28 juil. 2023


  • Afficher le Résumé
  • O problema da estimativa de pose 3D de múltiplas pessoas em cenários de 
    múltiplas visualizações tem sido um desafio contínuo em visão 
    computacional. A maioria dos métodos de estado da arte para estimativa de 
    pose 3D atualmente depende de técnicas supervisionadas, que exigem uma 
    grande quantidade de dados rotulados para o treinamento. No entanto, gerar 
    anotações 3D precisas é caro, consome tempo e está sujeito a erros. 
    Portanto, foi proposta uma abordagem nova que não requer dados rotulados 
    para estimativa de pose 3D. A abordagem proposta, a abordagem não 
    supervisionada de múltiplas visualizações e múltiplas pessoas, utiliza um 
    método de varredura de planos para gerar estimativas de pose 3D. Essa 
    abordagem define uma visualização como alvo e as demais como visualizações 
    de referência. Primeiramente, a profundidade de cada esqueleto 2D na 
    visualização alvo é estimada para obter as poses 3D. Em seguida, em vez de 
    comparar as poses 3D com as poses verdadeiras, as poses 3D calculadas são 
    projetadas nas visualizações de referência. As projeções 2D são, então, 
    comparadas com as poses 2D obtidas usando um método pronto para uso. Por 
    fim, as poses 2D do mesmo pedestre obtidas a partir das visualizações alvo 
    e de referência são comparadas para avaliação. O processo de comparação é 
    baseado em pontos de referência para identificar as poses 2D 
    correspondentes e compará-las com as respectivas projeções. Para melhorar a 
    precisão da abordagem proposta, foi introduzida uma nova perda de 
    reprojeção baseada na norma $L_1$ suave. Essa função de perda considera os 
    erros nas poses 3D estimadas e nas projeções nas visualizações de 
    referência. Ela foi testada no conjunto de dados público Campus para 
    avaliar a eficácia da abordagem proposta. Os resultados mostram que a 
    abordagem proposta alcança maior precisão do que os métodos não 
    supervisionados de estado da arte, com uma melhoria de 0,5 ponto percentual 
    em relação ao melhor sistema geométrico. Além disso, o método proposto 
    supera alguns métodos supervisionados de estado da arte e alcança 
    resultados comparáveis com a melhor abordagem supervisionada, com apenas 
    uma diferença de 0,2 ponto percentual. Em conclusão, a proposta abordagem 
    não supervisionada em um cenário com múltiplas vistas e múltiplas pessoas é 
    um método promissor para a estimativa de pose 3D. Sua capacidade de gerar 
    estimativas de pose 3D precisas sem depender de dados rotulados a torna 
    valiosa para a visão computacional.

30
  • PATRICIA DRAPAL DA SILVA
  • eXplainable Anomaly Detector for Thermal Power Plants

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • JOÃO PAULO PORDEUS GOMES
  • PAULO SALGADO GOMES DE MATTOS NETO
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 2 août 2023


  • Afficher le Résumé
  • As Usinas Térmicas (UTEs) produzem eletricidade a partir da queima de combustíveis como carvão e óleo combustível. No Brasil, as UTEs são fundamentais para garantir o abastecimento de energia em períodos de condições climáticas críticas, como complemento à geração hidrelétrica. Falhas em equipamentos de UTE podem causar interrupções não programadas por um longo período de tempo, o que pode prejudicar o fornecimento de energia elétrica e resultar em custos excessivos. Para contornar este problema, soluções baseadas em algoritmos de Machine Learning e Deep Learning para detecção de anomalias em equipamentos de UTEs têm sido amplamente exploradas a fim de evitar possíveis indisponibilidades, entretanto não são focados no cenário brasileiro, onde o parque termoelétrico fica inoperante a maior parte do ano. Além disso, a falta de transparência desses algoritmos pode torná-los tendenciosos e levar a situações perigosas. Vale ressaltar também que, amparados pela Lei Geral de Proteção de Dados, os usuários de sistemas automáticos têm o direito de ser informados sobre os motivos e/ou a lógica que levou o sistema automático a produzir uma determinada saída.
    O presente artigo aborda o problema de detecção e explicabilidade de anomalias em dados de sensores usados para monitorar as condições de equipamentos de UTEs. No trabalho desenvolvido, combinamos técnicas de agrupamento e estatística para detectar anomalias no sistema de arrefecimento de uma UTE brasileira. Experimentos foram realizados em casos reais de desligamento não planejado na UTE a fim de verificar se o método de detecção de anomalias poderia antecipar as falhas observadas. O método desenvolvido foi capaz de detectar os casos anômalos com vários minutos de antecedência, ao mesmo tempo em que obteve menos falsos alarmes em comparação com um método comparativo encontrado na literatura. Finalmente, as explicações dessas anomalias foram fornecidas em tempo real usando um método baseado em explicações contrafactuais e gráficos paralelos.

31
  • SARA BANDEIRA COUTINHO
  • Seleção de ensemble heterogêneo para a detecção de Fake News

  • Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBRES DE LA BANQUE :
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • ELLEN POLLIANA RAMOS SOUZA
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • Data: 2 août 2023


  • Afficher le Résumé
  • A disseminação de Fake News tornou-se um dos problemas da sociedade atual. 
    Uma solução para esse problema é detectar a veracidade dos textos das 
    notícias usando sistemas automatizados dada a existência de uma dificuldade 
    intrínseca ao ser humano de detectá-las, concernente ao viés de 
    confirmação, bem como a grande quantidade de dados gerados online, que 
    inviabiliza uma inspeção manual. Diversas abordagens relacionadas ao 
    aprendizado de máquina têm sido propostas na literatura. Dentre elas, o uso 
    de sistemas de múltiplos classificadores mostrou-se promissor por obter 
    resultados melhores do que sistemas que usam apenas um classificador. No 
    entanto, para serem eficientes, esses sistemas precisam de que seus 
    classificadores sejam diversos, e essa diversidade pode ser obtida usando 
    classificadores heterogêneos, assim como pode ser verificada por meio de 
    uma análise sob diferentes níveis de dissimilaridade entre os 
    classificadores. Assim, este trabalho propõe um sistema de múltiplos 
    classificadores que seleciona um subconjunto de um pool de classificadores 
    heterogêneos. Deseja-se que os classificadores selecionados sejam diversos 
    e, para esse fim, cada classificador no pool é representado usando a medida 
    de diversidade e um algoritmo de agrupamento hierárquico, que agrupa os 
    classificadores semelhantes, facilitando a seleção dos classificadores mais 
    diversos. Em complemento, para esta etapa, considerou-se escolhê-los a 
    partir daqueles que apresentaram um maior desempenho, em uma análise 
    individual, nas métricas de avaliação, a fim de que fosse obtido o 
    subconjunto com maior diversidade e com classificadores que tiveram uma 
    maior capacidade de generalização. Nos experimentos foram considerados seis 
    conjuntos de dados, de diferentes contextos e quantidades de classe. O 
    método foi comparado com outras três heurísticas de seleção e com 
    abordagens da literatura. As métricas adotadas para avaliar os resultados 
    foram acurácia, precisão, revocação e medida f1. O método apresentou 
    resultados promissores, alcançando o maior desempenho, com relação aos 
    demais, em 3 dos 6 conjuntos adotados, os quais apresentaram apenas duas 
    classes.

32
  • ISMAEL CESAR DA SILVA ARAUJO
  • Adaptive Ansatz based on Low-Rank state preparation

  • Leader : ADENILTON JOSÉ DA SILVA
  • MEMBRES DE LA BANQUE :
  • ADENILTON JOSÉ DA SILVA
  • ASKERY ALEXANDRE CANABARRO BARBOSA DA SILVA
  • ISRAEL FERRAZ DE ARAUJO
  • Data: 4 août 2023


  • Afficher le Résumé
  • Algoritmos de preparação do estado quântico consistem em definir de uma 
    sequência de operações unitárias para carregar um estado-alvo específico em 
    um computador quântico. Podemos utilizar estes algoritmos em aplicações 
    como Aprendizagem de Máquina Quântica. No entanto, alguns algoritmos para 
    inicialização de estados quânticos têm uma complexidade de circuito 
    exponencial com o número de qubits no sistema. É o caso dos algoritmos de 
    codificação de amplitude, que é um tipo de codificação para carregar dados 
    normalizados nas amplitudes de probabilidade do estado. Para contornar esta 
    sobrecarga na complexidade, trabalhos exploram propriedades específicas dos 
    estados quânticos para otimizar a complexidade do circuito, como a 
    esparsidade ou a simetria. Outros trabalhos exploram a simplificação do 
    circuito quântico para carregar um estado aproximado. É o caso das Redes 
    Generativas Adversariais Quânticas, que utilizam uma arquitetura de 
    circuito específica composta por blocos alternados de rotações de um qubit 
    e portas controladas de emaranhamento de dois qubits. Porém, quando 
    treinadas para carregar distribuições aleatórias sobre as probabilidades 
    dos estados, observamos que o desempenho se deteriora à medida que o número 
    de qubits aumenta segundo a entropia relativa. Neste trabalho, propomos uma 
    arquitetura diferente para os modelos generativos quânticos, baseada no 
    algoritmo de preparação de estados conhecido como Low-Rank. E através de 
    experimentos para carregar a distribuição log-normal, mostramos redução no 
    erro da inicialização dos estados quânticos.

33
  • JOAO GUILHERME OLIVEIRA CARVALHO DE MELO
  • Onboard Perception and Localization for Resource-Constrained 
    Dynamic Environments: A RoboCup Small Size League Case Study

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • PAULO FERNANDO FERREIRA ROSA
  • CLEBER ZANCHETTIN
  • EDNA NATIVIDADE DA SILVA BARROS
  • Data: 7 août 2023


  • Afficher le Résumé
  • Auto-localização é uma habilidade fundamental no campo de robôs móveis autônomos e consiste em estimar a posição e orientação de um robô em relação ao seu ambiente de operação. Localização de Monte Carlo (em inglês Monte Carlo Localization - MCL) é um algoritmo baseado em filtros de partículas, abordando o problema de localização através de um conjunto de partículas que representam múltiplas hipóteses do estado atual do robô. Em cada iteração, as partículas são movimentadas de acordo com os deslocamentos realizados pelo robô e suas verossimilhanças são estimadas com base nas similaridades entre medidas adquiridas pelo robô e seus valores esperados, dados os estados das partículas. Em seguida, um novo conjunto de partículas é gerado com base nos pesos atuais através de algoritmos de reamostragem e o processo é reiniciado. MCL é utilizado com sucesso em diversas ligas de futebol de robôs da RoboCup para resolver o problema de localização, especialmente em competições de robôs humanóides e de plataformas padronizadas. Em 2022, este problema foi introduzido na categoria Small Size League (SSL) através do desafio técnico chamado Vision Blackout, que restringe os times a utilizarem apenas técnicas de sensoriamento e processamento embarcados para executar tarefas do futebol de robôs. Assim, este trabalho apresenta uma solução integrada para resolver o problema de auto-localização no contexto de SSL enquanto, conjuntamente, detecta objetos dinâmicos do ambiente, utilizando informações adquiridas por uma câmera monocular e odometria inercial embarcados. Nós aprimoramos o algoritmo de MCL utilizando idéias de implementações propostas por outras pesquisas realizadas em outras ligas da RoboCup, garantindo mais robustez à imprecisões em medidas e estimativas de odometria. Ademais, nós aceleramos a velocidade de processamento do algoritmo adaptando o número de partículas utilizadas de acordo com a confiança atual da distribuição, método também chamado de MCL adaptativo. Para isto, propomos uma nova abordagem para medir a qualidade da distribuição atual, baseada em aplicar o modelo de observação ao estado resultante do algoritmo de localização. A abordagem foi capaz de aumentar drasticamente a velocidade de processamento do sistema, sem perder sua capacidade de rastrear a localização do robô, e a nova métrica de confiança também pode ser aproveitada para tomar decisões e realizar movimentos que favoreçam a convergência do algoritmo de localização.

34
  • CARLOS ANTÔNIO ALVES JÚNIOR
  • Combinação de Redes Neurais Convolucionais para reconstrução de 
    Tomografias Computadorizadas com Baixas Dosagens de Radiação

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • HAE YONG KIM
  • CARLOS ALEXANDRE BARROS DE MELLO
  • TSANG ING REN
  • Data: 9 août 2023


  • Afficher le Résumé
  • Riscos relacionados à exposição excessiva de pacientes à radiação durante a 
    aquisição de tomografias computadorizadas são motivo de preocupação 
    crescente na comunidade médica. Tomografias obtidas com menores quantidade 
    de radiação ou redução de projeções poderiam aliviar o problema, mas 
    resultam em artefatos e problemas na imagem reconstruída. Sendo assim, 
    diversos métodos baseados na aplicação de Redes Neurais Convolucionais 
    (CNNs, do inglês Convolucional Neural Network) para recuperação das 
    tomografias obtidas com baixa dosagem (LDCTs, do inglês Low-dose Computed 
    Tomography), apresentaram bons resultados. Métodos baseados em CNNs 3D 
    obtiveram resultados ainda mais promissores, visto que exploram melhor as 
    relações entre os pixeis das visões ortogonais dos volumes CT. CNNs 3D 
    possuem, no entanto, um custo computacional maior associado. Além disso, 
    são mais sensíveis ao problema do desbalanceamento de classes, que consiste 
    na aprendizagem enviesada em favor de uma classe de pixeis mais abundante. 
    Ao mesmo tempo, métodos baseados em CNNs 2D não exploram tão bem as 
    relações entre pixeis das visões ortogonais, visto que processam cada fatia 
    do volume tomográfico separadamente, o que leva a uma demanda computacional 
    menor. Neste trabalho, é apresentado um método que busca explorar as 
    relações entre os pixeis dos eixos Axial, Coronal e Sagittal dos volumes 
    LDCT utilizando-se de um ensemble de quatro CNNs 2D, onde, três delas 
    processam os eixos ortogonais do volume LDCT de forma separada, e a quarta 
    faz a fusão das saídas das três redes anteriores. Dessa forma, resultados 
    tão bons quanto ou superiores aos oriundos do uso de CNNs 3D, podem ser 
    obtidos sem os custos computacionais associados às mesmas. Para os 
    experimentos, foram utilizadas duas bases de dados, uma simulando 
    tomografias computadorizadas com projeções-esparsas, e a outra com dados 
    reais de tomografias computadorizadas obtidas com redução direta de 
    radiação. O método proposto apresentou resultados majoritariamente 
    superiores aos modelos 2D e 3D.

35
  • HELENA VIRGINIA ROQUE CANANEA
  • Analisando a legibilidade das políticas de privacidade: uma 
    abordagem sistemática e proposta de diretrizes de melhoria

  • Leader : JESSYKA FLAVYANNE FERREIRA VILELA
  • MEMBRES DE LA BANQUE :
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • MARIA AMALIA OLIVEIRA DE ARRUDA CAMARA
  • Data: 11 août 2023


  • Afficher le Résumé
  • Contexto: A Lei Geral de Proteção de Dados Pessoais (LGPD), estabelecida em 
    2018 pela Lei nº 13.709, trouxe uma unificação dos regulamentos sobre dados 
    pessoais. Embora a LGPD não possua artigos específicos que tratem da 
    Política de Privacidade, trata-se de elemento essencial, pois é por meio 
    dela que as empresas e organizações informam aos seus usuários sobre como 
    seus dados pessoais serão tratados. Tal política é um texto claramente 
    previsto no Regulamento Geral sobre a Proteção de Dados (General Data 
    Protection Regulation) da União Europeia, que serviu de inspiração para a 
    lei brasileira. No entanto, as políticas, geralmente, são documentos 
    longos, difíceis de compreender e possuem muitos termos técnicos e 
    jurídicos. Portanto, visando atender aos princípios de livre acesso e 
    transparência é necessário melhorar a legibilidade das políticas de 
    privacidade. Objetivo: Esta Dissertação investiga como melhorar a 
    legibilidade das políticas de privacidade, bem como propor diretrizes de 
    melhoria para a elaboração de políticas com melhor legibilidade e em 
    conformidade com a LGPD. Método: Uma revisão sistemática da literatura foi 
    conduzida para compreender o estado da arte sobre legibilidade de políticas 
    de privacidade, os desafios enfrentados, técnicas existentes, aplicações e 
    técnicas usadas para validação. A partir dos resultados da revisão 
    sistemática e do estudo da LGPD, foram propostas as diretrizes de melhoria 
    da legibilidade e um checklist das informações necessárias para uma 
    política de privacidade estar em conformidade com a LGPD. Resultados: Para 
    melhorar a legibilidade das políticas de privacidade, sugere-se evitar o 
    uso excessivo de termos jurídicos e técnicos, utilizar uma estrutura clara 
    e organizada, utilizar recursos visuais, assim como uma linguagem mais 
    acessível e amigável ao usuário. Além disso, foi realizada uma aplicação 
    das diretrizes na política de privacidade do IX.br, nome dado ao projeto do 
    Comitê Gestor da Internet no Brasil (CGIbr). Conclusões: A aplicação 
    indicou uma boa receptividade para as diretrizes propostas e aceitação por 
    parte dos participantes do projeto IX.br. Por fim, o checklist de 
    conformidade com a LGPD proposto pode ajudar as empresas a avaliar suas 
    políticas atuais, além de oferecer uma estratégia de melhoria para atingir 
    a legibilidade das políticas de privacidade e proteção dos dados pessoais.

36
  • EVAIR DE JESUS SILVA CUNHA
  • Melhorando a detecção de objetos pequenos com DETRAug

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • JOAO PAULO SILVA DO MONTE LIMA
  • TSANG ING REN
  • Data: 16 août 2023


  • Afficher le Résumé
  • Neste trabalho é proposta uma nova abordagem para detecção de objetos 
    pequenos chamada DETRAug. A nova técnica combina estratégias dos modelos 
    Deformable DETR e AUGMIX. O AUGMIX é uma técnica para melhorar a robustez 
    no treinamento de modelos de aprendizagem de máquina com base em mudanças 
    na distribuição dos dados de treinamento e teste.
    O Deformable DETR é uma variante do modelo DETR, a qual obtém melhores 
    resultados com objetos pequenos, além de apresentar um tempo de treinamento 
    mais rápido que sua forma original. No DETRAug também focamos na ampliação 
    da quantidade de imagens de treinamento e consequente adaptação das 
    estratégias para detecção de objetos pequenos. Desta forma, a abordagem 
    proposta busca produzir, de maneira estocástica, pequenas imagens com 
    diferentes transformações, que no decorrer do processo de treinamento são 
    encadeadas com o intuito de gerar uma imagem única a ser adicionada no 
    conjunto de treinamento do modelo. A divergência de Jensen-Shannon, uma 
    métrica bastante útil para modelagens com distribuições, foi utilizada para 
    avaliar a função de Loss do modelo. No decorrer dos experimentos com o uso 
    do DETRAug, foi possível verificar que o modelo proposto apresentou uma 
    diminuição na quantidade de detecções "no-object", ou seja, nas detecções 
    errôneas que o modelo produz. Durante os experimentos, esta nova versão foi 
    comparada com os modelos DETR e EfficientDet. A abordagem proposta foi 
    avaliada em experimentos com seis datasets públicos. Ao fim dos 
    experimentos, foi possível auferir uma melhoria de no mínimo 0.9% em 
    relação a métrica mAP, também foi observada uma Loss de treinamento mais 
    estável no modelo proposto. Além disso, é possível identificar visualmente 
    uma melhora na detecção de objetos que, sob a mesma condição, são ignorados 
    pelos outros modelos da literatura.

37
  • DIEGO MOURA VIEIRA
  • Políticas Públicas de Incentivo ao Ecossistema de Inovação 
    Pernambucano: um Estudo de Caso sobre o Programa Desenvolve.ai

  • Leader : CARINA FROTA ALVES
  • MEMBRES DE LA BANQUE :
  • CARINA FROTA ALVES
  • TERESA MARIA DE MEDEIROS MACIEL
  • VERONICA TEICHRIEB
  • Data: 18 août 2023


  • Afficher le Résumé
  • O advento das tecnologias digitais tornou a produção científica e a 
    inovação mais abertas, colaborativas e globais. A inovação aberta reúne 
    recursos e agentes externos às organizações para o desenvolvimento de novos 
    produtos, processos e serviços. Para tornar a indústria mais produtiva e 
    competitiva, é fundamental identificar os desafios e orquestradores para 
    formulação de políticas públicas de incentivo à inovação e seus 
    ecossistemas. Entretanto, os estímulos do governo à inovação são limitados 
    e, geralmente, não levam em consideração aspectos socioeconômicos locais. 
    Dessa forma, esta pesquisa explora os desafios das políticas públicas de 
    incentivo à inovação aberta na indústria. Realizamos uma Revisão Rápida 
    (RR) para sintetizar evidências na literatura. A RR permitiu mapear os 
    principais desafios das políticas públicas de fomento  à inovação aberta. 
    Com base nos resultados, descrevemos  um conjunto de boas práticas de 
    inovação aberta em ecossistemas de inovação. Os estudos incluídos em nossa 
    revisão descrevem ações e generalizações em nível nacional, às vezes 
    deixando de observar que a inovação é um processo interativo de 
    aprendizagem que ocorre em nível local. Através de um estudo de caso único, 
    analisamos o programa de inovação aberta Desenvolve.ai, promovido pelo 
    Porto Digital, em parceria com a Agência de Desenvolvimento Econômico de 
    Pernambuco (ADEPE), cujo propósito é promover a conexão entre academia e 
    indústria dentro do ecossistema de inovação pernambucano. Para o estudo de 
    caso, além da análise documental sobre o programa, realizamos  entrevistas 
    semiestruturadas com os principais atores envolvidos. As entrevistas 
    revelaram os principais achados classificados em oito categorias: Entraves 
    burocráticos para inovação aberta; Grau de maturidade em inovação; 
    Facilitadores da interação entre academia, indústria e governo; Políticas 
    Públicas de incentivo; Baixa transparência no processo de inovação aberta; 
    Interação com o ecossistema de inovação local; Impacto do fator humano no 
    processo de inovação e; Interação com a Indústria. Nossos resultados 
    sugerem  pontos de melhoria  sobre os impactos da política pública de 
    inovação pernambucana, que serve de arcabouço legal para o Desenvolve.ai. 
    Como contribuição  final da pesquisa, propomos um conjunto de 8 indicadores 
    para avaliar a efetividade de  políticas públicas de inovação, a fim de 
    prover maior transparência para os atores envolvidos e melhorar o 
    acompanhamento desses programas.

38
  • VINÍCIUS DE OLIVEIRA ANDRADE
  • Sistema de Recomendação de Desenvolvedores Especialistas para 
    Projetos de Engenharia de Software: um Estudo de Caso

  • Leader : FLAVIA DE ALMEIDA BARROS
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE CABRAL MOTA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • FLAVIA DE ALMEIDA BARROS
  • Data: 22 août 2023


  • Afficher le Résumé
  • Em projetos de desenvolvimento de software, a alocação eficiente de 
    desenvolvedores a tarefas específicas é de extrema importância, uma vez que 
    essa distribuição pode impactar diretamente o tempo de desenvolvimento e a 
    qualidade do produto final. Objetivando auxiliar os gestores, propomos aqui 
    um processo de recomendação de desenvolvedores para projetos e tarefas com 
    base no conhecimento acumulado por cada especialista (modelo orientado a 
    tópico). Nossa proposta adota uma estratégia personalizada de recomendação. 
    Aqui, o usuário do sistema é o gerente responsável pela alocação e os 
    desenvolvedores são vistos como os “itens” que serão recomendados. Assim, o 
    perfil (efêmero) do usuário será representado pela descrição da tarefa a 
    ser realizada no momento, e os desenvolvedores (“itens”) são representados 
    pela descrição dos trabalhos e atividades que cada um já realizou (dados históricos). Por fim, 
    adotamos a técnica de recomendação baseada em filtragem de conteúdo, que 
    analisa a similaridade entre tarefas a realizar (“perfil” do usuário) e os 
    dados históricos dos desenvolvedores. Essa configuração de estratégia e 
    técnica apresentou os melhores resultados nos testes exploratórios 
    realizados com diferentes abordagens. Foi implementado um sistema protótipo 
    para recomendação de especialistas no contexto de uma empresa de 
    desenvolvimento de software. Esse sistema, implementado em Python, conta 
    com três módulos: (1) Coleta de Informações, que recupera e pré-processa as 
    informações necessárias disponíveis na ferramenta de gerenciamento de 
    tarefas da empresa parceira; (2) Módulo de Recomendação, que analisa as 
    informações coletadas e recomenda os desenvolvedores mais adequados para 
    cada tarefa e projeto; e (3) Módulo de Gerenciamento de Alocação, 
    responsável por gerenciar os cadastros do sistema, registrando e mantendo o 
    controle das alocações de desenvolvedores a tarefas e projetos. As 
    tecnologias utilizadas são: Django, Jira, NLTK, Pandas e Scikit-learn. A 
    validação do protótipo foi realizada durante um período de dois meses de 
    uso, considerando um total de 191 recomendações de atividades. Os 
    resultados foram analisados observando-se quais desenvolvedores 
    recomendados pelo sistema foram de fato alocados pelo gerente para as 
    tarefas de entrada. O protótipo alcançou uma precisão de 65,13%, o que 
    indica que os resultados não são aleatórios, e que o sistema tem potencial 
    para melhorar o processo de alocação de desenvolvedores a tarefas, 
    facilitando a busca pelo profissional mais adequado para cada atividade.

39
  • ANA BEATRIZ CAVALCANTI RIBEIRO
  • FEEDBASIC: a guide to implement feedback practices for remote software development teams

  • Leader : CARINA FROTA ALVES
  • MEMBRES DE LA BANQUE :
  • ALEX SANDRO GOMES
  • CARINA FROTA ALVES
  • JOAO BAPTISTA DA SILVA ARAUJO JUNIOR
  • Data: 23 août 2023


  • Afficher le Résumé
  • Feedback é uma parte fundamental da rotina de times de desenvolvimento de 
    software. Diferentes práticas de feedback têm sido adotadas por líderes e 
    gestores para prover informações sobre o desempenho dos colaboradores, 
    alinhar metas e resolver conflitos. O expressivo crescimento da adoção do 
    modelo de trabalho remoto tem criado novos desafios ao uso efetivo e 
    sustentável do feedback pelas organizações. Dentre os principais desafios 
    destacam-se a falta de confiança dentro do time, a perda do acesso à 
    linguagem corporal e a limitação de informações sobre o desempenho  do 
    colaborador. Apesar da reconhecida relevância do feedback na motivação dos 
    colaboradores e do desafio que é realizá-lo no contexto de trabalho remoto, 
    há uma ausência de estudos centrados no entendimento de como as práticas de 
    feedback são, atualmente, conduzidas nos times de desenvolvimento de 
    software remotos. Partindo deste contexto, o objetivo deste trabalho é 
    explorar como as  práticas de feedback são  conduzidas por times de 
    software que trabalham em modelos total ou parcialmente remotos. Para isso, 
    foi utilizado um método de pesquisa misto a fim de capturar as diferentes 
    perspectivas associadas às práticas de feedback. Realizamos  uma revisão 
    multivocal da literatura para mapear os benefícios, limitações e boas 
    práticas de feedback. Em seguida, conduzimos entrevistas semiestruturadas 
    com 10 líderes e gestores de times de desenvolvimento de software para 
    entender as suas percepções sobre as práticas de feedback. Finalmente, 
    realizamos uma pesquisa survey com 83 membros de diversos times de software 
    remotos para entender as suas percepções e sentimentos sobre o recebimento 
    de feedback. A triangulação dos dados coletados a partir dos diferentes 
    métodos de pesquisa possibilitou o desenvolvimento do FeedBasic, um guia 
    que visa a implementação e melhoria de práticas de feedback em equipes de 
    desenvolvimento de software remotas para melhorar a satisfação dos 
    colaboradores e a efetividade do processo de feedback. Dentre as boas 
    práticas propostas  no FeedBasic estão o aumento da frequência de reuniões 
    do feedback, o desenvolvimento de um plano de ação focado na evolução do 
    colaborador e o acompanhamento frequente dos seus avanços em direção às 
    metas estabelecidas. Tais práticas podem melhorar o engajamento no time e 
    tornar o processo mais enriquecedor para o colaborador.

40
  • GABRIEL HENRIQUE DANIEL DA SILVA
  • Extração, Classificação e Priorização de Reclamações de 
    Consumidores em SACs Online Baseados em Texto

  • Leader : FLAVIA DE ALMEIDA BARROS
  • MEMBRES DE LA BANQUE :
  • FLAVIA DE ALMEIDA BARROS
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • Data: 28 août 2023


  • Afficher le Résumé
  • Os serviços de atendimento ao consumidor (SACs) são canais de comunicação 
    entre uma empresa e seus consumidores, possibilitando que os clientes tirem 
    dúvidas, deem sugestões, solicitem informações e registrem reclamações. Com 
    o advento da Internet e das redes sociais, grande parte do contato é feito 
    online através de canais descentralizados que geram uma enorme quantidade 
    de informação textual a ser analisada. Consumidores insatisfeitos e que não 
    se sentem priorizados tendem a se afastar e tomar ações que possam 
    influenciar negativamente na imagem da empresa. Nesse contexto, este 
    trabalho de mestrado propõe um processo para auxiliar as empresas a lidar 
    com essa grande quantidade de reclamações que ficam expostas na Web através 
    do processamento automático dos textos das reclamações. A solução proposta 
    se baseia em uma estratégia de extração automática das reclamações postadas 
    pelos consumidores em sites específicos, seguida de classificação e 
    ranqueamento dessas reclamações, a fim de priorizar as críticas 
    consideradas mais relevantes (i.e., com maior potencial de prejuízo) no 
    momento. O processo proposto foi implementado em três etapas distintas. 
    Inicialmente, foi desenvolvido um módulo para criação do corpus que realiza 
    um scrapping para extração das reclamações a partir de sites na Web. O 
    código foi desenvolvido em Python com o auxílio do framework Selenium. O 
    site escolhido para o protótipo inicial foi o “ReclameAqui”. A partir dos 
    dados extraídos, foi criado um corpus contendo reclamações que foram 
    etiquetadas manualmente por pessoas com experiência no domínio de 
    atendimento ao consumidor, também foi realizado um pré-processamento 
    textual. A seguir, foi desenvolvido um classificador de texto baseado em 
    Aprendizagem de Máquina usando o corpus etiquetado. Foram realizados 
    diversos experimentos buscando encontrar a combinação de melhor desempenho 
    dentre as opções disponíveis. A configuração que utiliza TF-IDF para 
    transformação de texto, K-Fold Cross Validation no treinamento e Regressão 
    Logística teve o melhor resultado, com acurácia de 82,22%, F-measure de 
    82,39% e área sob a curva ROC de 0,8881. Por fim, o protótipo implementado 
    também realiza o ranqueamento das reclamações prioritárias, oferecendo 
    ainda a possibilidade de exportação das reclamações de forma ordenada.

41
  • PAULO JOSE NUNES BATISTA DOS PRAZERES
  • ADS Testing with Attention

  • Leader : MARCELO BEZERRA D AMORIM
  • MEMBRES DE LA BANQUE :
  • VINCENZO RICCIO
  • MARCELO BEZERRA D AMORIM
  • TSANG ING REN
  • Data: 28 août 2023


  • Afficher le Résumé
  • À medida que veículos autônomos se tornam mais comuns em todo o mundo, há umcrescente interesse na segurança de seus sistemas de controle. Esses sistemas geralmente
    incluem Redes Neurais que usam imagens da estrada para orientar a direção do volante do
    veículo, desempenhando um papel fundamental nesses veículos. Desenvolver estratégias
    eficazes para monitorar e testar essas Redes Neurais é, portanto, crítico. Esta dissertação
    propõe duas estratégias distintas, mas complementares, para enfrentar esse desafio.
    A primeira estratégia emprega uma técnica inovadora baseada nos mapas de atenção
    calculados pela explainable artificial intelligence. Esta abordagem monitora ativamente
    as operações da Rede Neural dentro do veículo, identificando instâncias anômalas onde a
    Rede Neural pode se comportar de maneira inesperada, mitigando assim potenciais riscos
    de acidentes. Este método foi validado empiricamente usando o Simulador de Direção
    Virtual desenvolvido pela Udacity.
    A segunda parte da dissertação apresenta um estudo preliminar de uma estratégia
    de teste aplicável durante a fase de teste das Redes Neurais. Esta estratégia envolve gerar
    uma variedade de cenários de condução para expor e entender as limitações e fraquezas
    da Rede Neural. Uma Rede Neural treinada no conjunto de dados MNIST para classificar
    dígitos foi empregada neste estudo, servindo como uma prova de conceito para a eficácia
    dos mapas de atenção em orientar a geração de variações de dígitos e identificar corner
    cases. A analogia entre a forma de um dígito e o layout de uma estrada formou a base para
    usar a classificação de dígitos neste estudo preliminar. O objetivo é demonstrar que os
    ganhos de eficiência alcançados com a aplicação de mapas de atenção podem ser replicados
    na geração automática de cenários de estrada simulados para simulações de condução. Os
    resultados sugerem que nossa abordagem pode melhorar substancialmente a segurança e
    a confiabilidade dos veículos autônomos.

42
  • DIANA MARCELA DA SILVA BALTAR
  • Provendo acessibilidade ao conteúdo de documentos centenários: Um 
    processo de correção e melhoria do texto extraído de imagens utilizando 
    técnicas de Processamento de Linguagem Natural

  • Leader : FLAVIA DE ALMEIDA BARROS
  • MEMBRES DE LA BANQUE :
  • FLAVIA DE ALMEIDA BARROS
  • MARCOS GALINDO LIMA
  • SANDRA DE ALBUQUERQUE SIEBRA
  • Data: 28 août 2023


  • Afficher le Résumé
  • Este trabalho de mestrado foi desenvolvido em colaboração com o Laboratório 
    LIBER  (DCI-UFPE) dentro do contexto de um projeto mais amplo, cujo 
    objetivo geral é resgatar, preservar e prover livre acesso a jornais 
    periódicos centenários em língua portuguesa. Exemplares do “Diário de 
    Pernambuco”, datados do início do século XIX, foram resgatados e 
    digitalizados (escaneados) pelos pesquisadores do LIBER. A fase final foi o 
    objetivo geral desta pesquisa de mestrado, visando a extração automática do 
    texto contido nas imagens e a indexação automática de cada documento 
    (imagem) a partir das palavras que ele contém, buscando assim prover acesso 
    a esses documentos a partir de consultas baseadas em palavras-chaves.
    A extração do texto foi realizada utilizando-se algoritmos de OCR, que nem 
    sempre conseguem um desempenho satisfatório quando os documentos são muito 
    antigos e em mau estado de conservação. Além disso, algumas palavras tinham 
    grafia diferente da atual, dificultando a correção automática do texto com 
    base nos dicionários modernos contidos nas ferramentas de OCR e de PLN 
    disponíveis. Assim, foi necessário desenvolver uma solução própria.
    Nesse contexto, a correção automática dos textos extraídos, a fim de 
    identificar e dirimir erros de OCR, é a grande contribuição deste trabalho. 
    O corretor ortográfico PyEnchant  foi adotado como base da solução 
    desenvolvida, pelo seu alto desempenho. Contudo, essa ferramenta só dispõe 
    de um dicionário atual da língua portuguesa. Assim, foi necessário 
    desenvolver uma solução com base em um dicionário de 1913, que se aproxima 
    mais da grafia utilizada nos documentos tratados. Porém, o padrão de 
    dicionário usado pela ferramenta não se baseia apenas em uma lista de 
    vocábulos, utilizando metadados associados às entradas do dicionário para 
    realizar a flexão dos termos (e.g., gênero e número, flexão verbal, 
    aumentativo e diminutivo etc.). Então foi necessário adaptar o dicionário 
    de 1913 para o formato da PyEnchant. Claramente, não seria viável fazer 
    essa adaptação de modo manual, devido ao grande volume de entradas do 
    dicionário escolhido (124.308 termos). Assim, foi necessário implementar um 
    processo com vários passos para automatizar a adaptação do dicionário de 
    1913 ao padrão da PyEnchant. Utilizamos aqui técnicas oriundas da área de 
    Processamento de Linguagem Natural. Testes iniciais realizados com algumas 
    imagens disponíveis mostraram uma boa taxa de cobertura na correção dos 
    erros do OCR. Foi observado que algumas palavras escaparam da correção por 
    terem letras adicionadas pelo OCR que modificaram muito a palavra (radical) 
    original. Esse problema será tratado em trabalhos futuros.
    Por fim, os textos já corrigidos foram utilizados para indexar as imagens 
    correspondentes, criando assim um repositório para livre acesso através de 
    consultas via palavras-chaves. Essa etapa foi implementada com apoio da 
    biblioteca PySolr . Utilizamos aqui teorias e técnicas oriundas da área de 
    Recuperação de Informação.
    Assim, consideramos que os objetivos iniciais deste trabalho foram 
    alcançados, tendo sido materializados no dicionário adaptado e na base de 
    imagens indexadas automaticamente através de termos que ocorrem em cada 
    imagem. Devido a restrições de tempo, não foi possível implementar todas as 
    melhorias inicialmente planejadas, estando indicadas como trabalhos 
    futuros. Destacamos aqui a modernização vocabular para facilitar as buscas 
    via interface.

43
  • MARCELA BANDEIRA CUNHA NUNES
  • An Analysis of Git’s Private Life and Its Merge Conflicts

  • Leader : PAULO HENRIQUE MONTEIRO BORBA
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS DE MEDEIROS SANTOS
  • CATARINA DE SOUZA COSTA
  • PAULO HENRIQUE MONTEIRO BORBA
  • Data: 31 août 2023


  • Afficher le Résumé
  • O desenvolvimento colaborativo é uma prática essencial para o sucesso da maioria dos projetos de software não triviais. No entanto, conflitos de mesclagem podem ocorrer quando um desenvolvedor integra, por meio de um repositório compartilhado remoto, suas alterações com as alterações de outros desenvolvedores. Tais conflitos podem prejudicar a produtividade dos desenvolvedores e introduzir defeitos inesperados. Estudos empíricos anteriores analisaram tais características de conflito e propuseram diferentes abordagens para evitá-los ou resolvê-los. No entanto, esses estudos se limitam à análise de códigos compartilhados em repositórios públicos. Dessa forma, eles ignoram as ações do repositório local (privado do desenvolvedor) e, consequentemente, os cenários de integração de código que muitas vezes são omitidos do histórico de repositórios remotos compartilhados devido ao uso de comandos como git rebase, que reescrevem o histórico de commits do Git. Esses estudos podem então estar examinando apenas parte dos cenários e conflitos reais de integração de código. Para avaliar isso, pretendemos lançar luz sobre essa questão, trazendo evidências de um estudo empírico que analisa dados do histórico de comandos Git extraídos dos repositórios locais de vários desenvolvedores. Dessa forma, podemos acessar cenários de integração ocultos que não podem ser acessados analisando dados de repositório público como em estudos baseados no GitHub. Após identificar os cenários de integração visíveis e ocultos, investigamos a relação entre a frequência dos desenvolvedores que integram o código e a frequência com que esses cenários resultam em conflitos. Dessa forma, podemos entender se esses dados estão correlacionados. Analisamos 95 arquivos Git reflog de 61 desenvolvedores diferentes. Nossos resultados indicam que os cenários de integração de código oculto são mais frequentes do que os visíveis. Também encontramos taxas de conflito mais altas do que em estudos anteriores. Nossas evidências sugerem que estudos que consideram apenas repositórios compartilhados remotos podem perder dados de conflito de integração por não considerar as ações do repositório local do desenvolvedor. Em relação ao estudo de correlação, nossos resultados indicam uma relação estatisticamente significativa entre a frequência de integração de código dos desenvolvedores e a frequência de cenários de integração que resultam em conflitos. Essa relação é representada por uma correlação negativa (os valores mais altos de um evento estão associados aos valores mais baixos do outro). A partir do resultado da amostra do nosso estudo, sugerimos que, se um desenvolvedor integra o código com frequência, a frequência de falha na integração do código tende a diminuir.

44
  • DAYANNE MARIA COUTINHO OLIVEIRA
  • Diversidade em Game Jams: um estudo de caso sobre a participação 
    LGBTQIA+ em maratonas de desenvolvimento de jogos

  • Leader : KIEV SANTOS DA GAMA
  • MEMBRES DE LA BANQUE :
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • KIEV SANTOS DA GAMA
  • TATYANE SOUZA CALIXTO DA SILVA
  • Data: 1 sept. 2023


  • Afficher le Résumé
  • Game Jams são maratonas de desenvolvimento de jogos limitadas por tempo, 
    geralmente com duração de 48 horas. Esses eventos reúnem pessoas não apenas 
    para fazer jogos, mas também para conectar iniciantes, amadores e 
    profissionais. Embora vistos como um ambiente diverso, nos Games, seja como 
    cultura tecnológica ou como ocupação profissional, podemos encontrar 
    preconceito e discriminação contra LGBTQIA+. Este trabalho é um estudo de 
    caso sobre diversidade em Game Jams, especificamente sobre a participação 
    de LGBTQIA+. Investigamos a participação de pessoas LGBTQIA+, visando 
    entender suas perspectivas e os potenciais desafios sobre qualquer 
    preconceito ou discriminação que possam enfrentar durante as Game Jams. 
    Combinamos métodos de pesquisa quantitativos e qualitativos, através de 
    surveys distribuídos em algumas Game Jams e entrevistas online com alguns 
    respondentes dos surveys. Após a análise dos dados coletados, fornecemos um 
    conjunto de recomendações de estrutura e organização, visando aumentar a 
    participação de participantes LGBTQIA+ e criar um ambiente mais inclusivo e 
    acolhedor a esses participantes. As recomendações são: Organizar Game Jams 
    focados na diversidade e hubs Global Game Jam focados na diversidade; 
    tornar todos os participantes cientes do código de conduta; fomentar a 
    colaboração sobre a competição; apresentar aspectos com os quais a 
    comunidade LGBTQIA+ possa se relacionar; e promover atividades de 
    aprendizagem. Ao implementar essas medidas, você pode ajudar a criar um 
    ambiente mais inclusivo e acolhedor para os participantes das Game Jams e 
    ajudar a promover uma comunidade diversificada.

45
  • VINÍCIUS VITOR DAS NEVES SILVA
  • Uma Abordagem para Automação do Princípio da Insignificância 
    baseada na Lógica Descritiva Fuzzy

  • Leader : FREDERICO LUIZ GONCALVES DE FREITAS
  • MEMBRES DE LA BANQUE :
  • ANJOLINA GRISI DE OLIVEIRA
  • CLARICE MARINHO MARTINS DE CASTRO
  • CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
  • Data: 11 sept. 2023


  • Afficher le Résumé
  • Com os avanços na área de inteligência artificial, a automação de decisões 
    de forma inteligente tem sido cada vez mais comum nos dias atuais, e quando 
    se trata da área do direito, não é diferente, tarefas como a representação 
    do conhecimento jurídico para organização/estruturação, indexação/busca, e 
    tomadas de decisão ganham mais espaço por conta da redução de custos, 
    diminuição de passivos, e por mais celeridade nos processos. Entretanto, o 
    conhecimento jurídico, como leis e princípios jurídicos (a exemplo do 
    princípio da insignificância ou da bagatela), é geralmente sujeito a 
    diversas anomalias semânticas e sintáticas com a presença de vaguezas em 
    suas redações. Uma das formas de automatizar processos, por outro lado, é 
    utilizando-se de modelos e aplicações em Lógicas Descritivas, a qual vem 
    sendo convenientemente utilizada em aplicações da Web Semântica por ser uma 
    lógica decidível e com um nível de expressividade superior a lógica 
    clássica proposicional. Porém, uma das dificuldades quando se trata da 
    automação de processos jurídicos, está no fato de leis muitas vezes 
    conterem elementos interpretativos, imprecisos e vagos, desta forma 
    impossibilitando o uso da Lógica Clássica. Por outro lado, a Lógica Fuzzy 
    vem sendo utilizada desde o século passado em situações onde o conhecimento 
    precisa ser compreendido em graus de pertinência, dadas as imprecisões 
    presentes. Esse trabalho, portanto, tem como objetivo propor uma aplicação 
    baseada em lógica descritiva fuzzy para a automação do princípio da 
    insignificância. Outrossim, apresentamos ainda os benefícios e dificuldades 
    encontradas ao modelar aplicações do domínio jurídico através desta lógica.

46
  • MARVSON ALLAN PONTES DE ASSIS
  • Análise da eficiência entre redes SNN’s e DNN’s sob mesma 
    representação

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • HANSENCLEVER DE FRANCA BASSANI
  • LUIS FILIPE ALVES PEREIRA
  • TSANG ING REN
  • Data: 14 sept. 2023


  • Afficher le Résumé
  • Redes Neurais de Impulso (Spiking Neural Net - SNNs) são modelos de redes 
    neurais inspirados na biologia do cérebro que acrescentam a característica 
    temporal das tarefas como fator importante. Elas são consideradas a 
    terceira geração de redes neurais artificiais, e são em teoria mais 
    poderosas que modelos de primeira e segunda geração. Porém, SNNs possuem um 
    desempenho inferior na prática em cenários onde redes neurais de segunda 
    geração tem ótimo desempenho, especialmente em tarefas de reconhecimento de 
    imagens estáticas. Particularmente, existem tipos de dados mais indicados 
    para SNNs e tipos mais indicados para redes neurais profundas (Deep Neural 
    Net - DNNs): SNNs tem melhor desempenho em fluxos de eventos esparsos 
    espacialmente e temporalmente, enquanto DNNs são melhores com dados 
    estáticos. Nas comparações de desempenho entre redes SNN's e DNN's na 
    literatura, normalmente usa-se o mesmo conjunto de dados para ambas, ou 
    tenta-se uma conversão dos dados entre as duas, situações que levam a 
    perdas de até 30% de acurácia dos modelos. Esse trabalho propõe uma nova 
    metodologia de comparação que não degenera o resultado das SNN's nem das 
    DNN's, usando a mesma representação e mesmo conjunto de dados para ambas. A 
    metodologia é então aplicada na comparação de modelos de visão 
    computacional de SNN's e DNN's para as bases de dados DVS128 e Soli, 
    obtendo resultados comparáveis ao estado da arte para ambos os casos.

47
  • RENAN SOARES SIQUEIRA COSTA
  • Transformer-Based Neural Network for Short-Term Photovoltaic and 
    Wind Power Prediction

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • GUSTAVO DE NOVAES PIRES LEITE
  • TSANG ING REN
  • Data: 18 sept. 2023


  • Afficher le Résumé
  • A previsão de curto prazo de energia fotovoltaica (PV) e eólica são essenciais para gerenciar sistemas conectados à rede elétrica e comprar e vender energia no mercado diário e intradiário. Assim, o desenvolvimento de modelos de previsão precisos se torna necessário na dinâmica do setor elétrico. Nesse contexto, modelos de aprendizado de máquina são amplamente utilizados por seu excelente desempenho na extração complexa de características atmosféricas que influenciam diretamente a produção de energia renovável. Este trabalho propôs o uso de um modelo de aprendizado de representação vetorial como incorporação, chamado Time2Vec, para melhorar os modelos de aprendizado usados para previsão, além de uma arquitetura de rede neural baseada em transformers. O experimento foi realizado em duas usinas de energia fotovoltaica na Índia e duas fazendas eólicas, utilizando a arquitetura proposta, Multilayer Perceptron (MLP) and Long-Short Term Memory (LSTM), que foram então comparados a vários modelos utilizados como previsão de referência nesse tipo de previsão. Na maioria dos casos, os resultados mostraram uma melhoria relevante em relação aos modelos de referência, alcançando mais de 20% de melhoria no erro médio absoluto e no coeficiente de correlação em alguns horizontes.

48
  • FRANCISCO WILSON RODRIGUES JÚNIOR
  • A RoboTool plug-in for RoboWorld

  • Leader : GUSTAVO HENRIQUE PORTO DE CARVALHO
  • MEMBRES DE LA BANQUE :
  • GUSTAVO HENRIQUE PORTO DE CARVALHO
  • JULIANO MANABU IYODA
  • SIDNEY DE CARVALHO NOGUEIRA
  • Data: 21 sept. 2023


  • Afficher le Résumé
  • O desenvolvimento de sistemas robóticos é uma tarefa desafiadora devido à complexidade associada. Além disso, a falta de técnicas e ferramentas específicas faz com que a prática atual de Engenharia de Software para robótica esteja desatualizada. Portanto, aplicar técnicas de desenvolvimento baseado em modelos, em oposição às abordagens centradas em simulação e código, tem sido defendido para o campo da robótica. Considerando isto, o framework RoboStar, através de sua ferramenta (RoboTool), fornece uma coleção de linguagens específicas de domínio adaptadas para diferentes aspectos do desenvolvimento de sistemas robóticos. Uma dessas linguagens é RoboWorld: uma linguagem natural controlada (CNL) para especificar requisitos operacionais. Neste trabalho, desenvolveu-se um plug-in de RoboTool para RoboWorld. Este plug-in possui uma interface gráfica que permite a manutenção de dicionários específicos de cada projeto. Além disso, fornece editores de superfície e estruturais para documentos RoboWorld. A integração com técnicas e ferramentas de processamento de linguagem natural é transparente e, portanto, escondida do usuário final. A partir de uma representação intermediária de documentos RoboWorld, que é derivada automaticamente, o plug-in também verifica automaticamente condições de boa formação e gera uma semântica formal em CyPhyCircus. Estes recursos permitem a modelagem, a verificação, a simulação e testes rigorosos de robôs móveis e autônomos em conjunto com o seu ambiente operacional. O plug-in de RoboTool para RoboWorld foi validado considerando três estudos de caso: um drone de resgate, um robô andarilho e um robô coletor de recursos.

49
  • DOUGLAS TAVARES RIBEIRO PAULINO SILVA
  • Uma Avaliação de Métodos de Calibração Livre Aplicados à 
    Radiolocalização Fingerprinting Baseada em Aprendizado de Máquina

  • Leader : DANIEL CARVALHO DA CUNHA
  • MEMBRES DE LA BANQUE :
  • FERNANDO MACIANO DE PAULA NETO
  • DANIEL CARVALHO DA CUNHA
  • RENATO MACHADO
  • Data: 25 sept. 2023


  • Afficher le Résumé
  • Os serviços baseados em localização têm se tornado essenciais no cotidiano das pessoas em diversas aplicações, especialmente em ambientes indoor, como, por exemplo, shoppings, aeroportos e hospitais. Uma das técnicas tradicionalmente utilizadas em localização indoor é a radiolocalização baseada em fingerprinting, que utiliza a similaridade entre os níveis de sinal de RF para estimar a localização do usuário. Contudo, essa técnica enfrenta desafios devido à heterogeneidade de dispositivos, mesmo quando estes são posicionados no mesmo local físico, resultando em variações nos níveis de sinal coletados, ocasionando o aumento do erro de predição na localização. Tais variações são causadas, em grande parte, pela falta de padronização de hardware entre os fabricantes, resultando em diferentes chipsets de RF. Para lidar com esse problema, métodos de calibração são empregados para normalizar as variações dos níveis de sinal, indiretamente contribuindo para a redução do erro de predição de distância. No entanto, alguns desses métodos, como o HLF, o RSC e o DIFF, podem prejudicar o desempenho da localização em cenários homogêneos, uma vez que constroem um novo fingerprint em vez de utilizar os valores brutos dos níveis de sinal coletados. Para abordar as limitações de cada método, foi proposto um novo método de calibração, resultante da combinação dos métodos previamente analisados. Este método se mostrou adaptável tanto em cenários heterogêneos quanto homogêneos, melhorando assim o desempenho global do sistema de localização. Por exemplo, o método RSC/W-RSS conseguiu reduzir o erro médio de predição de 7 a 22% em relação ao método RSC. Em relação ao custo computacional, o método RSC/W-RSS se destacou por sua eficiência entre os métodos combinados. Esse resultado era esperado, pois esse método se baseia no método RSC, que por sua vez teve o menor tempo de processamento entre os métodos isolados. A depender do algoritmo de AM utilizado no processo, a combinação dos métodos de calibração na técnica FP tem o potencial de aprimorar o desempenho da localização, desde que seja mantido um custo computacional viável. O principal destaque foi o algoritmo FA juntamente com o método RSC/W-RSS, que superou os algoritmos 𝑘-NN e SVR devido à sua eficiência em termos de custo computacional e menor erro de predição de distância em boa parte dos casos avaliados.

50
  • FELIPE BEZERRA MARTINS
  • Exploring Multi-Agent Deep Reinforcement Learning In IEEE Very 
    Small Size Soccer

  • Leader : HANSENCLEVER DE FRANCA BASSANI
  • MEMBRES DE LA BANQUE :
  • MARCOS RICARDO OMENA DE ALBUQUERQUE MAXIMO
  • HANSENCLEVER DE FRANCA BASSANI
  • TSANG ING REN
  • Data: 27 sept. 2023


  • Afficher le Résumé
  • O futebol de robôs é considerado um excelente exemplo de ambiente 
    multiagente dinâmico e cooperativo, pois pode demonstrar uma variedade de 
    complexidades. A aprendizagem por reforço é uma técnica promissora para 
    otimizar a tomada de decisões nestes sistemas complexos, pois obteve 
    recentemente grande sucesso devido aos avanços nas redes neurais profundas, 
    como mostrado em problemas como direção autônoma, jogos e robótica; em 
    sistemas multiagentes, a pesquisa de aprendizagem por reforço está 
    enfrentando desafios como cooperação, observabilidade parcial, execução 
    descentralizada, comunicação e dinâmicas complexas. Em tarefas difíceis, 
    modelar o problema completo no ambiente de aprendizagem pode ser muito 
    desafiador para os algoritmos resolverem; podemos simplificar o ambiente 
    para permitir a aprendizagem, contudo, as políticas aprendidas em ambientes 
    simplificados geralmente não são ideais no ambiente completo. Este estudo 
    explora se a aprendizagem profunda por reforço multiagente supera as 
    contrapartes de agente único em um ambiente de futebol de robôs da 
    categoria IEEE Very Small Size Soccer, uma tarefa que apresenta um problema 
    desafiador de cooperação e competição com duas equipes frente a frente, 
    cada uma com três robôs; Investigamos a eficácia de diversos paradigmas de 
    aprendizagem em alcançar o objetivo central de realizar gols, avaliando a 
    cooperação, comparando os resultados de paradigmas multiagentes e de agente 
    único. Os resultados indicam que as simplificações introduzidas no ambiente 
    de aprendizagem para facilitar a aprendizagem podem diminuir a importância 
    da cooperação e introduzir vieses, conduzindo o processo de aprendizagem 
    para políticas conflitantes e desalinhadas com o desafio original.

51
  • RODRIGO VITOR CASTRO ALVES DE MELLO
  • ELODIN: Naming Concepts in Embedding Spaces

  • Leader : GEBER LISBOA RAMALHO
  • MEMBRES DE LA BANQUE :
  • GIORDANO RIBEIRO EULALIO CABRAL
  • GEBER LISBOA RAMALHO
  • ANDRE MENEZES MARQUES DAS NEVES
  • Data: 27 sept. 2023


  • Afficher le Résumé
  • Apesar dos avanços recentes, o campo de geração de imagens a partir de texto ainda sofre de falta de controle refinado. Usando apenas texto, continua sendo um desafio lidar com questões como coerência e contaminação de conceitos. Propomos um método para melhorar o controle, gerando conceitos que podem ser reutilizados em várias imagens e, consequentemente, expandindo a linguagem natural com novas palavras que podem ser combinados como a paleta de um pintor. Ao contrário das contribuições anteriores, nosso método não replica visuais já presentes em dados de entrada. Em alguns casos, pode gerar conceitos visuais genéricos apenas a partir de texto e aplicá-los a diversas imagens. Realizamos um conjunto de experimentos que demonstram a melhoria do nosso método em relação ao uso direto de texto para geração de imagens.

52
  • MARIA RENAY BARBOSA DA SILVA
  • IMUNO-ONTO: Uma DL-Ontology para o Domínio Imunobiológico

  • Leader : FREDERICO LUIZ GONCALVES DE FREITAS
  • MEMBRES DE LA BANQUE :
  • AMADEU SA DE CAMPOS FILHO
  • CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
  • FILIPE SANTANA DA SILVA
  • Data: 28 sept. 2023


  • Afficher le Résumé
  • Um obstáculo inerente ao progresso das ferramentas no contexto da saúde 
    reside na necessidade de manutenção e atualização constante por parte dos 
    profissionais envolvidos. Isso abrange não apenas o aprimoramento técnico, 
    mas também a busca, filtragem, organização e indexação do conhecimento 
    pertinente à área. As vacinas representam uma medida profilática eficaz e 
    fundamental para reduzir a incidência de doenças, podendo, em alguns casos, 
    contribuir para sua erradicação. Conscientes dos desafios de 
    interoperabilidade que afetam os sistemas de saúde, e cientes de que 
    ontologias podem estabelecer uma terminologia comum, idealmente inequívoca, 
    em um domínio específico, apresentamos um estudo voltado para a 
    especificação conceitual no domínio Imunobiológico, denominada IMUNO-ONTO. 
    A metodologia de desenvolvimento adotada baseou-se na utilização da 
    Methontology para conceber um modelo conceitual ontológico sólido. Para a 
    materialização deste modelo, selecionamos as ferramentas OLED ( OntoUML 
    Lightweight Editor), empregada para modelar a ontologia em conformidade com 
    os princípios da ontologia de topo  UFO (Unified Foundational Ontology), e 
    posteriormente o Protegé, utilizado para realizar testes de integridade e 
    estudos de caso, com o intuito de validar e aprimorar a ontologia proposta.

53
  • CAIO BRUNO BEZERRA DE SOUZA
  • Dynamic Resource Allocation for URLLC and eMBB services in NFV-MEC 
    5G Networks

  • Leader : ANDSON MARREIROS BALIEIRO
  • MEMBRES DE LA BANQUE :
  • ANDSON MARREIROS BALIEIRO
  • JAMILSON RAMALHO DANTAS
  • JOSE NEUMAN DE SOUZA
  • Data: 29 sept. 2023


  • Afficher le Résumé
  • A Quinta Geração de redes móveis (5G) busca suportar diversas aplicações 
    categorizadas em três tipos: largura de banda móvel melhorada (eMBB), 
    comunicação do tipo máquina massiva (mMTC) e comunicação com baixa latência 
    e confiabilidade muito alta (URLLC), em que a coexistência delas é um 
    grande desafio. A computação de borda multiacesso (MEC), virtualização de 
    funções de rede (NFV) e o fatiamento de rede (NS) surgem como paradigmas 
    complementares para assistir tanto serviços eMBB quanto URLLC, oferecendo 
    recursos distribuídos sob demanda e de maneira otimizada, mais próximos do 
    equipamento do usuário (UE), com utilização compartilhada da infraestrutura 
    física. Este trabalho explora a integração de MEC, NFV, NS e alocação 
    dinâmica de recursos virtuais para endereçar o problema de dimensionamento 
    na rede de borda. Para isso, utiliza-se um modelo analítico para avaliar 
    como as solicitações são gerenciadas pelos recursos de virtualização em um 
    único nó MEC, com ênfase nos requisitos dos serviços eMBB e URLLC. Um 
    modelo baseado em CTMC foi proposto para caracterizar a alocação dinâmica 
    de recursos virtuais e a derivaçao de cinco métricas de desempenho é 
    realizada, as quais são relevantes não apenas para serviços URLLC e eMBB 
    (e.g., disponibilidade e tempo de resposta), mas também para provedores de 
    serviços (e.g., consumo de energia). Além disso, o modelo integra fatores 
    práticos como falhas nos recursos, priorização de serviços e tempos de 
    configuração e reparo na formulação. Desta forma, o modelo permite 
    compreender como o núcleo da rede 5G se comporta no atendimento a 
    diferentes categorias de serviços, aplicando a priorização de serviços para 
    compartilhar eficientemente os recursos de processamento. Algumas 
    descobertas incluem a ideia de que taxas mais altas de chegada eMBB 
    diminuem a disponibilidade e aumentam os tempos de resposta, enquanto a 
    disponibilidade para URLLC permanece estável. Além disso, as taxas de 
    configuração de contêineres e as taxas de falhas afetam substancialmente a 
    disponibilidade e os tempos de resposta, com taxas de configuração mais 
    altas aumentando a disponibilidade e reduzindo os tempos de resposta. 
    Ademais, o número de contentores surge como um fator significativo, 
    melhorando tanto a disponibilidade como os tempos de resposta, enquanto os 
    tamanhos dos buffers afetam principalmente os tempos de resposta. Em 
    resumo, nosso trabalho avança no estado da arte atual do domínio MEC-NFV, 
    fornecendo insights valiosos para o dimensionamento da arquitetura MEC-NFV, 
    modelos de negócios e mecanismos para lidar com alocação de recursos sob 
    diferentes restrições de comunicação.

54
  • SAULO HENRIQUE DO NASCIMENTO AGUIAR
  • Sensor de pH de Solo com Sistema IoT baseado em Deep Learning com Previsão de Séries Temporais para Agricultura

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • EDNA NATIVIDADE DA SILVA BARROS
  • JOSÉ ROMUALDO DE SOUSA LIMA
  • STEFAN MICHAEL BLAWID
  • Data: 29 sept. 2023


  • Afficher le Résumé
  • A agricultura 4.0, que combina Internet das Coisas (IoT) e Inteligência 
    Artificial (IA), está revolucionando a agricultura de precisão. Este 
    trabalho aborda a união de soluções tecnológicas de novos sensores, IA, IoT 
    e Edge Computing para entregar uma solução inovadora. Foi desenvolvido um 
    sensor de pH de solo preciso e robusto, também um modelo de deep learning 
    para previsão de séries temporais operando na borda do sistema IoT. O 
    sensor apresentou desempenho bom e com baixo percentual de erro em relação 
    a sensores comerciais e medidores de pH do Método Embrapa. Para aproveitar 
    a riqueza de dados gerados pelo sensor de pH, foi implementada uma 
    arquitetura redes neurais LSTM para previsão de séries temporais.
    O modelo LSTM integrado ao sistema de edge computing demonstrou precisão 
    nas previsões de pH ao longo de dias e semanas. Essa dissertação fornece 
    uma solução para agricultura 4.0, a fim de maximizar a produtividade das 
    culturas.

55
  • LIDIA PERSIDE GOMES NASCIMENTO
  • Aprendizagem de Máquina na Engenharia de Software: Uma Abordagem 
    Técnica para Análise de Defeitos Escapados

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE CABRAL MOTA
  • REGINA ROSA PARENTE
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 3 oct. 2023


  • Afficher le Résumé
  • A realização do Testes de Software (TS) é de extrema importância no que diz 
    respeito a garantir a qualidade adequada de um software que esteja em 
    desenvolvimento. Esse processo, quando bem realizado, tem uma série de 
    vantagens como uma boa reputação da empresa de software por parte dos 
    usuários finais e a economia de custos com reparos em defeitos. Quando um 
    defeito é encontrado, normalmente é aberto um relatório de falhas que 
    poderá levar a uma correção no software por parte de desenvolvedores.   
    Nessa dissertação, relatórios de falhas recebem a nomenclatura de Change 
    Requests (CRs), contendo informações que descrevem o problema encontrado no 
    software desde a abertura da CR até a solução da mesma. Grandes empresas, 
    de maneira geral, costumam ter um grande número de CRs abertas semanalmente 
    e que devem passar pela equipe de testes e/ou desenvolvimento para que 
    possam ser inspecionadas e corrigidas de maneira adequada. Este trabalho 
    tem como foco a utilização de técnicas de Aprendizado de Máquina (AM) para 
    automatizar uma tarefa relevante da triagem de CRs, o processo de Escaped 
    Defect Analysis (EDA), no contexto de uma aplicação real da indústria. 
    Nessa aplicação, Defeitos Escapados (DE) são bugs ou problemas que deveriam 
    ter sido detectados por uma equipe de teste específica, mas que, por alguma 
    razão, foram acidentalmente encontradas por uma outra equipe. A ocorrência 
    das DEs é considerada arriscada, tendo em vista que costumam estar 
    relacionadas a falhas nas atividades de testes. O EDA geralmente é 
    realizado de forma manual pela equipe de engenheiros de software, que 
    precisam ler todo o conteúdo textual contido em cada CR para identificar se 
    é um DE ou não, o que passa a ser desafiador e demorado. Na solução aqui 
    abordada, o conteúdo de cada CR é pré-processada por operações textuais e 
    são representadas em forma de atributos para que um classificador de AM 
    venha a retornar a probabilidade dos rótulos de EDA. Os experimentos 
    realizados nesta pesquisa contou com um conjunto de dados de 3767 CRs, que 
    foram fornecidos pela empresa parceira (Motorola Mobility Comércio de 
    Produtos Eletrônicos Ltda). Diferentes tipos de algoritmos de AM foram 
    aplicados para a contrução de classificadores, onde alto valores de AUC 
    puderam ser alcançados (costumeiramente maiores que 0,8), nos experimentos 
    realizados com validação cruzada. Além disso, os experimentos indicam um 
    bom compromisso entre o número de EDs corretamente identificados e o número 
    de CRs que devem ser inspecionados na EDA.

56
  • DIOGO EWERTON CORDEIRO DOS SANTOS
  • O impacto da LGPD em organizações públicas e privadas que atuam no Brasil

  • Leader : JESSYKA FLAVYANNE FERREIRA VILELA
  • MEMBRES DE LA BANQUE :
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • EDNA DIAS CANEDO
  • Data: 16 oct. 2023


  • Afficher le Résumé
  • Contexto: A Lei Geral de Proteção de Dados Pessoais (LGPD) foi criada com o 
    intuito de proteger os dados pessoais, inclusive nos meios digitais, 
    processado por pessoa natural ou por pessoa jurídica de direito público ou 
    privado. Entrando em vigor no ano de 2020, a LGPD trouxe consigo uma nova 
    perspectiva: as organizações que coletam e processam dados pessoais de 
    cidadãos brasileiros deveriam se adequar aos termos descritos na lei, para 
    isso elas devem implementar várias medidas para garantir que seus sistemas 
    de software e processos estejam em conformidade com o texto da LGPD. No 
    entanto, a LGPD, assim como outras legislações, pode ser de difícil 
    entendimento e adequação por parte das organizações e seus colaboradores, 
    principalmente no que diz a respeito dos processos e tecnologias a serem 
    adotadas. Objetivo: identificar, contextualizar e analisar os principais 
    aspectos envolvidos nos processos de adequação à LGPD por parte das 
    organizações públicas e privadas que atuam no Brasil, levando em 
    consideração a atuação e percepção dos seus colaboradores. Método: Este 
    estudo buscou investigar quais são os desafios encontrados, os conceitos e 
    práticas aplicadas e as tecnologias adotadas pelas organizações durante 
    seus processos de adequação à LGPD. Foi realizada, então, uma pesquisa de 
    abordagem empírica, inicialmente, através de um levantamento bibliográfico, 
    com o intuito de coletar as informações fundamentais para o entendimento e 
    caracterização do problema de pesquisa. Posteriormente, devido a natureza 
    do estudo, decidiu-se pela realização de uma pesquisa exploratória, sendo 
    realizado um survey, coletando dados de diversos profissionais e uma série 
    de entrevistas semi-estruturadas com profissionais diretamente envolvidos 
    nos processos de adequação. Após as coletas e tratamento, foi realizada uma 
    extensa análise sobre os dados obtidos, sendo possível identificar os 
    diversos fatores que caracterizam quais são os impactos que as organizações 
    experimentaram ao se submeterem ao processo de adequação à LGPD. 
    Resultados: Deste modo, a realização desta pesquisa e seus respectivos 
    resultados contribuem para um maior entendimento sobre os impactos causados 
    pela Lei Geral de Proteção de Dados Pessoais (LGPD) nos ecossistemas de 
    organizações sejam públicas ou privadas que atuem no Brasil. As reflexões 
    levantadas por ela podem fortalecer o conhecimento sobre a proteção de 
    dados e privacidade e no futuro contribuir na criação e aplicação de 
    estratégias para enfrentar desafios da implementação de conceitos de 
    proteção e privacidade definidos em legislações.

57
  • JOSÉ GUILHERME BISPO DE ALBUQUERQUE LIMA
  • INTELIGÊNCIA ARTIFICIAL APLICADA À DESCOBERTA INTELIGENTE DE 
    MATERIAIS NANOFOTÔNICOS

  • Leader : ADIEL TEIXEIRA DE ALMEIDA FILHO
  • MEMBRES DE LA BANQUE :
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • ISABEL CRISTINA DOS SANTOS CARVALHO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 23 oct. 2023


  • Afficher le Résumé
  • A otimização de nanobastões de ouro ainda enfrenta desafios, especialmente 
    devido à complexidade do processo, que envolve múltiplos objetivos, como 
    eficiência, custo e escalabilidade do processo de fabricação. Os Algoritmos 
    Genéticos (AG) são capazes de produzir soluções de qualidade para problemas 
    complexos em um tempo computacional viável, e são particularmente adequados 
    para otimizar materiais nanofotônicos, pois podem explorar espaços de 
    soluções amplos e otimizar múltiplos objetivos simultaneamente, o que é 
    fundamental devido à interdependência das propriedades ópticas e 
    geométricas do material em tais aplicações. Neste trabalho foram obtidas 
    configurações de nanobastões de ouro através da implementação de um 
    algoritmo genético multiobjetivo (AGM). Os cálculos tiveram como base o 
    artigo  "Dynamic Plasmonic Pixels", com o propósito de encontrar um espaço 
    de soluções que melhoram o desempenho das curvas de extinção para o modo 
    não alinhado dos nanobastões. O trabalho iniciou com uma revisão 
    sistemática das aplicações da Inteligência Artificial (IA), como 
    Aprendizado Profundo e AG, no aprimoramento e desenvolvimento de materiais 
    nanofotônicos. O software de elementos finitos, Comsol Multiphysics, também 
    foi utilizado para simulação das configurações. Embora tenha sido 
    necessário operar em regime restrito de intervalos de valores dos 
    parâmetros e funções objetivo, a aplicação do AGM se mostrou promissora, 
    encontrando configurações de curvas de extinção melhoradas, e em grande 
    escala, em que testes estatísticos de hipóteses foram utilizados para 
    validação dos resultados.

58
  • FAGNER FERNANDES CANDIDO DA SILVA
  • FAROL: A Lightweight Framework for Decision-Making in Software 
    Architecture

  • Leader : VINICIUS CARDOSO GARCIA
  • MEMBRES DE LA BANQUE :
  • KIEV SANTOS DA GAMA
  • LINCOLN SOUZA ROCHA
  • VINICIUS CARDOSO GARCIA
  • Data: 31 oct. 2023


  • Afficher le Résumé
  • A tomada de decisão arquitetural de software é uma questão desafiadora. 
    Várias preocupações precisam ser abordadas, e há uma escassez de frameworks 
    de tomada de decisão para auxiliar os especialistas na seleção de uma 
    arquitetura adequada. Um framework de decisão arquitetural leve (FAROL) é 
    proposto neste trabalho para preencher esta lacuna de conhecimento. A 
    motivação e o problema de pesquisa destacam a complexidade desse tipo de 
    decisão, o impacto da falta de processos estruturados e a necessidade de 
    lógica de decisão. As perguntas de pesquisa desse trabalho abordam essas 
    questões e examinam o raciocínio dos praticantes sobre decisões, fatores de 
    influência, práticas de documentação e princípios considerados. A revisão 
    de literatura analisa conceitos de arquitetura de software e sua relação 
    com a tomada de decisão. Ele diferencia arquitetura e design, explica 
    estilos e padrões e cobre teorias de cognição dual. Técnicas de decisão e 
    métodos de documentação, como registros de decisões arquitetônicas, são 
    explorados. Nove princípios para o raciocínio de decisão são descritos. A 
    metodologia pesquisa especialistas brasileiros em TI para obter insights 
    sobre as práticas de decisão atuais. As perguntas abordam a confiança no 
    processo, documentação, desafios, princípios, fatores que influenciam à 
    tomada de decisão. Ameaças à validade são analisadas. A comparação com as 
    estruturas existentes destacam a possibilidade de personalização no uso do 
    framework. Estudos de caso demonstram a aplicação do FAROL para selecionar 
    arquiteturas. As limitações incluem a necessidade de mais avaliações 
    empíricas em contextos e a dependência da experiência do profissional. No 
    entanto, FAROL fornece uma metodologia abrangente para promover decisões 
    informadas e melhoria contínua. Por fim, o FAROL visa trazer rigor 
    sistemático ao processo ambíguo de escolha arquitetônica. Ele oferece 
    orientação prática ancorada em teorias multidisciplinares e adaptada para 
    projetos do mundo real. Ao elucidar o complexo cenário de decisões, o FAROL 
    permite que as equipes naveguem pelos tradeoffs arquiteturais.

59
  • EDUARDO JOSE DE VASCONCELOS MATOS
  • DRLTC Classifier: Classificação de casos de teste para automação de testes de dispositivos móveis

  • Leader : FLAVIA DE ALMEIDA BARROS
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE CABRAL MOTA
  • FLAVIA DE ALMEIDA BARROS
  • LUCAS ALBERTINS DE LIMA
  • Data: 14 nov. 2023


  • Afficher le Résumé
  • Buscando garantir a qualidade de produtos de software, são realizadas diversas atividades de teste. Contudo, esta é uma tarefa cara e complexa, responsável por aproximadamente 50% do custo de desenvolvimento de um software. À automação de testes surge como uma solução para diminuir o custo e aumentar a eficiência dos processos de teste. Um dos primeiros estágios do processo de automatização de Casos de Testes (CTs) é a identificação da viabilidade dessa automação. Atualmente, essa é uma problemática real da nossa empresa parceira, no ramo de dispositivos móveis, que mantém uma equipe responsável por criar os scripts executáveis para os CTs automatizáveis. A classificação é realizada manualmente por especialistas com conhecimento sobre as funcionalidades dos dispositivos (i.e., que funcionalidades podem ou não ser testadas automaticamente), e sobre o ambiente de desenvolvimento de CTs automáticos. No entanto, especialistas são profissionais “caros”, cujo tempo livre é escasso e o conhecimento adquirido é muito valioso. Nesse contexto, este trabalho teve por objetivo auxiliar no processo de automação de teste, criando um sistema para classificação automática de CTs entre automatizáveis ou não. Além de otimizar essa tarefa, este trabalho também contribuiu para registrar o conhecimento do especialista, que pode ser perdido se o colaborador sair da empresa. O protótipo implementado utiliza conceitos da Classificação de Texto e da Engenharia do Conhecimento baseada em regras e inferência (através da ferramenta Drools). A avaliação do protótipo apresentou resultados muito satisfatórios de valores de acurácia, precisão, sensibilidade e F1 Score, de 84.1%, 80.2%, 90.6% e 85.08%, respectivamente. Além disso, observamos que a classificação realizada de um conjunto de teste com 662 CTs levou apenas alguns minutos, enquanto que a mesma tarefa levaria dias ou semanas para ser realizada manualmente.

60
  • MARIA RAQUEL LOPES DE COUTO
  • On the challenges and Solutions of Training Localization and 
    Internationalization Testers in the Context of Manual Testing

  • Leader : BRENO ALEXANDRO FERREIRA DE MIRANDA
  • MEMBRES DE LA BANQUE :
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • KIEV SANTOS DA GAMA
  • RONNIE EDSON DE SOUZA SANTOS
  • Data: 17 nov. 2023


  • Afficher le Résumé
  • Testes de internacionalização (i18n) e localização (L10n) são necessários para garantir a qual-idade de um software que suporta mais de um idioma e tem como objetivo ser lançado no mercado global. Neste trabalho, objetivou-se compreender o estado da arte e prática dos testes de i18n/L10n. Para atingir tal objetivo, conduziu-se um Mapeamento Sistemático (MS) para responder às seguintes questões de pesquisa: “Quais os principais desafios enfrentados pelos testadores de L10n and i18n testing?”, “Quais as estratégias de teste mais comumente us-adas?”, “Qual é o suporte atual de ferramentas para L10n and i18n testing?” e finalmente,“Existem diferenças nas técnicas de L10n and i18n testing dependendo do contexto em que elas são aplicadas?”. Os estudos primários relataram que os principais desafios enfrentados pelos testadores de i18n/L10n são: a falta de pesquisas científicas sobre o tema, o alto trabalho manual, o suporte de automação muito limitado, o custo de corrigir falhas de internacionalização e testar idiomas Righ-to-Left (RTL). A estratégia de teste comumente aplicada é o teste em nível de sistema, visto que esse tipo de teste é normalmente realizado nos estágios finais de desenvolvimento. Com relação ao suporte atual de ferramentas para esta prática, apenas quatro ferramentas foram relatadas nos estudos primários como específicas para o contexto de testes de i18n/L10n. Por fim, o contexto (mobile, web ou sistema) está diretamente ligado à técnica de teste aplicada devido às nuances e desafios únicos de cada contexto. O desafio da falta de materiais e ferramentas foi considerado crítico, pois impacta diretamente no treinamento de novos testadores. Motivados por este problema, desenvolveu-se uma abordagem que envolveu a criação da L10N-TRAINER, uma ferramenta que simula falhas de i18n/L10n em aplicações móveis para replicar os problemas de L10n and i18n testing. Para avaliar a eficácia da L10N-TRAINER, conduziu-se um experimento em um ambiente industrial real. O experimento empírico demonstrou que o uso da ferramenta melhorou o desempenho do grupo de participantes apresentados ao teste pela primeira vez com um aplicativo alterado pela ferramenta. O grupo que inicialmente iniciou a prática utilizando a metodologia tradicional empregada pela empresa apresentou estabilidade ou queda em seus resultados, enquanto o grupo que foi treinado inicialmente com o aplicativo de treinamento melhorou sua performance, aumentando de 2 para 5 bugs encontrados.

61
  • LEANDRO COSTA DA SILVA
  • COSTA - Uma Solução Adaptativa Ciente de Custo para Migração de 
    Aplicações entre Provedores de Nuvem

  • Leader : NELSON SOUTO ROSA
  • MEMBRES DE LA BANQUE :
  • CARLOS ANDRE GUIMARAES FERRAZ
  • NELSON SOUTO ROSA
  • ERICA TEIXEIRA GOMES DE SOUSA
  • Data: 24 nov. 2023


  • Afficher le Résumé
  • A computação em nuvem mudou a forma como a TI funciona para a maioria das 
    empresas que anteriormente utilizavam modelos baseados em compras de 
    hardware e agora têm uma perspectiva de contrato de serviços especializados.
    A computação em nuvem tem permitido a implantação de aplicações com 
    escalabilidade, flexibilidade, avanço tecnológico, maior segurança e alta 
    disponibilidade.
    Aplicações escaláveis tem a capacidade de lidar com mudanças nas cargas de 
    trabalho e demanda de usuários, dimensionando automaticamente seus recursos 
    computacionais.
    No entanto, fornecedores de nuvem não adotam uma padronização no 
    desenvolvimento de seus produtos, dificultando a construção de soluções que 
    fazem uso da migração de aplicações entre nuvens.
    Este trabalho apresenta uma solução que monitora despesas e extrai métricas 
    de aplicações em nuvem, gerenciando a migração de aplicações entre 
    múltiplas nuvens, levando em consideração o orçamento e os custos de 
    execução, denominada COST management of Adaptive systems (COSTA).
    COSTA realiza estimativas de custos das aplicações gerenciadas por ela, 
    ajudando os usuários na fase inicial do planejamento e no processo de 
    implantação das aplicações em nuvem.
    COSTA utiliza informações de custo para migrar aplicações baseadas em 
    microsserviços entre diferentes provedores de nuvem.
    Para avaliar COSTA, foram conduzidos experimentos onde cenários de migração 
    entre provedores de nuvem levassem à redução dos custos.
    Como resultado, COSTA reduziu os custos financeiros efetivamente das 
    aplicações por meio de migrações entre provedores de nuvem, tirando 
    proveito da diversificação existente dos esquemas de precificação dos 
    provedores de nuvem.

62
  • FILIPE MESEL LOBO COSTA CARDOSO
  • Monitoramento de Voláteis de Plantas Utilizando Sensores de 
    Qualidade do Ar

  • Leader : STEFAN MICHAEL BLAWID
  • MEMBRES DE LA BANQUE :
  • RENATO MARIZ DE MORAES
  • STEFAN MICHAEL BLAWID
  • VITOR DE ANDRADE COUTINHO
  • Data: 18 déc. 2023


  • Afficher le Résumé
  • A crescente ocorrência de doenças e pragas em lavouras é atualmente um tema 
    de grande discussão no país. Esta questão é frequentemente retratada tanto 
    na mídia local quanto internacional. Diante desse cenário, surge uma 
    pergunta pertinente: Como podemos detectar os primeiros sinais de vírus, 
    fungos e/ou bactérias prejudiciais às plantas utilizando tecnologia e 
    informação? Uma das abordagens-chave para lidar com essa questão envolve a 
    utilização de dispositivos tecnológicos que se comunicam por meio de redes 
    de Internet das Coisas (IoT). Essas redes são compostas por objetos 
    ``físicos'' conectados à internet, capazes de trocar dados e informações 
    entre si. Diante disso, este documento tem como objetivo apresentar os 
    resultados obtidos no desenvolvimento de uma rede de transdutores IoT. Essa 
    rede é composta por microcontroladores WiFi, como o ESP 8266 e ESP 32, 
    juntamente com sensores de qualidade do ar de baixo custo. Esses sensores 
    se comunicam por meio do protocolo mesh para detectar a presença e 
    localização de partículas e gases no ar. A detecção é baseada na medição 
    dos níveis de partículas de dióxido de carbono (CO2) e no aumento de 
    Compostos Orgânicos Voláteis (VOC). Esses indicadores podem ser 
    interpretados como sinais de potenciais problemas que afetam a saúde das 
    plantas.

63
  • WILTON PEREIRA SANTOS SANTANA
  • Improving Full-Duplex MAC Protocols for Wireless Ad Hoc Networks 
    with Many-to-Many Multiuser Communication

  • Leader : RENATO MARIZ DE MORAES
  • MEMBRES DE LA BANQUE :
  • KELVIN LOPES DIAS
  • MARCELO MENEZES DE CARVALHO
  • RENATO MARIZ DE MORAES
  • Data: 21 déc. 2023


  • Afficher le Résumé
  • A comodidade proporcionada pela comunicação sem fio tornou esta tecnologia cada vez mais prevalente em nossa sociedade moderna nas últimas décadas e, com isso, a necessidade de melhorias constantes. Os rádios full-duplex podem aprimorar as redes sem fio, ou seja, a capacidade de receber informações enquanto transmite dados na mesma largura de banda de frequência, tecnologia que vem crescendo principalmente devido aos seus benefícios. A perspectiva de alcançar o dobro da taxa de transferência e uma utilização mais eficiente da largura de banda podem ser os benefícios previstos devido aos requisitos das aplicações que frequentemente exigem transferência de dados com mais eficiência. Antes que o full-duplex sem fio fosse viável, uma forma de melhorar esses aspectos era empregar técnicas multiusuários de comunicação. Em relação à abordagem multiusuários, o Many-to-Many MAC (M2MMAC), um protocolo de controle de acesso ao meio (MAC), aumentou significativamente o desempenho da vazão da rede. O presente trabalho explora os desafios e oportunidades nos aspectos principais da subcamada MAC ao empregar tecnologia full-duplex. Pensando nisso, este trabalho revisa o estado da arte dos protocolos MAC full-duplex, e também propõe dois novos protocolos, o FD-M2MMAC (Full-Duplex Many-to-Many MAC) e sua versão melhorada, o EFD-M2MMAC (Enhanced Full-Duplex Many-to-Many MAC), que combinam tecnologia full-duplex com técnicas multiusuários. Os resultados obtidos mostram que a aplicação das abordagens M2MMAC full-duplex promove significativa melhoria no desempenho em termos de vazão em cada nó da rede.

Thèses
1
  • JEFFERSON FERREIRA BARBOSA
  • A Model for Dealing with Epistemic Uncertainties in Agile Software 
    Project Management

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • SIMONE CRISTIANE DOS SANTOS LIMA
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • IVALDIR HONORIO DE FARIAS JUNIOR
  • MARCOS FELIPE FALCAO SOBRAL
  • SHEILA DOS SANTOS REINEHR
  • Data: 3 févr. 2023


  • Afficher le Résumé
  • Desde que os métodos ágeis começaram a ser utilizados para o desenvolvimento de software, os gerentes de projeto têm buscado maneiras de melhorar esses projetos. A agilidade convive com a incerteza, pois um dos princípios do projeto ágil é a possibilidade de mudanças rápidas. Um dos principais desafios para os gerentes de projetos é que eles precisam tomar decisões sobre o futuro ao planejar seus projetos. No entanto, essas decisões são feitas no tempo presente, tornando-as inerentemente incertas. Além disso, a evolução do pensamento em gerenciamento de projetos aumentou o interesse em áreas ainda não exploradas por pesquisadores e profissionais de gerenciamento de projetos, incluindo interesse em áreas como complexidade e incerteza. A incerteza epistêmica está associada à falta de informações sobre determinadas fases do projeto. Muito característico de projetos que adotam metodologias ágeis. Assim, aplicar o gerenciamento da incerteza epistêmica em projetos de software pode representar uma vantagem competitiva para o desenvolvimento ágil de software. Além disso, a quantificação das incertezas permite comparações entre projetos. Essa quantificação é essencial para fins comparativos e avaliação de abordagens alternativas para problemas do mundo real na gestão da incerteza epistêmica. No entanto, apesar do uso crescente de abordagens de gerenciamento de incerteza, muitos projetos ainda falham. Alguns estudos recentes mostram que as abordagens atuais para gerenciar a incerteza organizam as informações conhecidas do projeto, mas dão pouca ou nenhuma indicação das informações desconhecidas ou incertezas associadas ao projeto. Essas abordagens de gerenciamento de incerteza não consideram o aspecto quantitativo do gerenciamento de incerteza além das inter-relações entre fontes de incerteza em projetos de software. O método utilizado nesta tese foi a pesquisa-ação, conduzida para investigar a quantificação da incerteza epistêmica em um contexto real de projeto de engenharia de software. O autor realizou uma revisão quasi-Sistemática da literatura para apoiar a pesquisa-ação na busca de abordagens para quantificar a incerteza epistêmica em projetos de software. A aplicação do método ilustra o benefício de aplicar abordagens de quantificação de incertezas para reduzir e priorizar incertezas epistêmicas em projetos de software. A aplicação dos métodos de pesquisa acima resultou na construção de um modelo para quantificar a incerteza epistêmica em projetos de software. Esta tese também discute o impacto do modelo proposto para lidar com a gestão da incerteza epistêmica. Esses resultados compartilham descobertas que podem ajudar as equipes de software ágil a melhorar o tratamento da incerteza.

2
  • PAULO HENRIQUE PADOVAN
  • MAIA - Metamodelo de accountability  para Inteligência Artificial

  • Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • MEMBRES DE LA BANQUE :
  • FREDERICO LUIZ GONCALVES DE FREITAS
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • MARIA AMALIA OLIVEIRA DE ARRUDA CAMARA
  • SERGIO TORRES TEIXEIRA FILHO
  • VIRGILIO AUGUSTO FERNANDES ALMEIDA
  • Data: 8 févr. 2023


  • Afficher le Résumé
  • A inteligência artificial (IA) pode levar a um comportamento imprevisível, 
    causan-do preconceito, desconfiança, perdas ou danos aos indivíduos. 
    Questões comple-xas devem ser dirimidas para estabelecer como determinar 
    accountability. Até recentemente, entender o funcionamento das “caixas 
    pretas” era extremamente difícil; no entanto, o uso de Inteligência 
    Artificial Explicável (XAI) ajuda a aclarar os problemas complexos que 
    podem incorrer a IA. Neste contexto, esta tese pro-cura analisar, 
    caracterizar e conformar accountability no âmbito da moral e da IA e 
    fornecer um cânone que ajude as várias partes interessadas a lidar com as 
    questões de responsabilidade algorítmica. Para definir accountability, 
    apresenta-mos, caracterizamos e diferenciamos os diversos matizes de 
    responsabilidade no contexto normativo atual, apresentando os dois 
    pressupostos relacionados à ac-countability moral: exigibilidade e 
    responsividade. Por fim, fornecemos uma aná-lise sobre como a estrutura 
    contábil existente, com o suporte de XAI e dados re-gistrados, pode abordar 
    questões relacionadas à responsabilidade algorítmica da IA.

3
  • DYEGO CARLOS SALES DE MORAIS
  • Abordagem de Desenvolvimento Participativo de Tecnologias Digitais na Educação do Campo

  • Leader : PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • MEMBRES DE LA BANQUE :
  • FREDERICK MARINUS CONSTANT VAN AMSTEL
  • ANDREA ALICE DA CUNHA FARIA
  • ECIVALDO DE SOUZA MATOS
  • SIMONE CRISTIANE DOS SANTOS LIMA
  • WALQUIRIA CASTELO BRANCO LINS
  • Data: 17 févr. 2023


  • Afficher le Résumé
  • Apesar de desafios de infra-estrutura, crianças e adolescentes campesinos já
    utilizam tecnologias digitais. Ainda assim, o modelo centralizador de poder em que se
    produzem tais tecnologias distancia os pólos uso-produção, pois os processos decisórios
    desse modelo são acessados apenas por especialistas. Visando democratizar
    não apenas o uso, mas também a produção de tecnologias digitais, a Base Nacional
    Comum Curricular de 2017 já prevê a competência da construção crítica, significativa,
    reflexiva e ética de tais tecnologias. Dessa forma, fica evidente uma necessidade de
    desenvolvimento de tecnologias digitais por estudantes da educação básica, incluindo
    os de escolas do campo, para que sejam capazes de produzir conhecimentos, resolver
    problemas e exercer protagonismo e autoria na vida pessoal e coletiva. Atrelada a
    isso, há também a necessidade de construção de materiais didáticos para Educação
    do Campo, que entrelacem saberes de pura experiência feitos e saberes científicos,
    pensados e produzidos por quem vivencia o campesinato. Visando atender a essas
    demandas, almeja-se, através deste trabalho, investigar como fomentar a participação
    de estudantes da educação básica no processo decisório de desenvolvimento de recursos
    educacionais digitais para/na/da Educação do Campo. Para isto, metodologias que
    incluem o usuário no processo de design e desenvolvimento de tecnologias digitais
    emergem como forma de possibilitar a vivência de experiências democráticas. No
    entanto, há de se ter cuidado para não reproduzir o modelo centralizador, apenas
    manipulando ou extraindo informações de usuários. Mas, pelo contrário, construindo
    arranjos que fomentem a participação genuína, isto é, com equidade de poder decisório
    entre todas as pessoas participantes da concepção de artefatos digitais. Para
    investigar a participação nesses processos no contexto campesino, foram realizados
    dois ciclos de pesquisa-ação em escolas do campo. Durante os ciclos, os educandos
    desenvolveram jogos digitais e aplicativos com temáticas relacionadas à agroecologia.
    Coletas de dados foram realizadas a partir de observação participante e entrevistas.
    Os dados, que ainda serão analisados minuciosamente, estão organizados em formas
    de diários de campo, áudios tanto da prática dos educandos, quanto de pré-análises
    feitas por pesquisadores participantes, além de vídeos e fotos dos encontros nas escolas.
    Resultados parciais construídos a partir das primeiras interpretações dos dados
    incluem contextos de intervenções, processos executados e artefatos gerados. A partir
    de análise interacional, pretende-se construir diretrizes para fomentar a participação de
    educandos nos processos decisórios de desenvolvimento de recursos educacionais
    digitais para/na/da Educação do Campo.

4
  • BIANCA HELENA XIMENES DE MELO E MENEZES
  • DEVELOPING ETHICAL MACHINE LEARNING APPLICATIONS

  • Leader : GEBER LISBOA RAMALHO
  • MEMBRES DE LA BANQUE :
  • SILVIO ROMERO DE LEMOS MEIRA
  • GIORDANO RIBEIRO EULALIO CABRAL
  • JEAN-GABRIEL GANASCIA
  • MARIA AMALIA OLIVEIRA DE ARRUDA CAMARA
  • VIRGILIO AUGUSTO FERNANDES ALMEIDA
  • Data: 23 févr. 2023


  • Afficher le Résumé
  • A rápida adoção das tecnologias de Machine Learning (ML) na vida diária e nas atividades humanas tem feito surgir diversos dilemas e questões éticas sobre seu uso. Uma forma de minimizar possíveis danos à sociedade é fornecer orientação aos desenvolvedores de ML, que podem passar a construir sistemas que sejam éticos por design. Infelizmente, os desenvolvedores não têm formação ética adequada nos cursos regulares de graduação, e os documentos existentes acerca do tema, apesar de abundantes, são vagos e focados em governos e corporações e não em desenvolvedores individuais. 

    Para suprir essa necessidade, esta pesquisa foi centrada nos desafios e necessidades dos desenvolvedores e propõe 18 diretrizes concretas e 24 boas práticas recomendadas para ajudar os desenvolvedores a tomar decisões diárias em seus projetos de ML. Essas recomendações foram formuladas em um grupo focal e validadas quantitativamente em uma pesquisa com mais de 130 desenvolvedores de ML trabalhando na indústria e na academia, com diferentes tipos de dados e tempo de experiência. 

    Esta pesquisa também investigou o estado de adoção de tais recomendações e compara o que os desenvolvedores acham que devem fazer para obter resultados mais éticos versus o que realmente fazem, e como podemos avançar o estado da arte de Machine Learning sem prejudicar os seres humanos.

5
  • JOHNY MOREIRA DA SILVA
  • Augmenting Product Knowledge Graphs with Subjective Information

  • Leader : LUCIANO DE ANDRADE BARBOSA
  • MEMBRES DE LA BANQUE :
  • ALTIGRAN SOARES DA SILVA
  • JOSÉ MARIA DA SILVA MONTEIRO FILHO
  • LEANDRO BALBY MARINHO
  • CLEBER ZANCHETTIN
  • FERNANDO MACIANO DE PAULA NETO
  • Data: 2 mars 2023


  • Afficher le Résumé
  • Grafos de Produto, do inglês Product Graphs (PGs), são grafos de 
    conhecimento com dados sobre produtos de consumo. Atualmente, essas 
    estruturas têm se tornado populares devido ao potencial de facilitar 
    tarefas de Inteligência Artificial no comércio eletrônico. Os Grafos de 
    Produto armazenam dados factuais sobre produtos (ex: smartphones)  e suas 
    características (ex: marca, dimensões, e processador) coletados de diversas 
    fontes. O enriquecimento dessas estruturas com informações dinâmicas e 
    subjetivas, como opiniões de usuários, é essencial para a melhoria das 
    tarefas de recomendação, busca, comparação e precificação. No entanto, esta 
    é uma nova tarefa e os trabalhos existentes são baseados em abordagens 
    supervisionadas. Neste trabalho de tese nós abordamos essa tarefa por meio 
    de duas etapas complementares: (1) Nós desenvolvemos uma abordagem 
    semi-supervisionada chamada Product Graph enriched with Opinions (PGOpi) 
    para enriquecimento de Grafos de Produto com opiniões extraídas de 
    avaliações de clientes. Para isso, exploramos um método tradicional de 
    mineração de opinião, uma técnica de Supervisão Distante baseada em 
    representação de palavras com o objetivo de mitigar a dependência na 
    rotulagem manual de dados de treino, e utilizamos Aprendizagem Profunda 
    para mapear as opiniões extraídas até os nós do Grafo de Produto; (2) Nós 
    construímos um gerador de triplas opinativas chamado SYNthetiC OPinionAted 
    TriplEs (SYNCOPATE). Esse gerador pode substituir métodos tradicionais para 
    extração pareada de aspectos e opiniões em avaliações de produtos. Para a 
    construção do mesmo foi realizado In-Context Learning em um Modelo de 
    Linguagem pré-treinado e adaptado. Por último, foi feito o 
    pós-processamento do texto gerado, para limpeza e rotulagem automática das 
    triplas opinativas. Nós efetuamos a avaliação experimental das duas etapas. 
    O PGOpi foi avaliado em cinco categorias de produtos de dois conjuntos de 
    dados obtidos de plataformas de comércio eletrônico. O PGOpi alcançou 
    valores de micro F1-score superiores a modelos semi-supervisionados mais 
    complexos, e também apresentou performance comparável a um modelo de 
    estado-da-arte totalmente supervisionado. O SYNCOPATE foi avaliado 
    aumentando bases de treino de benchmarking com as triplas opinativas 
    geradas sinteticamente. Variações dessas bases de dados rotuladas 
    manualmente, geradas sinteticamente e aumentadas foram utilizadas para 
    treino de quatro modelos de estado-da-arte de extração pareada de aspectos 
    e opiniões. Os resultados obtidos dessa experimentação mostraram que os 
    modelos treinados com dados sintéticos apresentaram performance superior 
    àqueles treinados em uma pequena porcentagem de dados rotulados e curados 
    por humanos. Além disso, três avaliadores humanos realizaram uma inspeção 
    manual que atestou a qualidade das triplas geradas sinteticamente.

6
  • PATRICIA CRISTINA MOSER
  • Proposta de uma Estratégia para o Uso de Modelos de Maturidade em Equipes Ágeis de Desenvolvimento de Software: Diretrizes para o Desenvolvimento dos Fatores Humanos

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • ALBERTO CESAR CAVALCANTI FRANCA
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • EDSON LUIZ RICCIO
  • SHEILA DOS SANTOS REINEHR
  • Data: 10 mars 2023


  • Afficher le Résumé
  • A globalização e a complexidade do mundo moderno impõem grandes desafios aos projetos
    em um contexto geral, levando as organizações a buscarem novas formas de atuação. A
    indústria de software visa prazos mais curtos para obter uma vantagem inicial e atender às
    necessidades atuais do cliente, exigindo uma flexibilidade maior das empresas. Com isso, mais
    e mais empresas começaram a adotar métodos ágeis e incrementais. Os estudos de equipes
    ágeis maduras sugerem que é necessário ter foco em fatores humanos e sociais para ter
    sucesso, sendo impossível excluir tais fatores durante o desenvolvimento de software. Em
    paralelo, o aumento da exigência por qualidade em produtos de software fez com que os
    desenvolvedores seguissem alguns modelos, uma vez que as metodologias tradicionais para
    gerenciamento de projetos já não atendem plenamente às necessidades gerenciais. Dentro
    desse contexto, surgiram diversos padrões, frameworks, normas e regulamentos para a
    implementação de modelos de maturidade para gestão de projetos e, mais especificamente,
    para gestão das pessoas em empresas de desenvolvimento de software, e são voltados para
    melhorar a capacidade das organizações de atrair, treinar, motivar, organizar e reter seus
    recursos humanos. Porém, esses modelos estão alinhados aos modelos tradicionais de
    desenvolvimento de software. Então, a complexidade dos modelos tradicionais mais utilizados
    atualmente abre uma oportunidade para que os processos de implantação de tais padrões
    sejam adequados às necessidades específicas de cada organização. Diante do exposto, o
    presente trabalho propõe, utilizando os arcabouços existentes e o pensamento de agilidade,
    uma estratégia para o uso de modelos de maturidade para o desenvolvimento de fatores
    humanos em equipes ágeis de desenvolvimento de software. A execução da pesquisa está
    sendo realizada em atividades divididas em duas fases distintas. A primeira fase, um estudo
    preliminar, consistiu de uma fase exploratória e teve por objetivo a construção de uma base
    teórica consistente para suportar a etapa seguinte. Nela, foi realizada uma revisão da literatura
    exploratória (ad hoc) e um survey. Ainda dentro da fase do estudo preliminar, são propostas
    entrevistas semiestruturadas, a fim de realizar um levantamento de informações relevantes
    para a estruturação do objeto da pesquisa. A segunda fase, ainda não realizada, tem uma
    característica mais descritiva e visa a real construção da solução proposta, utilizando
    metodologia de Design Science Research, fundamentando a condução da pesquisa, uma vez
    que o objetivo a ser alcançado é desenvolvimento de um artefato. Os resultados permitirão
    uma melhor compreensão em torno do fenômeno explorado, além da definição de uma
    estratégia para o uso dos modelos de maturidade no desenvolvimento dos fatores humanos em
    equipes ágeis de desenvolvimento de software.

7
  • GABRIELLE KARINE CANALLE
  • Usando relacionamentos entre atributos no na Descoberta da Verdade 
    do processo de Fusão de Dados

  • Leader : ANA CAROLINA BRANDAO SALGADO
  • MEMBRES DE LA BANQUE :
  • BERNADETTE FARIAS LOSCIO
  • DAMIRES YLUSKA DE SOUZA FERNANDES
  • FERNANDO DA FONSECA DE SOUZA
  • LUCIANO DE ANDRADE BARBOSA
  • MARCELO IURY DE SOUSA OLIVEIRA
  • Data: 14 mars 2023


  • Afficher le Résumé
  • A Fusão de Dados é uma tarefa primordial quando se deseja integrar dados. 
    Durante o processo de Integração de Dados podem ocorrer conflitos entre os 
    valores de um mesmo objeto do mundo real. Na Fusão de Dados, a etapa 
    responsável por identificar e resolver esses conflitos, descobrindo os 
    valores verdadeiros, é chamada de Descoberta da Verdade. Devido à 
    facilidade de publicação e compartilhamento de dados, muitos valores falsos 
    são disponibilizados na Web, e não se conhece a qualidade das fontes de 
    dados. A etapa de Descoberta da verdade é um processo iterativo onde se 
    utiliza a qualidade das fontes para verificar o grau de confiança dos 
    valores providos por ela, ao mesmo tempo em que a qualidade das fontes é 
    calculada considerando-se os valores verdadeiros que ela provê. Deste modo, 
    principalmente em cenários de dados na Web, a Descoberta da Verdade se 
    torna um desafio. Neste sentido, este trabalho propõe uma abordagem para 
    descoberta de relacionamentos entre atributos, que serão utilizados para 
    inserir conhecimento adicional na etapa de Descoberta da Verdade no 
    processo de Fusão de Dados. Deste modo, a avaliação de confiabilidade das 
    fontes será realizada de forma mais eficiente, não apenas com base nos 
    dados de entrada, mas também no conhecimento adicional extraído dos 
    relacionamentos. Experimentos foram realizados para avaliar a proposta em 
    comparação com o estado da arte.

8
  • PAULO FREITAS DE ARAUJO FILHO
  • Towards Intelligent Security Mechanisms for Connected Things

  • Leader : DIVANILSON RODRIGO DE SOUSA CAMPELO
  • MEMBRES DE LA BANQUE :
  • CHAMSEDDINE TALHI
  • KIM KHOA NGUYEN
  • EDUARDO COELHO CERQUEIRA
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • MICHELE NOGUEIRA LIMA
  • SUSANA SARGENTO
  • Data: 15 mars 2023


  • Afficher le Résumé
  • A natureza broadcast da comunicação sem fio e a adoção em larga escala de objetos conectados aumentam as superfícies de ataques e permitem que atacantes realizem diversos ciberataques. Além disso, a adoção crescente de aprendizagem de máquina (ou ML: machine learning) em várias aplicações, incluindo comunicações sem fio, introduz novos riscos e vulnerabilidades. Ataques adversariais constroem e introduzem pequenas perturbações que enganam modelos de ML para que eles tomem decisões erradas. Dessa forma, eles podem comprometer a disponibilidade da comunicação e a segurança de objetos conectados. Portanto, ciberataques e ataques adversariais podem comprometer os objetivos da segurança, causando danos severos e prejuízos financeiros, bem como colocando em risco a vida das pessoas. Nesta tese, avançamos o estado da arte na área da segurança considerando os problemas de ciberataques e ataques adversariais. Melhoramos a segurança de objetos conectados detectando ciberataques de maneira eficaz e eficiente, e defendendo sistemas baseados em aprendizagem de máquina de ataques adversariais. No Capítulo 3, verificamos que embora sistemas de detecção de intrusão (ou IDS: intrusion detection systems) baseados em modelos de ML supervisionados não consigam detectar ataques desconhecidos e requeiram dados de treinamento rotulados, o que é demorado, desafiador e às vezes até impossível de ser obter, abordagens não supervisionadas geralmente apresentam taxas de falsos positivos altas que interrompem serviços e causam problemas em centros de operação de segurança (ou SOCs: security operation centers). Além disso, verificamos que a maioria dos IDSs não supervisionados têm dificuldades com o tempo necessário para modelar sistemas altamente complexos e heterogêneos, de modo que eles não conseguem detectar ciberataques rápido o suficiente para pará-los antes eles causem danos. Assim, propomos um novo IDS não supervisionado para detectar ataques conhecidos e desconhecidos usando redes generativas adversariais (ou GANs: generative adversarial networks). Nossa abordagem combina a saída do discriminador da GAN com uma perda de reconstrução que avalia o quanto as amostras de dados estão de acordo com os dados de treinamento. Ela treina uma rede neural encoder que acelera o cálculo da perda de reconstrução, reduzindo significativamente os tempos de detecção em comparação com abordagens do estado da arte. Como muitos ataques possuem vários passos e são lançados de diferentes aplicações e dispositivos, o Capítulo 4 trata de diferentes estratégias para considerar dependências temporais entre os dados na detecção de ciberataques. Verificamos que embora a maioria dos IDSs existentes utilize redes long short-term memory (LSTM), trabalhos recentes mostram que essas redes apresentam várias desvantagens que aumentam os tempos de detecção, como a sua capacidade limitada de paralelizar computações. Assim, propomos um novo IDS não supervisionado baseado em GAN que usa redes convolucionais temporais (ou TCN: temporal convolutional networks) e self-attention para substituir as redes LSTM e considerar dependências temporais entre os dados. Nossa abordagem substitui com sucesso redes LSTM na detecção de ataques e obtém resultados de detecção melhores. Além disso, ela permite diferentes configurações das camadas de TCN e self-attention para atingir diferentes balanceamentos entre taxas e tempos de detecção e satisfazer diferentes requisitos. Em contraste com os Capítulos 3 e 4, o Capítulo 5 trata de ataques adversariais que comprometem classificadores de modulação em receptores sem fio, comprometendo a disponibilidade da comunicação. Verificamos que as técnicas de ataques adversariais existentes ou requerem total conhecimento sobre o modelo do classificador, o que é uma suposição irrealista, ou demoram muito para criar perturbações adversariais, de modo que não conseguem adulterar os sinais modulados recebidos. Assim, propomos uma nova técnica de ataque adversarial caixa-preta que reduz a acurácia de classificadores de modulação mais do que outras técnicas de ataques adversariais caixa-preta e constrói perturbações adversariais significantemente mais rápido do que elas. Nossa técnica proposta é essencial para avaliar os riscos do uso de classificadores de modulação baseados em aprendizagem de máquina em comunicações sem fio. Finalmente, mediante os riscos e danos que ataques adversariais podem causar, o Capítulo 6 foca o estudo de técnicas de defesa contra essas ameaças sofisticadas. Verificamos que existem apenas poucas técnicas de defesa para proteger classificadores de modulação contra ataques adversariais, e que a maioria delas reduz apenas marginalmente o impacto desses ataques na acurácia do classificador. Assim, propomos uma técnica de defesa para proteger classificadores de modulação de ataques adversariais para que esses ataques não prejudiquem a disponibilidade da comunicação sem fio. Nossa abordagem detecta e remove perturbações adversariais enquanto também reduz a sensibilidade de classificadores baseados em aprendizagem de máquina a elas. Portanto, ela diminui com sucesso a redução de acurácia causada por diferentes técnicas de ataques adversariais.

9
  • PAULO FILIPE CANDIDO BARBOSA
  • Um Método de Otimização de Energia Multi-protocolo MAC e Adaptável por Meio de Aprendizado de Máquina para Redes IoT e de Sensores

  • Leader : RENATO MARIZ DE MORAES
  • MEMBRES DE LA BANQUE :
  • PAULO ROBERTO DE LIRA GONDIM
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • DANIEL PEDRO BEZERRA CHAVES
  • FRANCISCO MADEIRO BERNARDINO JUNIOR
  • LEANDRO MACIEL ALMEIDA
  • Data: 21 mars 2023


  • Afficher le Résumé
  • Em redes IoT e redes de sensores, estudos têm sido realizados para definir o melhor esquema de gerenciamento para controle eficiente de energia, especialmente nos chamados dispositivos de baixa energia.
    Durante décadas, essa otimização foi realizada por meio de modelos e algoritmos que, apesar de apresentarem bons resultados, tinham que escolher entre desconsiderar uma otimização multiobjetivo da rede ou executar soluções com alto custo computacional que geravam problemas de desempenho e consumo excessivo de energia dos dispositivos envolvidos.
    Além disso, a incapacidade desses métodos de trabalhar sob diferentes protocolos que envolvem aprender e adaptar as especificações do dispositivo associadas a problemas existentes, como segurança, tolerância a erros e interferência humana, torna sua implementação em sistemas reais impraticável; essa limitação se aplica principalmente a redes com alta escalabilidade de nós. Este trabalho apresenta uma nova abordagem para esse problema baseado no uso de aprendizado de máquina para obter economia de energia.
    Aqui se propõe a combinação de informações operacionais de dois algoritmos de controle de consumo de energia, considerando o CSMA/CA, o slotted ALOHA (uma variante de ALOHA) e o IEEE 802.15.4, que são protocolos de referência usados na camada de enlace nas importantes tecnologias WiFi, LoRaWAN, e ZigBee, respectivamente, criando um banco de dados de soluções otimizadas, que serve como base de treinamento para uma rede neural capaz de aprender o comportamento de todos os protocolos simultaneamente e criar um modelo unificado de otimização de energia auto-adaptativa que considera múltiplas variáveis de camada física (PHY) e de enlace (MAC) para diferentes dispositivos e protocolos. O trabalho propõe ainda uma solução de eficiência energética baseada em redes neurais artificiais codificadas dentro do sensor, tornando-o capaz de entender dinamicamente o estado atual da rede e manipular de forma autônoma variáveis estáveis das camadas PHY e MAC como definição da potência de transmissão, número ótimo bits por quadro, taxa de transmissão e números de salto do remetente ao destino, minimizando o custo de energia durante cada transmissão.
    A abordagem proposta apresenta simultaneamente soluções que otimizam os algoritmos de redução de energia para os protocolos slotted ALOHA e CSMA/CA, aproximando ou melhorando o desempenho das técnicas, economizando 97,6% na computação da CPU e 113.322.733% do tempo de processamento na busca pelas mesmas soluções. Outra importante contribuição desta pesquisa é a inserção de um sistema complexo de gerenciamento de energia baseado em uma RNA com notação assintótica de magnitude O(n), consumo operacional de energia entre 30 e 26 fJ e tamanho de 3,59 kB de memória ROM, sem a necessidade de importar bibliotecas adicionais do sistema, em um dispositivo sensor modelo TMote SKY com 10 kB de RAM, 48 kB de ROM, e processador de 8 MHz operando sob o protocolo do padrão IEEE 802.15.4.
    Esse trabalho contribui com uma abordagem multiprotocolo adaptável baseada em aprendizado de máquina, que gerencia recursos nos protocolos \emph{benchmark slotted} ALOHA e CSMA/CA para redes sem fio. Além disso, facilita a otimização multiobjetivo via aprendizado de máquina para eficiência energética em redes reais, criando um novo sistema inteligente que promove comunicação eficiente para múltiplos protocolos MAC e considera a limitação da capacidade de processamento do dispositivo. Este trabalho também mostrou que uma rede neural pode aproximar e otimizar funções exatas quando os parâmetros ótimos não podem ser mapeados matematicamente. Os resultados finais da pesquisa permitem concluir que a RNA possibilitou ao sensor entender o comportamento de transmissão da rede sem a necessidade de técnicas multiobjetivas complexas, mostrando-se uma viável solução para gerenciar variáveis controláveis e incontroláveis envolvidas na transmissão de dados.

10
  • GUTO LEONI SANTOS
  • An Artificial Intelligence Powered Framework for Automatic Service 
    Function  Chain Placement in Distributed Scenarios

  • Leader : JUDITH KELNER
  • MEMBRES DE LA BANQUE :
  • ANTONIO ALFREDO FERREIRA LOUREIRO
  • CARMELO JOSÉ ALBANEZ BASTOS FILHO
  • EDMUNDO ROBERTO MAURO MADEIRA
  • NELSON SOUTO ROSA
  • PAULO ROMERO MARTINS MACIEL
  • Data: 22 mars 2023


  • Afficher le Résumé
  • Software Defined Networks (SDN) e Network Function Virtualisation (NFV) 
    estão tornando as redes programáveis e, consequentemente, muito mais 
    flexíveis e ágeis. Para cumprir acordos de nível de serviço, obter maior 
    utilização de redes legadas, implantação de serviço mais rápida e reduzir 
    despesas, as operadoras de telecomunicações estão implantando Service 
    Function Chains (SFCs) cada vez mais complexas. Apesar dos benefícios das 
    SFCs, o aumento da heterogeneidade e do dinamismo da computação em nuvem 
    para a computação em borda apresenta desafios significativos de 
    posicionamento de SFC, não menos importante, adicionando ou removendo 
    funções de rede, mantendo a disponibilidade, qualidade de serviço e 
    minimizando custos.
    Apesar das vantagens da virtualização de serviço, espera-se que o 
    desempenho e a disponibilidade da rede não sejam afetados pelo uso de SFCs. 
    No entanto, vários fatores que podem comprometer a disponibilidade da SFC 
    são adicionados em um cenário virtualizado, como falhas de software, erros 
    de configuração, ataques cibernéticos, entre outros. Para mitigar o impacto 
    desses fatores, mecanismos de redundância podem ser utilizados, ou seja, 
    adicionar Funções Virtuais de Redes (do inglês Virtual Network Functions 
    (VNFs)) redundantes nos servidores para manter o funcionamento da SFC em 
    caso de falhas. Por outro lado, os operadores de rede desejam, obviamente, 
    alocar as SFCs otimizando a utilização dos recursos com o intuito de 
    reduzir os Gastos Operacionais (do inglês Operational Expenditures (OPEX)). 
    No entanto, isto é um desafio, pois os mecanismos de redundância exigem 
    recursos computacionais adicionais.
    Além disso, a alocação de uma SFC em cenários distribuídos pode melhorar 
    sua disponibilidade, uma vez que uma falha isolada não impactaria toda a 
    operação do SFC. No entanto, a alocação em cenários geograficamente 
    distribuídos aumenta a complexidade do gerenciamento, onde diferentes tipos 
    de hardware e atrasos adicionais podem comprometer o desempenho da SFC. 
    Portanto, estratégias inteligentes são necessárias para otimizar o 
    posicionamento das SFCs. Além disso, com o intuito de reduzir o OPEX, essas 
    estratégias devem ser executadas com o mínimo de iteração humana.       
    Esta  tese apresenta o Sfc Placement framework focused on availability for 
    DistributEd scenaRios (SPIDER), um framework para posicionamento de SFC com 
    foco em cenários distribuídos e disponibilidade dessa SFC. O SPIDER foi 
    projetado para fazer o posicionamento de SFC em diferentes cenários 
    distribuídos, ou seja, cenários com diferentes características de hardware 
    e software. Para fazer isso, o SPIDER utiliza informações contextuais para 
    definir a estratégia de posicionamento do SFC. Além disso, técnicas de 
    aprendizado de máquina são usadas para prever o tráfego das SFCs alocadas 
    previamente e aprendizado de reforço para selecionar os servidores para o 
    posicionamento
    da SFC. Porém, o SPIDER é flexível para usar outras abordagens de acordo 
    com as necessidades do gerente da rede. Além disso, com base na estratégia 
    de posicionamento definida pelos algoritmos de aprendizado de máquina, o 
    SPIDER também interage com as ferramentas de gerenciamento para fazer o 
    posicionamento do SFC de forma automática, ou seja, com o mínimo de 
    intervenção humana, facilitando o gerenciamento da rede.

11
  • HUGO LEONARDO DA SILVA ARAUJO
  • A framework for testing cyber-physical systems: input generation 
    and causal analysis

  • Leader : AUGUSTO CEZAR ALVES SAMPAIO
  • MEMBRES DE LA BANQUE :
  • ADENILSO DA SILVA SIMÃO
  • ALEXANDRE CABRAL MOTA
  • CARLOS ALEXANDRE BARROS DE MELLO
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • NELSON SOUTO ROSA
  • Data: 23 mars 2023


  • Afficher le Résumé
  • Sistemas ciber-físicos (CPSs) integram sistemas computacionais em seus 
    ambientes físicos; componentes para produtos como automóveis e aviões são 
    exemplos de CPSs modernos. A complexidade de tais sistemas vem de seu 
    \emph{design} multidisciplinar que tipicamente compreende elementos 
    discretos e contínuos. A importância da segurança e confiabilidade destes 
    sistemas justifica a necessidade de mais pesquisas sobre sua verificação.
    Neste trabalho, propõe-se um \textit{framework} formal para teste (de 
    conformidade) e análise (de causalidade) de sistemas ciber-físicos. O 
    \textit{framework} é dividido em duas etapas: i) uma abordagem de teste 
    baseada em uma busca multi-objetivos que gera entradas efetivas para 
    encontrar falhas em CPSs e ii) uma noção de causalidade que atribui causas 
    para os eventos que levaram a essas falhas.
    Na busca multi-objetivos proposta, o principal intuito é fornecer sinais de 
    entrada para um sistema de forma a maximizar a distância entre a saída do 
    sistema e de um alvo ideal, levando o sistema a uma falha. Além disso, 
    leva-se em consideração os estados discretos (dos modelos de sistemas 
    híbridos) e uma noção de diversidade de entradas para aumentar a cobertura. 
    A estratégia proposta foi implementada e este trabalho apresenta também 
    análises empíricas para mostrar sua eficácia.
    Quanto à análise de causalidade, o primeiro passo é formalizar uma noção de 
    falhas e causas usando notações matemáticas. As falhas são representadas 
    usando uma simplificação de proposições em lógica temporal de sinal (STL), 
    e as causas são expressas usando intervalos de trajetórias que levaram à 
    falsificação de tais propriedades. Para aplicar a causalidade em sistemas 
    contínuos, é preciso levar o tempo em consideração. Uma falha que ocorreu 
    em um determinado momento pode ter sido causada por eventos muito 
    anteriores. Dessa forma, o objetivo desse trabalho é identificar não apenas 
    a quais componentes a falha deve ser atribuída, mas também fornecer o 
    momento no tempo.
    As contribuições deste trabalho podem ser resumidas da seguinte forma. 
    Propõe-se um \textit{framework} para testar e analisar CPSs. A abordagem de 
    teste utiliza uma estratégia de busca multi-objetivos para seleção de 
    entradas que maximizam a chance de identificar uma falha (i.e., uma 
    violação de conformidade). Leva-se em conta os contraexemplos produzidos e 
    aplica-se causalidade como uma ferramenta para interpretar tais testemunhas 
    da violação de conformidade. Para isso, estende-se uma teoria de 
    causalidade (originalmente para sistemas discretos) para lidar com os 
    aspectos contínuos de CPSs. Comparam-se os resultados com as abordagens 
    relacionadas, usando exemplos da literatura e estudos de caso que foram 
    desenvolvidos neste trabalho. A mecanização da estratégia é feita em 
    Matlab/Simulink, que é um ambiente comumente usado para modelagem e análise 
    de sistemas de controle, aumentando assim a acessibilidade à estratégia 
    proposta nesse trabalho.

12
  • MAYRTON DIAS DE QUEIROZ
  • Otimização aplicada ao Problema de Sequenciamento de Contêiner em Terminais
    Portuários

  • Leader : RICARDO MARTINS DE ABREU SILVA
  • MEMBRES DE LA BANQUE :
  • CÍCERO GARROZI
  • DANIEL CARVALHO DA CUNHA
  • EMERSON ALEXANDRE DE OLIVEIRA
  • KELVIN LOPES DIAS
  • ROBERTO ZANETTI FREIRE
  • Data: 26 avr. 2023


  • Afficher le Résumé
  • Com a utilização de contêineres em terminais portuários, surge o desafio de manipulá-los com intuito de obter um tempo menor para realização das operações. Entre os problemas encontrados nesse contexto, é possível destacar o Problema de Sequenciamento de Contêiner que busca determinar uma sequência de operações com os contêineres realizadas entre o navio e o pátio através do guindaste. Diante dessa problemática, o objetivo deste trabalho consiste em identificar um algoritmo capaz de encontrar uma sequência de operações com os contêineres para serem realizadas pelo guindaste e que possua um tempo total reduzido.
    Nesse trabalho, foi reimplementado o Algoritmo GRASP encontrado na literatura, em seguida foi implementado o Algoritmo de Deslocamento Direcionado combinado ao GRASP. Também foi possível implementar o Algoritmo de Pilhas Independentes com o intuito de combinar os contêineres da solução encontrada. Ao realizar os experimentos com o conjunto de instâncias obtido na literatura, foi possível observar que, em parte das instâncias, os resultados do Algoritmo de Pilhas Independentes teve um tempo total de realização das operações menor do que os obtidos pelo GRASP. Adicionalmente, foi desenvolvido um framework para auxiliar os especialistas na construção de soluções.

13
  • PAULO ROBERTO PEREIRA DA SILVA
  • Analytical and Hierarchical Models for Availability and 
    Performability Evaluation of Edge-Fog-Cloud Continuum Applications

  • Leader : PAULO ROMERO MARTINS MACIEL
  • MEMBRES DE LA BANQUE :
  • MARIO ANTÔNIO RIBEIRO DANTAS
  • ANTONIO ALFREDO FERREIRA LOUREIRO
  • BRUNO SILVA
  • EDUARDO ANTONIO GUIMARAES TAVARES
  • JAMILSON RAMALHO DANTAS
  • Data: 26 mai 2023


  • Afficher le Résumé
  • A conectividade vem transformando o mundo em que vivemos e, com o passar do 
    tempo, exige a melhoria contínua dos níveis de qualidade de serviço (QoS). 
    Muitas tecnologias emergentes exigem redes com baixa latência para 
    processamento de dados em tempo real, e com o passar do tempo estamos nos 
    tornando mais dependentes dessas tecnologias. Os ambientes de computação em 
    nuvem oferecem alta disponibilidade, confiabilidade e desempenho; no 
    entanto, a computação em nuvem pode não ser adequada para serviços 
    sensíveis à latência, como minimização de riscos de desastres, 
    gerenciamento inteligente de tráfego, e prevenção de crimes. Dois 
    paradigmas complementares, computação de névoa e de borda, foram propostos 
    para lidar com os problemas de latência e aumentar o poder de computação 
    entre a nuvem e os dispositivos de borda (e.g., controladores, sensores e 
    smartphones). No entanto, a avaliação dos aspectos de disponibilidade e 
    desempenho ainda é uma grande preocupação nesses ambientes de computação 
    distribuída, uma vez que muitos desafios devem ser enfrentados para 
    garantir a QoS necessária para esses sistemas. Portanto, este estudo aborda 
    a dependabilidade de ambientes de computação em nuvem, névoa e borda, 
    avaliando sua disponibilidade e os efeitos correspondentes em seu 
    desempenho. Também propomos modelos analíticos e hierárquicos, que darão 
    suporte à escalabilidade e planejamento de capacidade de ambientes de 
    computação em nuvem, névoa e borda. As métricas abordadas neste trabalho 
    são a disponibilidade, a disponibilidade K de N, a disponibilidade 
    orientada à capacidade e as métricas de desempenho, como utilização, tempo 
    de resposta, tempo de espera e taxa de descarte. Em um dos nossos 
    resultados, conseguimos melhorar consideravelmente a disponibilidade de um 
    aplicativo de gerenciamento de tráfego inteligente.

14
  • ELVYS ALVES SOARES
  • A Multimethod Study of Test Smells: Cataloging, Awareness, and 
    Refactoring

  • Leader : ANDRE LUIS DE MEDEIROS SANTOS
  • MEMBRES DE LA BANQUE :
  • FABIANO CUTIGI FERRARI
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • LEOPOLDO MOTTA TEIXEIRA
  • PAULO HENRIQUE MONTEIRO BORBA
  • ROHIT GHEYI
  • Data: 31 mai 2023


  • Afficher le Résumé
  • Test smells são sintomas no código de teste que indicam possíveis problemas de design ou implementação. Sua presença em conjuntos de testes automatizados, juntamente com sua nocividade, já foi demonstrada por pesquisas anteriores. Embora a área de test smells tenha sido objeto de muita literatura acadêmica e cinzenta desde sua proposta em 2001, muitas questões sobre a adesão dos test smells na indústria ainda precisam ser esclarecidas: com relação aos tipos de test smells - propostas por vários estudos e literatura cinzenta — nenhum catálogo publicamente disponível os agrega; considerando a evolução dos frameworks de teste e linguagens de programação, não há correspondência entre os novos recursos propostos e sua capacidade de refatoração ou prevenção de test smells; por fim, considerando que a automação de testes requer um investimento inicial significativo nem sempre disponível para projetos de software, pouco se sabe sobre a possibilidade da existência de test smells em suítes de testes manuais, bem como como identificá-los e removê-los. Este trabalho apresenta um estudo multimétodo que visa preencher essas lacunas de conhecimento na área de test smells, que compreende o levantamento do estado da arte sobre test smells e ações de refatoração, o uso de análises manuais e automáticas de repositórios de código aberto, a realização de pesquisas com profissionais de teste de software, o estudo de novos recursos de estrutura de teste, a proposição de ações de refatoração test smells e o envio de contribuições para projetos de software de código aberto ativos e populares. Os resultados apresentam: (i) um catálogo inédito que unifica 127 estudos primários e 482 test smells distintos, (ii) a confirmação de que novos recursos de frameworks de teste podem refatorar e prevenir test smells, onde propomos e avaliamos novas refatorações baseadas em 6 recursos JUnit 5 destinados a 13 cheiros de teste, (iii) a proposição de um catálogo contendo 8 novos cheiros de teste específicos para suítes de teste manual, suas estratégias de identificação baseadas no processamento de linguagem natural e sua frequência em importantes sistemas governamentais, industriais e de código aberto. As conclusões deste trabalho fornecem direções para um maior desenvolvimento em várias frentes da área de estudo de test smells.

15
  • EVERALDO COSTA SILVA NETO
  • Discovering a Domain-Specific Schema from General-Purpose Knowledge Base

  • Leader : ANA CAROLINA BRANDAO SALGADO
  • MEMBRES DE LA BANQUE :
  • ALTIGRAN SOARES DA SILVA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • CARLOS EDUARDO SANTOS PIRES
  • DAMIRES YLUSKA DE SOUZA FERNANDES
  • FERNANDO DA FONSECA DE SOUZA
  • Data: 13 juin 2023


  • Afficher le Résumé
  • Bases de conhecimento de propósito geral, e.g., DBpedia, YAGO e Wikidata, 
    armazenam dados factuais sobre um conjunto de entidades. Elas são 
    construídas para armazenar conhecimento de múltiplos domínios, e.g., saúde, 
    entretenimento, indústria, esportes e artes. A maioria das aplicações que 
    utilizam dados de bases de conhecimento de própósito geral são específica 
    para um domínio. Alguns tarefas, tais como formulação de consulta e 
    extração da informação, requerem um esquema de dados para explorar o 
    conteúdo de uma base de conhecimento. Entretanto, declarações específicas 
    de esquema não são mandatórias e, algumas vezes, não são fornecidas. 
    Portanto, aplicações específicas para um domínio enfrentam dois problemas: 
    (1) elas requerem apenas um subconjunto de dados de interesse ao domínio da 
    aplicação, mas as bases de conhecimento de propósito geral possuem um 
    grande volume de dados factuais em diferentes domínios; e (2) a falta de 
    informações relacionadas ao esquema. Nesta tese, endereçamos o problema da 
    descoberta de esquema para um domínio específico a partir de bases de 
    conhecimento de propósito geral. Especificamente, desenvolvemos ANCHOR, um 
    pipeline ponta-a-ponta que tem como objetivo identificar, de maneira 
    automática, um conjunto de dados para um domínio específico bem como a sua 
    descrição de esquema. ANCHOR é dividido em três etapas: descoberta de 
    domínio, identificação de classe e mineração de esquema. Inicialmente, 
    ANCHOR extrai um domínio específico explorando os mapeamentos 
    categoria-categoria fornecidos pela base de conhecimento. Em seguida, a 
    etapa de identificação de classe descobre classes implícitas no conjunto de 
    dados. Nesta direção, ANCHOR aprende uma representação para cada entidade 
    do conjunto de dados utilizando os mapeamentos entidade-categoria. Essa 
    representação é usada para agrupar entidades similares com o objetivo de 
    identificar classes de entidades implícitas no conjunto de dados. Por fim, 
    a etapa de mineração de esquema constrói o esquema da classe, i.e., 
    identifica um conjunto de atributos relavantes que melhor descreve as 
    entidades de uma mesma classe. Para isso, ANCHOR executa CoFFee, uma 
    abordagem baseada na coocorrência e frequência dos atributos para 
    identificar um conjunto de atributos centrais para cada classe descoberta 
    na etapa anterior. Realizamos uma extensiva avaliação experimental em 
    quatro domínios da DBpedia. Na tarefa de identificação de classe, 
    comparamos ANCHOR com baselines tradicionais e baseados em embeedings. Os 
    resultados mostraram que, utilizando os algoritmos de agrupamento 
    clássicos, a representação de entidade proposta nesta tese superou os 
    baselines, mostrando ser eficiente para a tarefa de identificação de 
    classe. Na tarefa de mineração de esquema, comparamos CoFFee com duas 
    abordagens do estado da arte. Os resultados indicam que CoFFee é eficaz 
    para filtrar atributos menos relavantes. Ele seleciona um conjunto de 
    atributos centrais mantendo a taxa de recuperação alta e produzindo um 
    esquema de alta qualidade para as classes identificadas.

16
  • CHÁINA SANTOS OLIVEIRA
  • A Two-Level Item Response Theory Model to Evaluate Automatic Speech 
    Synthesis and Recognition Systems

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • JUGURTA ROSA MONTALVAO FILHO
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • GISELE LOBO PAPPA
  • RONNIE CLEY DE OLIVEIRA ALVES
  • TSANG ING REN
  • Data: 19 juin 2023


  • Afficher le Résumé
  • Sistemas de reconhecimento da fala têm se tornado populares em diversas aplicações. Idealmente, tais sistemas devem ser testados em diferentes cenários, com diversos tipos de falas, sentenças e locutores. Adquirir dados de teste a partir de falas humanas gravadas é custoso em questão de tempo. Uma alternativa é usar ferramentas text-to-speech (TTS) para sintetizar áudios dado um conjunto de sentenças e locutores virtuais. Desta forma, o sistema que está sendo testado recebe um áudio sintetizado, faz a transcrição e os erros de transcrição são coletados para posterior avaliação. Apesar da grande disponibilidade de serviços de síntese da fala, nem todas as falas sintetizadas têm a mesma qualidade. É importante avaliar a utilidade dos locutores e das sentenças para a avaliação do sistema de reconhecimento da fala. Assim, este trabalho propõe um modelo de Teoria de Resposta ao Item (TRI) de dois níveis para avaliar locutores, sentenças e sistemas de reconhecimento da fala, o que é original na literatura. TRI é uma abordagem da psicometria para estimar a habilidade de respondentes humanos, tendo como base as suas respostas a itens com diferentes níveis de dificuldade. No primeiro nível do modelo proposto, um item é uma fala sintética, um respondente é um sistema de reconhecimento da fala, e cada resposta é a acurácia da transcrição de uma fala sintetizada por um sistema de reconhecimento da fala. Um modelo de TRI é, então, usado para estimar a dificuldade de cada fala sintetizada e a habilidade do sistema de reconhecimento da fala. No segundo nível, a dificuldade de cada fala sintética é decomposta em dois fatores: a dificuldade da sentença e a qualidade do locutor. A dificuldade da fala sintética tende a ser alta quando ela é gerada a partir de uma sentença difícil e um locutor ruim. A habilidade de um sistema de reconhecimento da fala é alta quando ele é robusto a falas difíceis. Antes de executar experimentos com o modelo TRI de dois níveis proposto neste trabalho, nós executamos um estudo de caso preliminar para verificar a viabilidade de aplicar TRI no contexto de avaliação da fala. Nesta experimentação inicial, um modelo TRI de um nível foi usado para avaliar 62 locutores (de quatro sistemas de síntese da fala) e 12 sentenças. Os resultados mostraram a relevância de aplicar TRI para avaliar sentenças e locutores dentro deste contexto, o que nos estimulou a elaborar outros estudos de caso. Em seguida, desenvolvemos o modelo TRI de dois níveis e executamos experimentos usando tal abordagem. Desta vez, quatro sistemas de reconhecimento da fala foram adotados para transcrever as falas sintéticas resultantes de 100 sentenças de benchmark e 75 locutores. Os experimentos mostraram como a qualidade da síntese e reconhecimento das falas pode ser afetada por fatores diversos, como a dificuldade da sentença e a habilidade dos locutores. Também exploramos o impacto de pitch, rate e da inserção de ruído na estimação dos parâmetros e no desempenho dos sistemas.

17
  • FLÁVIO DA SILVA NEVES
  • Smart Anonymity: Um Mecanismo para Recomendação de Algoritmos de 
    Anonimização de Dados Baseado no Perfil dos Dados para Ambientes IoT

  • Leader : VINICIUS CARDOSO GARCIA
  • MEMBRES DE LA BANQUE :
  • PAULO SALGADO GOMES DE MATTOS NETO
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • FERNANDO ANTONIO AIRES LINS
  • EDUARDO LUZEIRO FEITOSA
  • PAULO ANTÔNIO LEAL REGO
  • Data: 22 juin 2023


  • Afficher le Résumé
  • A Internet das Coisas (IoT) prevê um mundo onde os objetos do dia a dia 
    estão conectados à internet, interagindo entre si e com o ambiente ao seu 
    redor. A IoT está crescendo rapidamente, e apresenta vários desafios 
    relacionados à privacidade dos dados coletados pelos dispositivos. Os dados 
    coletados pelos dispositivos IoT são processados para fornecer serviço aos 
    seus usuários. Existem inúmeros dispositivos espalhados por vários locais, 
    tais como, casas inteligentes, carros, locais públicos, bem como, 
    dispositivos que as pessoas usam em seu corpo, como por exemplo smart 
    watchs, muitas dessas pessoas usam esses dispositivos sem saber das suas 
    reais capacidades. O problema que permeia esta pesquisa é: Não foi 
    identificado uma solução para privacidade de dados, baseada em 
    anonimização, que seja adaptável para vários ambientes de uso da IoT. 
    Diante disto, o objetivo desta pesquisa é desenvolver o Smart Anonymity, 
    que é uma solução que recomenda o algoritmo de anonimização de dados mais 
    adequado para um conjunto de dados de acordo com suas características. Para 
    condução desta pesquisa foi escolhido como método principal o Design 
    Science Research (DSR) que é uma abordagem com duplo objetivo: (i) 
    desenvolver um artefato para resolver um problema prático em um contexto 
    específico e (ii) gerar novos conhecimentos técnicos e científicos. As 
    principais contribuições desta pesquisa são: (i) a solução que recomenda 
    qual o algoritmo de anonimização de dados é mais adequado para o conjunto 
    de dados de acordo com suas características; (ii) criação dos critérios 
    para escolha de algoritmos de anonimização baseado nas características dos 
    dados; (iii) duas ontologias para dar suporte à classificação dos dados; 
    (iv) o uso de Machine Learning para enriquecer a classificação realizada 
    pelas ontologias. Os resultados da Revisão Sistemática da Literatura (RSL) 
    podem ser considerados contribuições para a comunidade científica, pois 
    nela são apresentadas as principais técnicas de anonimização usadas 
    atualmente para fornecer privacidade em IoT, bem como os pontos positivos e 
    negativos de cada uma. Com base nos resultados das avaliações realizadas no 
    decorrer desta tese, é possível concluir que o Smart Anonymity alcançou 
    resultados promissores para a classificação e recomendação dos algoritmos 
    de anonimização para dados gerados por dispositivos IoT. Ainda com base nas 
    nos resultados das avaliações é possível concluir que o uso de Machine 
    Learning traz melhorias no processo de classificação dos dados gerados por 
    dispositivos da IoT.

18
  • JAYR ALENCAR PEREIRA
  • A Method for Adapting Large Language Models for Communication Card Prediction in Augmentative and Alternative Communication Systems

  • Leader : ROBSON DO NASCIMENTO FIDALGO
  • MEMBRES DE LA BANQUE :
  • RODRIGO FRASSETTO NOGUEIRA
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • GEBER LISBOA RAMALHO
  • Data: 18 juil. 2023


  • Afficher le Résumé
  • Os sistemas de Comunicação Aumentativa e Alternativa (CAA) auxiliam indivíduos com necessidades complexas de comunicação a se expressarem. Um recurso comum em CAA é o uso de cartões de comunicação, onde o usuário seleciona cartões e os organiza em sequência para formar uma frase. No entanto, o número limitado de cartões exibidos e a necessidade de navegar por várias páginas ou pastas podem dificultar a construção de mensagesn. Para superar essas barreiras, vários métodos foram propostos, como organização de vocabulário, sistemas de codificação de cores, planejamento motor e modelos preditivos. Avanços recentes em Inteligência Artificial (IA) e Aprendizado de Máquina mostraram potencial para melhorar a acessibilidade e a personalização dos sistemas de CAA. Este estudo propõe um método para adaptar modelos de linguagem para predição de cartões de comunicação em sistemas de CAA para facilitar a elaboração de mensagens. O método proposto envolve três etapas principais: 1) adaptar um corpus de texto ao domínio da CAA, convertendo-o em um corpus de frases telegráficas ou incorporando recursos que permitem a exploração de pistas visuais; 2) ajustar um modelo de linguagem baseado em transformers usando o corpus adaptado; e 3) substituir os pesos do decodificador do modelo de linguagem por uma representação codificada do vocabulário do usuário para gerar uma distribuição de probabilidade sobre os itens de vocabulário do usuário durante a inferência. O método proposto aproveita que modelos de linguagem baseados em transformers, como o Bidirectional Encoder Representations from Transformers (BERT), compartilham os pesos da camada de embeddings de entrada com o decodificador no cabeçalho de modelagem de linguagem. Portanto, o método pode ser usado sem treinamento adicional para a predição de cartões de comunicação. O método foi avaliado em Língua Inglesa e Língua Portuguesa do Brasil usando configurações zero-shot e few-shot, em que um pequeno corpus de texto foi usado para o ajuste fino. Além disso, foi avaliado o impacto da incorporação de recursos adicionais nas frases de treinamento, rotulando-as com a estrutura do Colourful Semantics. Resultados mostram que o método proposto supera modelos pré-treinados e que a inclusão de Colourful Semantics melhora a precisão da predição de cartões. O método utiliza a transferência de aprendizado de modelos de linguagem baseados em transformers para facilitar a construção de mensagens em sistemas de CAA.

19
  • EMANUEL RODRIGUES DO NASCIMENTO
  • GRUPO NO WHATSAPP DA SALA DE AULA DE GRADUANDOS: A INFLUÊNCIA DO CLIMA

  • Leader : PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • MEMBRES DE LA BANQUE :
  • DANIELLE ROUSY DIAS RICARTE
  • JOSE LUIZ PORTUGAL
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • RICARDO MARTINS DE ABREU SILVA
  • SERGIO RICARDO DE MELO QUEIROZ
  • Data: 25 juil. 2023


  • Afficher le Résumé
  • AAAA

20
  • ERIC RODRIGUES BORBA
  • Modelagem Estocástica de Sistemas de Armazenamento de Dados para Avaliação de Desempenho, Dependabilidade e Consumo Energético

  • Leader : EDUARDO ANTONIO GUIMARAES TAVARES
  • MEMBRES DE LA BANQUE :
  • LUIZ AFFONSO HENDERSON GUEDES DE OLIVEIRA
  • ANDRÉ BRINKMANN
  • ERICA TEIXEIRA GOMES DE SOUSA
  • NELSON SOUTO ROSA
  • RENATO MARIZ DE MORAES
  • Data: 28 juil. 2023


  • Afficher le Résumé
  • O aperfeiçoamento do armazenamento de dados pode vir a ser limitado pelo baixo desempenho de dispositivos de disco rígido (hard disk drives - HDDs) e o alto custo por gigabyte de dispositivos de estado sólido (solid-state drives - SSDs). Como consequência, trabalhos científicos propõem e avaliam arquiteturas e técnicas para sistemas de armazenamento híbridos, porém o consumo de energia é usualmente negligenciado. Além do mais, novas abordagens não consideram os impactos em componentes mecânicos de HDDs, e podem provocar um mal funcionamento e perda de dados. Da mesma forma, SSDs podem ter seu tempo de vida reduzido devido ao número limitado de programações (escritas) em memórias flash. Este trabalho apresenta uma abordagem baseada em redes de Petri estocásticas generalizadas (generalized stochastic Petri net - GSPN) para a avaliação de desempenho, dependabilidade, e consumo energético de sistemas de armazenamento tradicionais (HDD e SSD) e híbridos. Os modelos propostos representam diferentes cargas de trabalho (workloads) a partir de características relevantes (tipo da operação, padrão de acesso, e tamanho do objeto) para a avaliação de sistemas de armazenamento. Além disso, este trabalho adota a ferramenta Iometer para gerar cargas de trabalho e, através de medição, obter dados relacionados a operações de leitura e escrita.
    Simultaneamente, esta abordagem estima a potência demandada de HDDs e SSDs a partir de medições realizadas por um osciloscópio. Os modelos GSPN propostos adotam os resultados das medições para validação e experimentos. Análises estatísticas validam os modelos GSPN concebidos, em diferentes experimentos, os
    quais são compostos por: sistemas de armazenamento homogêneos (apenas HDD ou SSD) e híbrido (composto de 1 HDD e 1 SSD), além de diferentes cargas de trabalho. Em seguida, um planejamento de experimento (design of experiment - DoE) define os fatores e respectivos níveis mais impactantes para as métricas assumidas neste trabalho. Posteriormente, experimentos baseados em benchmarks padrões da
    indústria proporcionam uma comparação entre diferentes tecnologias de armazenamento. Os resultados comprovam a viabilidade da modelagem proposta, além de condições específicas nas quais tecnologias tradicionais ainda podem ser consideradas uma alternativa. Ademais, resultados evidenciam os benefícios de
    adotar sistemas de armazenamento híbridos, e uma política de armazenamento que leve em consideração as vantagens, e desvantagens, das tecnologias utilizadas.

21
  • SERGIO FERNANDOVITCH CHEVTCHENKO
  • Reinforcement Learning with Spiking Neural Networks

  • Leader : TERESA BERNARDA LUDERMIR
  • MEMBRES DE LA BANQUE :
  • SAEED AFSHAR
  • ALEXANDRE MARCIREAU
  • ANNA HELENA REALI COSTA
  • DENIS DERATANI MAUÁ
  • CLEBER ZANCHETTIN
  • Data: 15 août 2023


  • Afficher le Résumé
  • Nos últimos anos, sistemas de inteligência artificial têm progredido de forma impressionante, mas ainda estão aquém de cérebros biológicos simples em termos de capacidades de controle e consumo de energia. As redes neurais de impulsos (SNNs) buscam emular a eficiência energética, velocidade de aprendizado e processamento temporal de cérebros biológicos. No entanto, no contexto de aprendizado por reforço (RL), as SNNs ainda ficam aquém das redes neurais tradicionais. O objetivo principal deste trabalho é aproximar em termos de desempenho os modelos SNN dos algoritmos de aprendizagem profunda por reforço (DRL) em tarefas específicas. Para isso, propomos novas arquiteturas que foram comparadas, tanto em termos de velocidade de aprendizado quanto de precisão final, com algoritmos DRL e abordagens RL tabulares clássicas.

    Esta tese consiste em três etapas. A etapa inicial apresenta um modelo simples de uma rede de impulsos que aborda as limitações de escalabilidade de modelos relacionados em termos do espaço de estados. O modelo é avaliado em dois problemas clássicos de RL: grid-world e acrobot. Os resultados sugerem que o modelo proposto é comparável ao algoritmo tabular e a DRL, mantendo uma vantagem em termos de complexidade sobre o algoritmo DRL. Na segunda etapa, exploramos mais o modelo proposto, combinando-o com uma rede binária para extração de características. Uma rede neural convolucional (CNN) binária é pré-treinada em um conjunto de imagens RGB naturalistas e um conjunto separado de imagens é usado como observações em uma ambiente modificado de grid-world. Melhorias na arquitetura e na dinâmica são apresentadas para tratar esse problema mais complexo, com observações de imagens. Como antes, o modelo é comparado experimentalmente com algoritmos DRL do estado da arte. Além disso, experimentos complementares são fornecidos com objetivo de apresentar uma visão mais detalhada da conectividade e plasticidade entre diferentes camadas da rede. A terceira etapa desta tese apresenta uma nova arquitetura neuromórfica para resolver problemas de RL com observações de valores reais. O modelo proposto incorpora camadas de redução de dimensionalidade, com a adição de modulação por TD-error e eligibility traces, baseando-se em trabalhos anteriores. Um estudo adicional é focado em confirmar o impacto significativo desses componentes no desempenho do modelo proposto. O modelo supera consistentemente a abordagem tabular e descobre com sucesso políticas de controle estáveis nos ambientes mountain car, cart-pole e acrobot. Embora o modelo proposto não supere o PPO em termos de latência, ele oferece uma alternativa em termos de requisitos computacionais e de hardware: o modelo não requer um buffer de memória externo nem computação de gradiente de erro global. Além disso, as atualizações sinápticas ocorrem online, por meio de regras de aprendizado local e um sinal de erro global. A tese conclui apresentando limitações da pesquisa e sugestões de trabalhos futuros.

22
  • GILKA ROCHA BARBOSA
  • Um Framework para Gestão de Riscos em Projetos Acadêmicos

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • CARLOS EDUARDO SANCHES DA SILVA
  • CAROLINE MARIA DE MIRANDA MOTA
  • SERGIO CASTELO BRANCO SOARES
  • WELLINGTON PINHEIRO DOS SANTOS
  • Data: 24 août 2023


  • Afficher le Résumé
  • Gerenciar os riscos é vital para minimizar a possibilidade de falhas em 
    projetos e processos organizacionais. Nesse sentido, as instituições vêm 
    investindo em pesquisas e desenvolvimento de ferramentas e metodologias que 
    apoiem o gerenciamento de riscos que, embora, predominantes em muitos 
    setores, parecem ainda incipientes no ensino superior. Tendo em mente este 
    cenário e pretendendo mitigar o caráter desafiador da adoção de processos 
    de gestão de riscos nesse ambiente, esta tese foca no desenvolvimento de 
    uma solução para a prática da gestão de riscos de projetos acadêmicos no 
    âmbito das Instituição de Ensino Superior. Esta tese foi estruturada em um 
    planejamento metodológico de três etapas: Etapa 1 – Identificação e 
    Consolidação da lacuna na gestão de riscos de projetos acadêmicos em IES, 
    com bases em revisão ad hoc da literatura; Etapa 2 – Proposta e Construção 
    do framework para gerenciamento de riscos de projetos acadêmicos em IES, 
    fundamentados em mapeamento sistemático da literatura e survey. Etapa 3 – 
    Avaliação e Consolidação do framework, embasado em avaliação com técnicas 
    de Opinião de Especialistas e Grupo Focal. Entre as contribuições desta 
    tese destaca-se o framework Risk in Academic Project at Higher Education 
    (RAPHE), que apresenta quatro elementos em sua composição: Base de 
    Recomendações, com diretrizes para a execução do processo de gestão de 
    riscos e pode ser vistas como guia de boas práticas; Processos, que dispõe 
    de atividades e ações coordenadas para gerenciar; Base de Referências, que 
    é uma base de dados sobre de riscos de projetos acadêmico; e Procedimentos, 
    com rotinas para automação dos cálculos e acompanhamento da execução dos 
    processos. Certamente os resultados desta tese promoverão redução do 
    esforço empreendido e qualidade na gestão dos riscos e na tomada de decisão 
    em projetos acadêmicos.

23
  • YGOR CESAR NOGUEIRA SOUSA
  • A New Approach to Semantic Mapping Using Reusable Consolidated 
    Visual Representations

  • Leader : HANSENCLEVER DE FRANCA BASSANI
  • MEMBRES DE LA BANQUE :
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • ALUIZIO FAUSTO RIBEIRO ARAUJO
  • DOUGLAS GUIMARÃES MACHARET
  • EDNA NATIVIDADE DA SILVA BARROS
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • Data: 28 août 2023


  • Afficher le Résumé
  • O avanço da robótica pode produzir um impacto positivo em vários aspectos da nossa sociedade. No entanto, para que os agentes robóticos auxiliem os seres humanos em uma variedade de atividades cotidianas, eles precisam possuir representações de seus ambientes que permitam a compreensão espacial e semântica centrada em seres humanos. Muitos trabalhos na literatura recente usam Redes Neurais Convolucionais (CNN, do inglês Convolutional Neural Network) para reconhecer propriedades semânticas de imagens e incorporam os resultados em mapas métricos ou topológicos tradicionais, um procedimento conhecido como mapeamento semântico. Os tipos de propriedades semânticas (ex: tamanho do cômodo, categoria do lugar e objetos) e as classes semânticas (ex: cozinha e banheiro, para categoria de lugar) geralmente são previamente definidos e restritos a tarefas planejadas. Assim, todos os dados visuais adquiridos e processados durante a construção dos mapas são perdidos, restando apenas as propriedades semânticas reconhecidas nos mapas. Em contraste, esta pesquisa propõe usar os dados visuais adquiridos durante o processo de mapeamento para criar representações reutilizáveis de regiões pela consolidação de características visuais profundas extraídas dos dados. Essas representações consolidadas permitiriam o reconhecimento de novas informações semânticas de forma flexível e, consequentemente, a adaptação da semântica dos mapas a novos requisitos de novas tarefas. O uso de representações consolidadas reutilizáveis para a geração de mapas semânticos é demonstrado em um método de mapeamento topológico que cria representações consolidadas de características visuais profundas extraídas de imagens RGB capturadas em torno de cada nó topológico. Isso é feito usando um processo que denominamos como Consolidação de Características por Médias Móveis (CMA, do inglês Features Consolidation by Moving Averages). Experimentos realizados com conjuntos de dados internos do mundo real sugeriram que o método proposto é capaz de criar representações consolidadas que preservam as características visuais das imagens originais consolidadas e não degradam a qualidade ao longo do tempo. Os resultados promissores também sugeriram que as representações consolidadas produzidas são adequadas para reconhecer diferentes propriedades semânticas, identificar a localização topológica de imagens e adaptar mapas previamente criados com novas informações semânticas. Os experimentos incluíram duas CNNs diferentes para extração de características profundas, classificadores treinados em conjuntos de dados de larga escala da literatura e cenários mais práticos com execução em tempo real. Diferentes variações do método foram avaliadas, incluindo uma derivação do processo CMA que usa a média aritmética de múltiplas médias móveis exponenciais.

24
  • JOABE BEZERRA DE JESUS JUNIOR
  • Formal Round-Trip Engineering for Control Systems

  • Leader : AUGUSTO CEZAR ALVES SAMPAIO
  • MEMBRES DE LA BANQUE :
  • EDUARDO ANTONIO GUIMARAES TAVARES
  • JULIANO MANABU IYODA
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MARCIO LOPES CORNELIO
  • VALDIVINO ALEXANDRE DE SANTIAGO JUNIOR
  • Data: 28 août 2023


  • Afficher le Résumé
  • aaaa

25
  • LAURA MARÍA PALOMINO MARIÑO
  • Batch SOM algorithms for dissimilarity data” elaborada sob a orientação do professor Francisco de Assis Tenório de Carvalho

  • Leader : FRANCISCO DE ASSIS TENORIO DE CARVALHO
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • HANSENCLEVER DE FRANCA BASSANI
  • LEANDRO MACIEL ALMEIDA
  • RENATO FERNANDES CORREA
  • RENATO VIMIEIRO
  • Data: 1 sept. 2023


  • Afficher le Résumé
  • Nowadays, relatively few SOM algorithms are able to manage relational data, despite
    their usefulness. This research proposes five new batch SOM algorithms for relational data:
    the three first are available to handle relational data represented by one dissimilarity matrix
    (single-view), and the others are two families of SOM methods available to handle relational
    data represented by several dissimilarity matrices (multi-view). The algorithms are designed
    to give a crisp partition aiming to preserve the topological properties of the data on the map.
    The algorithms implemented four cluster representativeness approaches: in the first single-view model, namely SBSOM-CWMdd, the cluster representative is a set of weighted objects whose cardinality is fixed, being the same for all clusters. These weights are computed according to each object’s relevance to the referred cluster. In the second single-view model, namely SBSOM-ACWMdd, the representative is a vector of weighted objects selected according to its relevance to the referred cluster. Therefore, the dimensionality of the cluster representatives self adapts to the particular dataset analyzed, changes at each algorithm iteration, and can differ from one cluster to another. The last single-view and the first multi-view algorithms, namely SBSOM-MMdd and MBSOM-MMdd respectively, are SOM methods that consider the cluster representatives as vectors of weights whose components measure how objects are weighted as a medoid in a given cluster. The dimensionality of the vector of weights is the same as that of the analyzed dataset. Finally, in the second multi-view SOM algorithm, namely MRBSOM, each cluster representative is a normalized linear combination of the objects represented in the description space. Moreover, the multi-view algorithms are designed to learn the relevance weight of each dissimilarity matrix. In both families, the relevance weights change at each iteration and can be different from one cluster to another in the maps. The weight represents the relevance of each dissimilarity matrix being computed locally for each cluster, or globally for the whole partition, such that each matrix has a different influence on the mapping. All the proposed algorithms were compared with the most related benchmark methods available to handle one or several dissimilarity matrices. Experiments on 12 single-view and 14 multi-view datasets are performed by means of a similar parametrization regarding the metrics Normalized Mutual Information (NMI), Topographical error (TE), and Silhouette Coefficient (SIL). The statistical significance of the results provided by the experiments was assessed by using the non-parametric Friedman test together with the Nemenyi post-test. In most cases, regarding the single-view models, the SBSOM-ACWMdd algorithm has performed the best with a competitive temporal complexity. From the multi-view approaches, the family of MRBSOM algorithms outperformed the others. The experiments on the multi-view dataset showed the importance to take into account the weights of relevance of the dissimilarity matrices.
    Additionally, application studies were performed on the Ecoli and Dermatology datasets. The
    presented algorithms group less represented data with more quality than the previous models.

26
  • CAMILO CAMILO ALMENDRA
  • On the Integration of Requirements Engineering and Assurance Case 
    Development

  • Leader : CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • MEMBRES DE LA BANQUE :
  • MONALESSA PERINI BARCELLOS
  • ANDRÉ LUIZ DE OLIVEIRA
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • Data: 15 sept. 2023


  • Afficher le Résumé
  • Assurance Case Development (ACD) é uma abordagem emergente para demonstrar que um sistema é seguro. Os casos de garantia compreendem várias informações do projeto, incluindo requisitos e sua rastreabilidade para outros artefatos. Estudos recentes mostraram que é um desafio para as equipes construir casos de garantia, pois precisam identificar e reunir as informações do projeto relevantes para a argumentação e avaliar sua consistência e integridade. Além disso, informações regulares do projeto (por exemplo, requisitos, design, justificativa) e informações relacionadas à garantia (por exemplo, perigo, causas, estratégias de mitigação) provavelmente são gerenciadas separadamente. Nesse contexto, as equipes de software e garantia carecem de um repositório de informações compartilhado no qual possam colaborar, integrar artefatos e revisar a rastreabilidade. Motivados por esse cenário, propomos um framework chamad AssuRance CAse DEvelopment (ARCADE) para apoiar as equipes no gerenciamento de informações de garantia dentro de ferramentas tradicionais de gerenciamento de projetos e para fornecer às equipes a realização de avaliação automatizada e geração de casos de garantia. Esta pesquisa foi realizada em quatro etapas. Primeiro, um Estudo de Mapeamento Sistemático para identificar e analisar as abordagens existentes para o desenvolvimento de casos de garantia incremental. Em segundo lugar, uma pesquisa com profissionais para entender como a engenharia de requisitos e as atividades de ACD interagem atualmente. Terceiro, o desenvolvimento do framework e seus componentes. Quarto, avaliação do ARCADE por meio de a) cenários ilustrativos; e b) um estudo qualitativo com profissionais. A primeira etapa resultou na identificação de 16 abordagens que abordam o desenvolvimento incremental de casos de garantia ao longo do ciclo de vida do desenvolvimento do sistema, que são os resultados esperados e os papéis envolvidos na interseção de desenvolvimento de software e ACD. A segunda etapa resultou em novas evidências de que a integração entre engenharia de requisitos e ACD ocorre em todas as atividades de engenharia de requisitos e que os profissionais percebem benefícios como aumento da compreensão sobre garantia de segurança, desenvolvimento precoce de rastreabilidade e identificação precoce das necessidades de evidências de garantia. Além disso, os profissionais veem a especificação de requisitos e a análise de requisição de mudanças como as atividades mais adequadas para integrar o ACD e a engenharia de requisitos. Na terceira etapa, o framework ARCADE foi projetado e implementado para abordar algumas das lacunas de pesquisa e prática identificadas nos estudos anteriores. O núcleo da estrutura é uma ontologia operacional projetada para inter-relacionar conceitos de requisitos de segurança e domínios de caso de garantia. O framework automatiza a recuperação de dados de ferramentas de gerenciamento de projetos, para inserir em um raciocinador de ontologia. O framwork realiza consulta aos dados da ontologia para gerar relatórios de consistência e descoberta de conhecimento, além de gerar fragmentos de casos de garantia. Na quarta etapa, o ARCADE foi avaliado por meio de dois cenários ilustrativos baseados em conjuntos de dados disponíveis ao público. A análise dos relatórios e casos de garantia gerados para os conjuntos de dados resultou na identificação de lacunas de rastreabilidade e fragmentos de casos de garantia com base em diferentes padrões de argumentação. No estudo qualitativo com profissionais, coletamos suas percepções sobre os recursos do ARCADE: recuperação automática de informações de ferramentas de gerenciamento de projetos, análise de consistência, exploração de conhecimento e geração de casos de garantia. Conforme evidenciado nas avaliações realizadas, o ARCADE tem o potencial de ajudar as equipes a colaborar em requisitos e artefatos de garantia usando ferramentas regulares de gerenciamento de projetos, promovendo assim a revisão inicial e contínua dos aspectos de garantia de segurança do sistema em desenvolvimento.

27
  • MÁVERICK ANDRÉ SOARES DIONÍSIO FERREIRA
  • Análise de rede para identificar o discurso sociocognitivo 
    presente nos papéis desempenhados por estudantes em fóruns de discussão

  • Leader : RAFAEL DUEIRE LINS
  • MEMBRES DE LA BANQUE :
  • FILIPE DWAN PEREIRA
  • RAFAEL DIAS ARAÚJO
  • ADENILTON JOSÉ DA SILVA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • Data: 25 sept. 2023


  • Afficher le Résumé
  • Os fóruns de discussões são ferramentas importantes para promover a 
    interação social no contexto da Educação à Distância, pois permitem que 
    estudantes e professores possam estabelecer um ambiente de colaboração. 
    Apesar disso, estudos têm pontuado a dificuldade dos professores em 
    acompanhar as discussões ao passo em que o número de postagens aumenta. 
    Onde, para impulsionar debates com níveis elevados de aprendizagem, a 
    literatura tem defendido o acompanhamento dos fóruns sob o olhar de uma 
    teoria educacional denominada de Comunidade de Inquérito (CoI), que é 
    composta por três dimensões: presença social, presença cognitiva e presença 
    de ensino. Acredita-se também que definição prévia dos papéis/funções que 
    os estudantes devem assumir durante os debates, e o acompanhamento dos 
    papéis que os discentes assumirão espontaneamente, são relevantes para o 
    processo de mediação nos fóruns. Todavia, como os professores podem 
    acompanhar tais aspectos das contribuições textuais inseridas nos fóruns a 
    medida em que os debates se intensificam? Podendo essa dificuldade de 
    acompanhamento resultar em diversos problemas, dentre eles: demora para os 
    professores fornecerem \textit{feedback} aos estudantes ocasionando, assim, 
    desmotivação; e desconhecimento por parte dos professores dos 
    desdobramentos das discussões, papéis assumidos pelos estudantes, 
    impossibilitando a devida (re)adequação do design instrucional. Diante 
    disso, nos últimos anos, diversos estudos foram realizados com o objetivo 
    de construir mecanismos voltados para o acompanhamento automático das 
    interações sociais e dos papéis desempenhados pelos estudantes durante os 
    debates. Com isso, evidencia-se um problema no âmbito técnico referente as 
    deficiências presentes nos recursos de Processamento de linguagem natural 
    (PLN) para a língua portuguesa. Tal problema dificulta a construção de 
    modelos de PLN voltados para ambientes ricos de linguagem como os fóruns de 
    discussão, por exemplo, em países onde a Educação online e/ou híbrida tem 
    crescido ao longo dos últimos anos como o Brasil. Portanto, esta tese 
    propõe: 1) uma abordagem de classificação, multilingua e automática, capaz 
    de classificar postagens de fóruns de discussão de acordo com as categorias 
    das presenças social e cognitiva da teoria educacional Comunidade de 
    Inquérito (CoI); 2) uma abordagem para acompanhamento dos papéis 
    roteirizados e emergentes, desempenhados pelos estudantes nos fóruns, com 
    base nas presenças social e cognitivas do modelo CoI.

28
  • DELANO HÉLIO OLIVEIRA
  • Understanding Code Understandability

  • Leader : FERNANDO JOSE CASTOR DE LIMA FILHO
  • MEMBRES DE LA BANQUE :
  • MARCELO DE ALMEIDA MAIA
  • HENRIQUE EMANUEL MOSTAERT REBELO
  • LEOPOLDO MOTTA TEIXEIRA
  • RODRIGO BONIFACIO DE ALMEIDA
  • SERGIO CASTELO BRANCO SOARES
  • Data: 1 nov. 2023


  • Afficher le Résumé
  • A compreensão de programas é amplamente reconhecida como uma tarefa essencial, porém demanda muito tempo, no desenvolvimento de software. Existem muitas teorias, abordagens e ferramentas para auxiliar os desenvolvedores a entender um programa e suas funcionalidades. No entanto, não há uma compreensão abrangente dos fatores detalhados que podem afetar a legibilidade de forma e a legibilidade de conteúdo de programas e, portanto, a compreensão. Entender esses fatores é importante para ajudar os desenvolvedores a escreverem um código melhor, o que acontece antes da necessidade de entender tal código. Nesta tese, apresentamos o que sabemos até agora em termos desses fatores detalhados com base na literatura e na prática. Na literatura, conduzimos uma revisão de estudos experimentais centrados no ser humano que compararam maneiras alternativas de escrever código em termos de compreensão. Na prática, realizamos uma investigação de revisões de código e das respectivas mudanças de código realizadas pelos desenvolvedores no GitHub para melhorar a compreensão do código. Por fim, discutimos possíveis direções e desafios para a criação de guias abrangentes de codificação ou o desenvolvimento de linters para ajudar os desenvolvedores a escreverem um código mais compreensível.

29
  • FLÁVIO ARTHUR OLIVEIRA SANTOS
  • Advancing Deep Learning Models for Robustness and Interpretability 
    in Image Recognition

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • LEONARDO NOGUEIRA MATOS
  • DALILA DURAES
  • BYRON LEITE DANTAS BEZERRA
  • RICARDO MATSUMURA DE ARAÚJO
  • TSANG ING REN
  • Data: 6 déc. 2023


  • Afficher le Résumé
  • As arquiteturas de Deep Learning estão entre os modelos de aprendizado de máquina mais promissores na atualidade. Elas são utilizadas em diversos domínios, incluindo descoberta de medicamentos, reconhecimento de fala, reconhecimento de objetos, perguntas e respostas, tradução de máquina e descrição de imagens. Surpreendentemente, alguns estudos relatam até mesmo desempenho super-humano, ou seja, um nível de desempenho superior ao de especialistas humanos em determinadas tarefas. Embora esses modelos exibam alta precisão e cobertura, a literatura mostra que também possuem várias limitações: (1) são vulneráveis a ataques adversários, (2) possuem dificuldade em inferir dados fora da distribuição de treinamento, (3) fornecem inferências corretas com base em informações espúrias e, além disso, (4) suas inferências são de difícil interpretação por um especialista do domínio. Essas limitações tornam desafiador adotar esses modelos em aplicações de alto risco, como carros autônomos ou diagnósticos médicos. A superação destas limitações demanda robustez, confiabilidade e interpretabilidade. Nesta tese, é realizada uma exploração abrangente de técnicas e ferramentas, voltadas para aprimorar a robustez e interpretabilidade de modelos de Deep Learning no domínio de processamento de imagens. Essas contribuições abrangem quatro áreas-chave: (1) o desenvolvimento do método de aumento de dados de imagem ativo (ADA) para melhorar a robustez do modelo, (2) a proposição da função de perda adversarial right for right reasons (ARRR) para garantir que os modelos estejam "certos pelos motivos certos" e adversarialmente robustos, (3) a introdução do método de aumento de dados right for right reasons (RRDA) que melhora dentre os dados de treinamento o contexto das informações a serem representadas para estimular o foco do modelo em características de sinal, e (4) a apresentação de um novo método  para interpretar o comportamento dos modelos durante o processo de inferência. Apresentamos ainda uma ferramenta para manipular características visuais e avaliar a robustez dos modelos treinados sob diferentes situações de uso. As análises realizadas demonstram que o método ADA melhora a robustez dos modelos sem comprometer métricas tradicionais de desempenho. O método ARRR demonstra robustez ao viés de cor das imagens em problemas baseados em informações estruturais das imagens. Além disso, o método RRDA melhora significativamente a robustez do modelo em relação a deslocamentos de fundo da imagem, superando o desempenho de outros métodos RRR tradicionais. Finalmente, a ferramenta de análise de modelos proposta permite revelar a interdependência contraintuitiva de características e avaliar fraquezas nas decisões de inferência dos modelos. Estas contribuições representam avanços significativos no campo do Deep Learning aplicado ao processamento de imagens, fornecendo insights valiosos e soluções inovadoras para desafios associados à confiabilidade e interpretação desses modelos complexos.

30
  • LEVY DE SOUZA SILVA
  • Finding Structured Data From Text Using Language Models

  • Leader : LUCIANO DE ANDRADE BARBOSA
  • MEMBRES DE LA BANQUE :
  • FERNANDO MACIANO DE PAULA NETO
  • LEANDRO MACIEL ALMEIDA
  • MIRELLA MOURA MORO
  • RAFAEL FERREIRA LEITE DE MELLO
  • RODRIGO FRASSETTO NOGUEIRA
  • Data: 7 déc. 2023


  • Afficher le Résumé
  • A Internet é uma rica fonte de informação estruturada. De tabelas HTML até coleções de dados públicos, existe um enorme conjunto de dados relacionais online. Estudos anteriores estimam que mais de 100 milhões de tabelas, em formato HTML, podem ser encontradas na Internet. Não se limitando a estas, um grande número de repositórios de dados fornecem acesso a milhares de coleções estruturadas. Como resultado, nos últimos anos, vários estudos exploram estes dados em diversas aplicações. Por exemplo, tabelas HTML são utilizadas para a tarefa de perguntas e respostas, onde o objetivo é recuperar uma tabela que responda a uma pergunta de uma coleção de tabelas. No contexto de dados públicos, a principal aplicação é a busca por conjunto de dados, que encontra uma coleção de dados para um usuário final. O ponto de intersecção destas tarefas é a correspondência de dados estruturados e não estruturados, além de uma tarefa de classificação. Ademais, o principal desafio é construir um modelo robusto para calcular a similaridade entre perguntas e tabelas. Nesse contexto, este trabalho de tese está dividido em três partes. Na primeira, exploramos o problema de recuperação de tabelas para perguntas e respostas, sumarizando as melhores soluções para esta tarefa. Em seguida, introduzimos uma nova tarefa para correlação de notícias e tabelas, aplicadas para expandir o conteúdo das notícias. Por fim, focamos na tarefa de busca por conjuntos de dados. Especificamente, as principais contribuições desta tese são: (I) nós apresentamos uma nova taxonomia para a tarefa de recuperação de tabelas que classifica os métodos em cinco grupos, desde abordagens probabilísticas até redes neurais sofisticadas. Este estudo também aponta que os melhores resultados para esta tarefa são alcançados por meio de modelos de redes neurais profundas, utilizando redes recorrentes e arquiteturas convolucionais; (II) nós introduzimos um novo modelo de atenção baseado em BERT para calcular o grau de similaridade entre notícias e tabelas, além de comparar seu desempenho com técnicas de recuperação de informação, codificadores de sentenças e documentos, modelos de correspondência de textos e abordagens de redes neurais. Em resumo, um teste de hipótese confirma que nossa abordagem supera todos os outros modelos considerando uma métrica de classificação média; e (III) nós propomos DAPDR, uma solução que usa modelos de linguagens para criar perguntas sintéticas para coleções de dados, que são aplicadas no treinamento de modelos supervisionados. Por fim, DAPDR é avaliado utilizando dados experimentais para esta tarefa e modelos densos de recuperação de informação, cujos principais resultados mostram que os modelos ajustados em DAPDR superam estatisticamente os modelos originais em diferentes níveis de NDCG.

31
  • ALEXANDRE STRAPAÇÃO GUEDES VIANNA
  • Guidelines for Testing Data Stream Processing Applications

  • Leader : KIEV SANTOS DA GAMA
  • MEMBRES DE LA BANQUE :
  • PAULO SERGIO LOPES DE SOUZA
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • NELSON SOUTO ROSA
  • SERGIO CASTELO BRANCO SOARES
  • THAIS VASCONCELOS BATISTA
  • Data: 18 déc. 2023


  • Afficher le Résumé
  • A abordagem de processamento de fluxos de dados se concentra no processamento de dados em tempo real, aplicando técnicas específicas para capturar, processar e obter resultados em voo, ou seja, sem haver armazenamento dos dados. Esta abordagem tem recebido atenção da indústria de software, pois ao longo dos últimos anos houve um forte crescimento da quantidade de dados gerados por aplicações de smartphones, dispositivos da Internet das Coisas, redes sociais, websites e aplicações na Internet. O processamento de fluxos de dados permite obter informações sobre os dados que são valiosos por apenas um curto período de tempo após a sua geração (alguns milissegundos ou segundos). Exemplos de aplicações críticas de fluxos de dados incluem sistemas anti-fraudes, detecção de comportamento anômalo de usuários em sistemas de computadores e monitoramento de falhas em equipamentos industriais. Cada vez mais, diversos setores se beneficiam do processamento de fluxos de dados, tais como mercado financeiro, sistema bancário, comércio eletrônico, marketing digital, redes sociais, telecomunicações e monitoramento de infraestruturas urbanas.
    Assim como qualquer outro software, o teste deste tipo de aplicação tem um papel crítico para a garantia de qualidade. Entretanto, testar aplicações que processam fluxos de dados não é uma tarefa simples, pois neste contexto há alguns fatores que dificultam a realização de testes, tais como a temporalidade das mensagens, o paralelismo de processamento, o grande volume de dados, a variabilidade de dados, a velocidade das mensagens, a complexidade da infraestrutura, entre outros. Projetar uma infraestrutura de testes que lide com todos estes fatores não é uma tarefa fácil, uma vez que é desafiador simular as configurações em que os erros se manifestam. A solução para os testes de aplicações que processam fluxos de dados envolve o desenvolvimento de metodologias e ferramentas específicas.
    Dada a relevância do tema para indústria e a escassez de estudos acadêmicos neste contexto, o principal objetivo deste trabalho é desenvolver e avaliar um conjunto de diretrizes para orientar a realização de testes em aplicações que processam fluxos de dados. Para alcançar o objetivo proposto, a metodologia tem três etapas principais: investigação, proposição e avaliação. A primeira etapa é a investigação, na qual são realizados três estudos empíricos com praticantes da indústria, começamos com a aplicação de cento e um questionários para um grupo amplo de profissionais que trabalham com fluxos de dados, posteriormente selecionamos um conjunto de doze profissionais para entrevistas. Atualmente está em progresso uma revisão de literatura cinzenta, na qual mais de mil e seiscentas fontes estão sendo analisadas e selecionadas. Os três estudos focam na extração de dados que fundamentam a etapa de proposição, a qual consiste no desenvolvimento do conjunto de diretrizes como artefato principal desta pesquisa. Por fim, a terceira etapa é a avaliação do conjunto de diretrizes proposto. O método avaliativo adotado é a realização de entrevistas semi-estruturadas com praticantes da indústria para coletar a percepção dos profissionais da área quanto aos benefícios e a aplicabilidade das diretrizes.
    Assim sendo, esta tese de doutorado desenvolve pesquisa relacionada a um tema emergente na indústria através da colaboração dos praticantes. O conjunto de diretrizes a ser proposto será fundamentado nos conhecimentos e experiências práticas de especialistas que trabalham com problemas reais, e a avaliação das diretrizes se dará pelos próprios especialistas. Ao publicar as diretrizes se espera fechar o ciclo colaborativo com resultados práticos e aplicáveis para a indústria.

2022
Thèses
1
  • ALESSANDRA ALELUIA ALVES
  • Ama: um sistema especialista de aprendizado para balé adulto através de feedback verbal automático

  • Leader : GIORDANO RIBEIRO EULALIO CABRAL
  • MEMBRES DE LA BANQUE :
  • MARLINI DORNELES DE LIMA
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • Data: 18 janv. 2022


  • Afficher le Résumé
  • Com a introdução da computação no balé clássico, podemos pensar em novas 
    possibilidades de ensino-aprendizagem que sejam mais inclusivas e 
    democráticas. Na literatura científica atual, existem trabalhos voltados 
    para o aprendizado do balé, mas pouco se fala do público de balé adulto. 
    Esse público, caracterizado por pessoas com 18 ou mais anos de idade e que 
    não necessariamente possui o objetivo de se tornar bailarino profissional, 
    possui um perfil e objetivo diferentes do tradicional bailarino de uma 
    grande companhia de dança e é cada vez mais frequente de ser encontrado em 
    diversas academias de balé. Portanto, este trabalho trata-se de uma 
    pesquisa baseada em inovação que explorou as possibilidades de uso da 
    tecnologia para auxiliar o aprendizado de balé clássico através do 
    feedback, especializando-se posteriormente no público de balé adulto e 
    fornecendo  feedback verbal automatizado. Após uma pesquisa junto ao 
    público-alvo que utilizaria esse tipo de tecnologia que auxiliasse nos 
    treinos de balé em casa, foi desenvolvido um sistema especialista chamado 
    Ama. O primeiro protótipo de Ama contou com uma interface visual e feedback 
    verbal em tempo real e foi avaliado por bailarinos e professores de balé 
    clássico. Os resultados obtidos demonstraram a possibilidade de 
    fornecimento de feedback útil ao bailarino de maneira inclusiva e que 
    atendesse suas necessidades, além das possíveis funcionalidades propostas 
    terem sido consideradas pertinentes pelo público que poderia utilizar a 
    ferramenta futuramente. Assim, conseguimos avançar na área que une dança e 
    tecnologia e no entendimento científico e prático de formas de interação e 
    design de tecnologias voltadas para o aprendizado de balé clássico.

2
  • WALBER DE MACEDO RODRIGUES
  • Dynamic Ensemble of Classifiers and Security Relevant Methods of 
    Android’s API: An Empirical Study

  • Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBRES DE LA BANQUE :
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • RAFAEL MENELAU OLIVEIRA E CRUZ
  • Data: 10 févr. 2022


  • Afficher le Résumé
  • O sistema operacional Android disponibiliza funções e métodos de manuseio 
    de dados sensíveis para proteger os dados dos usuários. Dados sensíveis são 
    todo tipo de dados que podem identificar o usuário, como localização de 
    GPS, dados biométricos e informações bancárias. A literatura de segurança 
    Android propõe extrair features binárias de um método e classificar-lo em 
    uma das classes de Security Relevant Methods, agregando informação de o 
    método manuseia dados sensíveis. Entretanto, existe uma lacuna na 
    literatura onde não são avaliados algoritmos de Ensemble Dinâmico. Os 
    algoritmos de Ensemble Dinâmico são estado da arte para Sistemas de 
    Múltiplos classificadores, que por sua vez, não atacam objetivamente o tipo 
    específico de features binárias. Assim sendo, este trabalho endereça a 
    lacuna em relação a algoritmos de Ensemble Dinâmicos aplicados ao problema 
    de classificação de Security Relevant Methods. Nossas análises mostram que, 
    ao contrário do que é inicialmente posto pela literatura, SVM não é o 
    melhor classificador para esse problema, sendo MLP, Random Forest, Gradient 
    Boosted Decision Trees e META-DES usando \text{Random Forest como geração 
    do pool os melhores resultados. Também constatamos que, em geral, 
    algoritmos de Ensemble Dinâmico possuem uma desvantagem em relação aos 
    classificadores monolíticos. Ademais, essa desvantagem é exarcebada em 
    algoritmos que utilizam classificadores baseados em distância, como o OLP. 
    Quando utlizamos o algoritmo de embedding Triplet Loss, observamos um 
    aumento de performance para o kNN e OLP, mas não de outras técnicas de 
    Ensemble Dinâmico, mostrando que um conjunto de features binárias tem 
    impacto mais significativo sobre esses algoritmos.

3
  • ALEXANDRE LUÍS BÔA-VIAGEM DE FRANÇA
  • Uma Arquitetura Multinível para Fusão de Dados de monitoramento do consumo de energia elétrica a partir de Redes de sensores sem fio.

  • Leader : FLAVIA DE ALMEIDA BARROS
  • MEMBRES DE LA BANQUE :
  • CARLOS ANDRE GUIMARAES FERRAZ
  • FLAVIA DE ALMEIDA BARROS
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • Data: 11 févr. 2022


  • Afficher le Résumé
  • Em cenários corporativos, o alto consumo de energia elétrica impacta a  lucratividade e a qualidade dos produtos e serviços oferecidos. No setor industrial brasileiro, os gastos com energia elétrica podem chegar a 40% dos custos de produção. A utilização racional de energia, ou eficiência energética, torna-se um forte aliado das empresas, sobretudo no setor industrial. Contudo, a eficiência energética requer altos investimentos em automação industrial, que geralmente é invasiva e requer altos investimentos em sua implantação e manutenção. Claramente, obter maior eficiência energética a custo acessível e com portabilidade e escalabilidade apresenta-se como um desafio. Nesse contexto, este trabalho propõe a utilização de redes de sensores sem fio (RSSF), não invasivas e de baixo custo, para monitoramento de equipamentos eletroeletrônicos residenciais ou industriais utilizando a abordagem de IoT (Internet of Things). Os dados coletados são fusionados através de uma arquitetura multinível de fusão de dados projetada neste trabalho, gerando assim informações com maior valor agregado (revelando, por exemplo, as principais grandezas elétricas inerentes à demanda e ao consumo de energia). Com o monitoramento contínuo e em tempo real, é possível identificar falhas e tomar ações corretivas com mais rapidez, evitando desperdícios e gerando economia. As RSSFs foram implantadas em dois contextos distintos: um ambiente residencial, e um ambiente industrial. O estudo de caso realizado em ambiente doméstico focou na implementação de uma RSSF atrelada a uma geladeira, com vistas a monitorar o consumo de energia por um determinado período. O segundo estudo de caso foi desenvolvido em um ambiente industrial, com objetivo foi monitorar remotamente o consumo de energia de um equipamento denominado “extrusora”, em uma pequena indústria de plástico da região Metropolitana do Recife. Em ambos os casos, os resultados foram muito positivos. Além do grande valor gerencial dos resultados obtidos a partir da fusão dos dados, conseguimos também confirmar a escalabilidade e a independência de domínio da arquitetura de fusão proposta nesse trabalho, que foi utilizada em ambos os estudos de caso com pequenas alterações no hardware (mudança de transformadores de corrente, microcontroladores e o rádio).

4
  • GERMANA ARRUDA DE QUEIROZ
  • O que devemos aprender sobre ética na engenharia de software e o que estamos estudando formalmente na academia brasileira?

  • Leader : GEBER LISBOA RAMALHO
  • MEMBRES DE LA BANQUE :
  • CLARISSE SIECKENIUS DE SOUZA
  • GEBER LISBOA RAMALHO
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • Data: 11 févr. 2022


  • Afficher le Résumé
  • CONTEXTO: O software está cada vez mais presente em nossas vidas e nos influencia constantemente. Por exemplo, os carros autônomos desenvolvidos e as redes sociais podem introduzir preconceitos, quebrar preferências de privacidade, levar ao vício digital e outras questões semelhantes. OBJETIVO: Este estudo tem como objetivo identificar os dilemas éticos que ocorrem na engenharia de software e verificar como este assunto está sendo ensinado na área de TI. MÉTODO: Foi realizado um estudo de mapeamento sistemático; a pesquisa retornou 744 artigos de quatro bases de dados, dos quais 50 foram aceitos para extração de dados. Além disso, foi realizado um survey na área de educação; obtivemos 93 participantes na pesquisa e ao final foi realizado uma análise documental sobre a disciplina de ética em 20 universidades brasileiras. RESULTADOS: A partir dos dados extraídos na revisão, foi possível responder às questões de pesquisa e compreender os dilemas éticos que estiveram presentes nos últimos cinco anos. Os principais dilemas que podem auxiliar no direcionamento do ensino da ética no ensino superior foram privacidade, conscientização e segurança. Por meio do survey, foram coletados opiniões de alunos e professores universitários: 63% dos alunos relataram que a disciplina de ética é importante para a grade curricular dos cursos de graduação e pós-graduação da área de informática; 61,3% possuíam conhecimentos sobre ética aplicada ao seu campo profissional; 75,3% consideram a ética importante para os profissionais de TI; 35,5% tinham interesse em fazer curso relacionado à ética; 72% não leram o código de ética profissional em nenhuma área da tecnologia da informação; e 47,3% nunca estudaram ética. A percepção dos professores mostrou que 82,3% nunca ensinaram sobre a existência de um código de ética específico em tecnologia da informação; 93,1% afirmaram que o código de ética e conduta profissional é necessário para uma boa conduta profissional; e 72% não leram muito sobre questões éticas. Por meio da análise documental, foi coletada informações sobre assuntos relacionados às universidades brasileiras como carga horária (30-75 horas), ementa e as recomendações do MEC e SBC. CONCLUSÃO: O estudo de mapeamento contribuiu para evidenciar que as principais questões éticas que foram discutidas na literatura científica foram privacidade e transparência, o survey sobre a opinião de alunos e professores contribuiu para melhor compreensão e sugestões de mudanças futuras para obter maior interesse dos alunos e maior motivação profissional dos professores e a análise documental mostra que privacidade é uma questão discutida tanto na academia quanto nas publicações científicas, transparência foi visualizada mais nas publicações e não nas ementas dos cursos universitários, outros dilemas éticos foram visualizados como propriedade intelectual e responsabilidade.  

     

     

5
  • ESDRAS SOUTO COSTA
  • Meta Aprendizado para Detecção de Anomalia em Imagens

  • Leader : GERMANO CRISPIM VASCONCELOS
  • MEMBRES DE LA BANQUE :
  • GEBER LISBOA RAMALHO
  • GERMANO CRISPIM VASCONCELOS
  • JAIRSON BARBOSA RODRIGUES
  • Data: 15 févr. 2022


  • Afficher le Résumé
  • A detecção de anomalias é uma tarefa crucial, tem um enorme impacto na 
    sociedade e no bem-estar das pessoas. Considerada um problema desafiador, 
    uma vez que a definição de ‘anomalia’ é ambígua, ou seja, qualquer evento 
    que não esteja em conformidade com um comportamento considerado ‘normal’ 
    pode ser visto como uma anomalia. Como exemplo, algumas situações 
    enfrentadas diariamente em que algo é ‘anormal’ ou fora do comum: um 
    acidente de trânsito; doenças; uma transação no cartão de crédito suspeita 
    e assim por diante. Apesar dos grandes avanços em trabalhos recentes na 
    detecção automática de anomalias e na área de Redes Neurais Profundas, tais modelos ainda demandam uma grande quantidade de dados para que se tire proveito de sua expressividade e desempenho. Sendo assim, o presente 
    trabalho apresenta uma nova abordagem para a detecção semi-supervisionada de anomalias, quando somente de amostras ‘normais’ são consideradas no treinamento, bem como somente alguns exemplos estão disponíveis. Usando técnicas de meta-aprendizado, em particular MAML, a abordagem proposta é comparada com outros algoritmos na base de dados MVTec AD e demonstrou resultados promissores em tarefas de detecção de anomalias em objetos nunca vistos em treinamento.

6
  • RENATA REGINA MENEZES DE OLIVEIRA BARBOSA
  • Spotify como Ferramenta de Construção do Gosto: Um Estudo sobre os 
    Efeitos do Consumo de Conteúdos Recomendados por Inteligência Artificial

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • FREDERICO ARAUJO DURAO
  • GEBER LISBOA RAMALHO
  • SERGIO RICARDO DE MELO QUEIROZ
  • Data: 15 févr. 2022


  • Afficher le Résumé
  • Nos últimos anos, tem se tornado cada vez mais comum o surgimento de 
    plataformas, em vários setores, que trabalham com sistemas de recomendação. 
    Visto que, do ponto de vista das plataformas, um importante propósito das 
    recomendações é manter os usuários consumindo os conteúdos 
    disponibilizados, utilizando inúmeras informações do comportamento dos 
    usuários, foi observada a necessidade de entender as consequências do seu 
    uso na sociedade. Surgem então alguns questionamentos: poderia essa nova 
    dinâmica ser responsável por conduzir uma mudança no gosto dos usuários? Os conteúdos produzidos para consumo na plataforma também podem sofrer 
    influência?
    A partir deste contexto, esta dissertação tem como propósito analisar os 
    efeitos do consumo de conteúdos recomendados por inteligência artificial na 
    sociedade. Tendo como bases principais a teoria do gosto (1979) do 
    sociólogo Pierre Bourdieu e o conceito de onívoro cultural de DiMaggio 
    (1987) e Richard Peterson e Albert Simkus (1992), procura-se observar quais 
    as consequências causadas pelo uso de plataformas que utilizam dados do 
    perfil do usuário em sistemas de recomendação que enviam conteúdos para 
    serem consumidos, dado que o gosto não é produto resultante do 
    livre-arbítrio, mas algo construído pelas condições de existência que 
    moldam as preferências do indivíduo ao longo do tempo. Como objeto de 
    estudo a plataforma de streaming musical Spotify foi selecionada, 
    considerando-se sua popularidade no Brasil. Por meio de uma pesquisa 
    quali-quantitativa e da construção de um grupo focal onde o histórico de 
    uso da plataforma foi acompanhado por 5 meses, foi possível observar que o 
    capital cultural, o consumo de conteúdo recomendado e a diversidade de 
    gêneros são fatores de grande influência na equivalência entre o conteúdo 
    já consumido e aquele que será recomendado. Além disso, a falta de 
    similaridade entre os conteúdos de alguns usuários indicam a possibilidade 
    do conteúdo sugerido ser resultado de uma ação publicitária, sem levar em 
    consideração o histórico de consumo do usuário e sim se ele faz parte do 
    público alvo que o artista pretende alcançar. Quanto aos onívoros 
    culturais, o fato do usuário ser considerado um não obteve influência 
    significativa nos resultados. Desta forma, a pesquisa contribui para 
    debates sobre classes, dinâmica de consumo musical e inteligência 
    artificial no século 21.

7
  • MOISÉS NEVES CAMÊLO
  • G-Priv: um guia para especificação de requisitos de privacidade em 
    conformidade com a LGPD.

  • Leader : CARINA FROTA ALVES
  • MEMBRES DE LA BANQUE :
  • EDNA DIAS CANEDO
  • CARINA FROTA ALVES
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • Data: 22 févr. 2022


  • Afficher le Résumé
  • A Lei Geral de Proteção de Dados (LGPD) visa proteger os dados pessoais, 
    inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de 
    direito público ou privado. Atualmente, as organizações precisam 
    implementar várias medidas para garantir que seus sistemas de software 
    estejam em conformidade com a lei. No entanto, a LGPD assim como outras 
    legislações são de difícil entendimento por parte dos profissionais de TI, 
    principalmente para extrair e operacionalizar requisitos legais. Dessa 
    forma, esta pesquisa visa auxiliar analistas de requisitos na especificação 
    dos requisitos de privacidade para garantir sua conformidade com a LGPD. 
    Para atingir este objetivo, foram realizadas entrevistas exploratórias, com 
    o intuito de investigar o ponto de vista de analistas de requisitos 
    ressaltando possíveis desafios enfrentados na especificação de requisitos 
    de privacidade. As entrevistas revelaram os principais achados 
    classificados em cinco categorias: Conceitos de Privacidade, Processo de 
    Conformidade, Obstáculos na Conformidade, Tradeoff entre Privacidade e 
    Transparência, Rotina de Trabalho. A partir da análise dos dados coletados 
    nas entrevistas, foi elaborado um guia chamado G-Priv para apoiar a 
    especificação de requisitos de privacidade em conformidade com a LGPD. O 
    guia proposto possui atividades bem definidas, templates e um catálogo com 
    padrões de requisitos de privacidade. Ao final da pesquisa, executamos um 
    survey com 18 participantes com o objetivo de avaliar a aceitação do G-Priv 
    e dos artefatos propostos no guia. O survey foi conduzido através de um 
    questionário utilizado no formulário no Google Forms, como também foi 
    disponibilizada uma documentação detalhada do guia, apresentando de forma 
    sistemática as suas etapas, interações entre os atores e os templates 
    disponibilizados. Com base na avaliação, o G-Priv foi considerado de fácil 
    entendimento, principalmente na definição dos papeis e responsabilidades 
    dos atores envolvidos nas quatro etapas do guia. Os participantes do survey 
    também ressaltaram a agilidade de utilização do guia. Sendo assim, 
    consideramos que o guia proposto pode auxiliar analistas de requisitos na 
    especificação dos requisitos de privacidade em conformidade com a LGPD.

8
  • MATHEUS BARBOSA DE OLIVEIRA
  • Detecção de conflitos semânticos via análise estática de 
    subistituição de atribuição

  • Leader : PAULO HENRIQUE MONTEIRO BORBA
  • MEMBRES DE LA BANQUE :
  • EDUARDO FIGUEIREDO
  • MARCIO DE MEDEIROS RIBEIRO
  • PAULO HENRIQUE MONTEIRO BORBA
  • Data: 23 févr. 2022


  • Afficher le Résumé
  • O processo de desenvolvimento de software atual, exceto em casos especiais, 
    é feito de forma colaborativa. Na medida que novos requisitos são 
    levantados, novas tarefas são definidas e alocadas a desenvolvedores 
    diferentes. Os desenvolvedores, no que lhes concerne, adicionam suas 
    modificações em repositórios ou versões separadas e isoladas do código, e 
    posteriormente essas modificações precisam ser integradas em um repositório 
    ou versão central. Esse processo de integração de código é propenso a 
    erros, especialmente se as alterações em diferentes ramos entrarem em 
    conflito.
    Alguns desses conflitos são mais simples e podem ser detectados pelas 
    ferramentas atuais de controle de versão como o Git, no entanto, ainda 
    necessitam de intervenção humana para resolvê-los, o que afeta a 
    produtividade da equipe. Mas esse não é o único problema, existem também os 
    conflitos semânticos que requerem a compreensão do comportamento do 
    software, que está além dos recursos da maioria das ferramentas de 
    mesclagem existentes. Isso faz com que esses conflitos dificilmente sejam 
    percebidos por revisões ou detectados em testes e chegam até o usuário 
    final como defeito no software.
    Esse tipo de conflito ocorre quando, no código integrado, as mudanças 
    introduzidas pela versão de um dos desenvolvedores interferem de forma 
    inesperada com as mudanças introduzidas pela versão de outro 
    desenvolvedor,  fazendo  com  o  que  um  contrato  pretendido  por  uma   
    das versões deixe de ser cumprido. Sendo assim, se fazem necessárias 
    ferramentas que possam detectar conflitos desse tipo no processo de 
    integração, de modo a evitar bugs e facilitar a resolução dos mesmos.
    Nesse sentido, esse trabalho propõe uma análise de substituição de 
    atribuição (Override an Assignment (OA)), que visa detectar interferências 
    entre as alterações introduzidas por dois desenvolvedores diferentes, onde 
    caminhos de gravação, sem atribuições intermediárias, para um alvo comum 
    indicam interferência. Também foi realizada a implementação e avaliação de 
    duas abordagens (interprocedural e intraprocedural) para a análise proposta.
    Para avaliar as implementações da análise proposta foi usado um conjunto de 
    72 cenários de integração de código, em que ambas versões integradas 
    modificaram o mesmo método. Esses cenários foram extraídos de projetos 
    open-source Java, minerados por uma ferramenta de mineração de cenários de 
    integração do Github.

9
  • HÉLDER PAIXÃO FELIX FILHO
  • Análise didaticamente estruturada das correspondências entre 
    Lógicas de Descrições e Lógicas Modais.

  • Leader : FREDERICO LUIZ GONCALVES DE FREITAS
  • MEMBRES DE LA BANQUE :
  • ANJOLINA GRISI DE OLIVEIRA
  • CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
  • RUAN VASCONCELOS BEZERRA CARVALHO
  • Data: 23 févr. 2022


  • Afficher le Résumé
  • Este trabalho se propõe a apresentar uma análise sobre a correspondência 
    entre ramificações da Lógica Modal com ramificações da Lógica de 
    Descrições. Além disso, este texto tem como principal proposta, pela falta 
    de um material mais palatável, preencher esta lacuna e tornar mais 
    acessível um assunto naturalmente denso lógica e matematicamente. A 
    apresentação didática dos formalismos é feita nos capítulos iniciais; da 
    Lógica de Descrições foi escolhida a linguagem ALC e da Lógica Modal, o 
    sistema K. É demonstrado por que a correspondência não ocorre a princípio, 
    por isso o sistema K é enriquecido para a versão multimodal K_m. 
    Posteriormente é apresentada a Lógica Híbrida: ramificação modal que 
    completa a correspondência com uma base de conhecimento de ALC. Por fim, 
    são escolhidas ramificações que apresentam correspondência entre si: da 
    Lógica de Descrições a linguagem ALC_reg e a Lógica Dinâmica Proposicional, 
    que é ramificação da Lógica Modal.

10
  • MATEUS NUNES DE BARROS MAGALHÃES
  • Uma Avaliação da Redundância e do Particionamento de Dados 
    Convencionais e Geoespaciais em Data Warehouses Orientados a Colunas

  • Leader : ROBSON DO NASCIMENTO FIDALGO
  • MEMBRES DE LA BANQUE :
  • ANDREZA LEITE DE ALENCAR
  • LUCIANO DE ANDRADE BARBOSA
  • ROBSON DO NASCIMENTO FIDALGO
  • Data: 24 févr. 2022


  • Afficher le Résumé
  • A crescente demanda por processamento analítico alinhada a expansão dos 
    ambientes de Big Data colocou em xeque a capacidade do modelo relacional de 
    atender tais aplicações, sem comprometer o desempenho das mesmas ou 
    incorrer em custos exorbitantes. Os bancos de dados NoSQL foram escolhidos 
    como uma alternativa viável para suprir tais necessidades. Eles relaxam os 
    controles de consistência, integridade e transacionais característicos de 
    bancos relacionais para oferecerem mais disponibilidade, poder de 
    processamento paralelo e escalabilidade horizontal. Estudos mostraram que a 
    classe de bancos de dados NoSQL orientados a colunas apresentam bons 
    desempenhos para o uso com finalidades analíticas, pois, os dados de cada 
    coluna são armazenados contiguamente e separados fisicamente das demais 
    colunas. O planejamento de esquemas para os bancos de dados orientados a 
    colunas foi objeto de diversas pesquisas, as quais, avaliaram abordagens 
    normalizadas e desnormalizadas, bem como, as formas mais adequadas de se 
    promover a separação física dos dados de cada coluna. No entanto, esses 
    estudos não consideraram cenários que envolvam dados geoespaciais presentes 
    na base e no escopo das consultas analíticas. Com o intuito de investigar 
    as influências da redundância e do particionamento de dados convencionais e 
    geoespaciais em GDWs orientados a colunas e utilizados com finalidades 
    analíticas, propusemos 40 esquemas que adotam abordagens distintas para 
    modelar os relacionamentos entre fatos e dimensões, entre dimensões 
    convencionais e geoespaciais, e entre as próprias dimensões geoespaciais. 
    Utilizamos o benchmark denominado Spadawan para gerar os dados em 
    conformidade com os esquemas propostos, para os fatores de escala 1 e 10, e 
    avaliar o volume de dados, tempo de ingestão e tempo para a execução de uma 
    carga de consultas geoespaciais em um cluster computacional composto por 4 
    nós. Nossos resultados evidenciaram que a desnormalização das dimensões 
    convencionais foi a abordagem que mais contribuiu positivamente para a 
    redução dos tempos de execução, apesar de elevar o volume de armazenamento 
    demandado. A normalização das dimensões geográficas de menor seletividade 
    contribuiu com a redução dos tempos de execução, enquanto, a normalização 
    ou desnormalização das mais seletivas não ocasionou impactos positivos ou 
    negativos expressivamente.

11
  • CAIO AUGUSTO PEREIRA BURGARDT
  • Detecção de malware no macOS usando aprendizado supervisionado

  • Leader : DIVANILSON RODRIGO DE SOUSA CAMPELO
  • MEMBRES DE LA BANQUE :
  • DANIEL CARVALHO DA CUNHA
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • Data: 25 févr. 2022


  • Afficher le Résumé
  •  

    O desenvolvimento de malware para macOS cresceu significativamente nos últimos anos. Os invasores se tornaram mais sofisticados e mais direcionados com o surgimento de novas famílias de malware perigosas para o macOS. No entanto, como o problema de detecção de malware é muito dependente da plataforma, as soluções propostas anteriormente para outros sistemas operacionais não podem ser usadas diretamente no macOS. A detecção de malware é um dos principais pilares da segurança de endpoints. Infelizmente, houve muito poucos trabalhos sobre a segurança de endpoint do macOS, fazendo dessa área território pouco investigado. Atualmente, o único mecanismo de detecção de malware no macOS é um sistema baseado em assinatura com menos de 200 regras em 2021. Trabalhos recentes que tentaram melhorar a detecção de malwares no macOS têm limitações de metodologia, como a falta de um grande conjunto de dados de malware do macOS e problemas que surgem com conjuntos de dados em classes desequilibradas. Nessa dissertação, trazemos o problema de detecção de malware para o sistema operacional macOS e avaliamos como algoritmos de aprendizado de máquina supervisionados podem ser usados para melhorar a segurança de endpoint do ecossistema macOS. Criamos um novo e maior conjunto de dados de 631 malwares e 10.141 softwares benignos usando fontes públicas e extraindo informações do formato Mach-O. Avaliamos o desempenho de sete algoritmos de aprendizado de máquina diferentes, duas estratégias de amostragem e quatro técnicas de redução de recursos na detecção de malwares no macOS. Como resultado, apresentamos modelos melhores que as proteções nativas do macOS, com taxas de detecção superiores a 90% e mantendo uma taxa de alarmes falsos inferior a 1%. Nossos modelos demonstram com sucesso que a segurança do macOS pode ser aprimorada usando características estáticas de executáveis nativos em combinação com algoritmos populares de aprendizagem de máquina.


12
  • DENINI GABRIEL SILVA
  • Usando Ruído para Detectar Testes Flakiness

  • Leader : MARCELO BEZERRA D AMORIM
  • MEMBRES DE LA BANQUE :
  • LEOPOLDO MOTTA TEIXEIRA
  • MARCELO BEZERRA D AMORIM
  • MARCIO DE MEDEIROS RIBEIRO
  • Data: 25 févr. 2022


  • Afficher le Résumé
  • Diz-se que um teste é flaky quando passa ou falha de forma não determinística em diferentes execuções na mesma configuração (por exemplo, código). O teste flaky afeta negativamente o teste de regressão, pois as observações de falha não são necessariamente uma indicação de bugs no programa. Técnicas estáticas e dinâmicas para detecção de testes flaky têm sido propostas na literatura, mas são limitadas. Estudos anteriores mostraram que a flakiness do teste é causada principalmente por comportamento concorrente. Com base nessa observação, levantamos a hipótese de que a adição de ruído no ambiente pode interferir na ordenação dos eventos do programa e, consequentemente, influenciar nas saídas dos testes. Propomos o Shaker, uma técnica prática para detectar testes flaky comparando as saídas de várias execuções de teste em ambientes ruidosos. Comparado com uma execução de teste regular, uma execução de teste com o Shaker é mais lenta à medida que o ambiente é carregado, ou seja, o processo de teste compete por recursos (por exemplo, memória ou cpu) com tarefas estressantes que o Shaker cria. No entanto, conjecturas que o Shaker compensa ao detectar falhas em menos execuções em comparação com a alternativa de executar o conjunto de testes várias vezes em um ambiente regular (sem ruído). . Por exemplo, descobrimos que (1) Shaker é 96% preciso; é quase tão preciso quanto o ReRun, que por definição não relata falsos positivos, que (2) o recall do Shaker é muito maior em comparação com o do ReRun (0,95 versus 0,65), e que (3) o Shaker detecta testes irregulares com muito mais eficiência do que ReRun, apesar da sobrecarga de execução imposta pela abordagem. Em resumo, os resultados indicam que o ruído é uma abordagem promissora para detectar descamação.

13
  • JOÃO ALEXANDRE DA SILVA NETO
  • DAOS: A drift adaptive system for offloading CEP in Edge Computing

  • Leader : KIEV SANTOS DA GAMA
  • MEMBRES DE LA BANQUE :
  • FERNANDO ANTONIO MOTA TRINTA
  • KIEV SANTOS DA GAMA
  • ROBERTO SOUTO MAIOR DE BARROS
  • Data: 25 févr. 2022


  • Afficher le Résumé
  • Complex Event Processing (CEP) é um paradigma utilizado para identificar padrões em um fluxo de eventos, viabilizando aplicações para detecção de fraudes financeiras ou anomalias em redes de computadores. Além disso, outro paradigma chamado Edge Computing é utilizado para estender o CEP e possibilitar que o mesmo seja implantado em dispositivos que ficam mais próximos da origem dos eventos. Consequentemente, isso viabiliza aplicações críticas, onde o tempo de resposta é um fator importante. Um dos desafios nesse cenário é manter essas aplicações sendo executadas na borda com um uso otimizado de recursos e atendendo aos requisitos de tempo de resposta. Para resolver isso, soluções do estado-da-arte sugerem estratégias de offloading computacional para distribuir o processamento entre os dispositivos de borda e uma instância mais robusta na cloud. As técnicas tradicionais de offloading usam um mecanismo baseado em políticas, comparando o uso atual de recursos com limites manualmente especificados. No entanto, essas técnicas são pouco adaptáveis à mudanças ao longo do tempo, exigindo que as políticas sejam constantemente reconfiguradas por especialistas do domínio. Uma solução para isso é utilizar aprendizagem de máquina para aprender com os dados contextuais dos dispositivos e auxiliar o processo de decisão de maneira inteligente. Contudo, os dispositivos de borda possuem limitações de recursos quando comparado com a cloud, dificultando o uso de modelos tradicionais de aprendizagem. Por essa razão, são escolhidos modelos que aprendem de maneira incremental, não dependem de histórico de dados e se adaptam à ocorrência de concept drifts. Portanto, este trabalho propõe a solução DAOS (Drift Adaptive Offloading System), que tem como objetivo utilizar aprendizagem online e detecção de concept drifts no processo de tomada de decisão de offloading, visando otimizar a execução de aplicações CEP na borda. Além disso, ele adota um mecanismo de fallback para utilizar políticas estáticas enquanto os modelos de inteligência não forem confiáveis. Essa proposta é analisada através de uma avaliação de performance que compara o DAOS com a abordagem puramente baseada em políticas, variando a complexidade da aplicação e a taxa de transferência dos dados. A avaliação mostrou que existe uma diferença estatisticamente significativa entre as duas abordagens, evidenciando que as técnicas adotadas pelo DAOS melhoram as decisões de offloading de aplicações CEP na borda.

14
  • LARISSA RODRIGUES DA COSTA
  • NFR4TRUST: CATÁLOGO DE REQUISITOS NÃO-FUNCIONAIS DE CONFIANÇA PARA ROBÔS SOCIALMENTE ASSISTIVOS

  • Leader : JAELSON FREIRE BRELAZ DE CASTRO
  • MEMBRES DE LA BANQUE :
  • JULIO CESAR SAMPAIO DO PRADO LEITE
  • JAELSON FREIRE BRELAZ DE CASTRO
  • JUDITH KELNER
  • Data: 3 mars 2022


  • Afficher le Résumé
  • Contexto: No campo de pesquisa da Robótica Socialmente Assistiva (Socially 
    As-sistive Robotics - SAR) o estudo da Interação Humano-Robô (Human 
    Robot-Interaction- HRI) tem o importante papel de indagar a forma como o 
    aspecto humano e robótico colaboram entre si e qual o espaço do robô na 
    vida humana. Alguns aspectos vêm sendo bastante estudados na literatura, 
    dentre eles a confiança, que é considerada crucial para uma interação bem 
    sucedida entre Homem-Robô. A Engenharia de Requisitos pode contribuir para 
    compreender, modelar e analisar quais requisitos são fundamentais, 
    melhorando assim a aceitação da utilização desses robôs. Objetivo: Essa 
    pesquisa propôs a construção de um catálogo de Requisitos Não-Funcionais de 
    confiança para Robôs Socialmente Assistivos (Socially Assistive Robots - 
    SARs) chamado NFR4TRUST, que pode ajudara elicitar e especificar requisitos 
    não-funcionais que melhoram a confiança humana na utilização de robôs neste 
    domínio. Método: Foi realizado um levantamento bibliográfico visando 
    verificar o estado da arte em HRI no contexto de confiança e a partir deste 
    estudo, foi construída uma proposta de taxonomia de confiança para SARs que 
    auxilia na descoberta de requisitos. A validação do catálogo proposto foi 
    realizada através de uma Prova de Conceito (PoC), entrevista com 
    especialistas das áreas relacionadas e um questionário para obter a opinião 
    de engenheiros de requisitos. O uso do catálogo NFR4TRUST foi ilustrado 
    através de sua aplicação na definição de requisitos de confiança de um robô 
    socialmente assistivo que auxilia na reabilitação de membros superiores. 
    Resultados: Com este trabalho criamos o Catálogo NFR4TRUST que apresenta um 
    conjunto de Requisitos Não-Funcionais relacionados a confiança que podem 
    ser levados em consideração em desenvolvimento de projetos com Robôs 
    Socialmente Assistivos e sua utilização pode melhorar a confiança no robô. 
    Conclusão: Os resultados deste trabalho apontaram que com a utilização do 
    catálogo NFR4TRUST é possível apoiar as etapas de elicitação e 
    especificação em projetos de SARs permitindo identificar preocupações 
    iniciais sobre a perspectiva de confiança do usuário e projetar formas de 
    mitigá-las.

15
  • RENATO ATOUGUIA LEITE
  • SAAS PROCESS - Um Processo de Desenvolvimento para Software Como 
    Serviço

  • Leader : ALEXANDRE MARCOS LINS DE VASCONCELOS
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • RAFAEL PRIKLADNICKI
  • VINICIUS CARDOSO GARCIA
  • Data: 3 mars 2022


  • Afficher le Résumé
  • Estima-se que mais de 50% do custo em torno de um software ocorra na fase 
    de evolução, podendo chegar a 90% em alguns casos. Considerando modelos de 
    desenvolvimento, surgiram modelos de negócio sustentados na evolução de 
    plataformas, como o Software as a Service – SaaS. Nesse modelo de entrega, 
    métodos ágeis têm tido um papel importante, entregando software com 
    time-to-market adequado, mas com desafios relacionados às mudanças 
    constantes de backlogs. Isso porque novas features precisam de entregas 
    contínuas e imediatas que o modelo de serviço naturalmente carrega consigo. 
    Desta forma, analisar o impacto do modelo de entrega de software como 
    serviço sobre as metodologias ágeis e propor um novo processo de 
    desenvolvimento de software, considerando aspectos de documentação, 
    qualidade de código, auto-gestão dos times e a instanciação de processos 
    definidos nas metodologias comumente adotadas pela indústria, foi o 
    objetivo desse trabalho. Para execução da pesquisa se fez uso de um 
    mapeamento sistemático da literatura para evidenciar o uso de metodologias 
    ágeis durante a atividade de evolução de software em processos de 
    manutenção. Adicionalmente, foram aplicados questionários e entrevistas 
    junto a atores que possuam papéis de gerência de equipes e priorização de 
    backlogs. Como última etapa e a fim de confrontar os dados, foi analisado 
    os resultados de uma pesquisa-ação executada durante toda extensão do 
    trabalho em uma empresa de software paraibana. O resultado consistiu em uma 
    generalização interpretativa com ênfase qualitativa do case observado e das 
    evidências coletadas através demais métodos. Conforme o mapeamento 
    sistemático da literatura, evidenciou-se que os processos de 
    desenvolvimento de software que fazem uso de metodologias ágeis 
    tradicionais, como Scrum, geram tensões nos times que executam manutenção 
    de software, por não permitirem mudanças nas janelas de entregas e escopos, 
    características essas encontradas em ambientes no modelo SaaS, onde as 
    atividades de manutenção precisam ser resolvidas com rapidez. Neste 
    contexto, o uso das técnicas e ferramentas, como metodologia se apresentam 
    em maior consonância aos métodos tradicionais isolados, uma vez que 
    trabalham com o conceito de entrega contínua, DevOps e times 
    autogerenciados.

16
  • DENISSON AUGUSTO BASTOS LEAL
  • Ensembles Dinâmicos para Detecção de Concept Drift em Séries 
    Temporais

  • Leader : ADRIANO LORENA INACIO DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • JARLEY PALMEIRA NOBREGA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 3 mars 2022


  • Afficher le Résumé
  • Séries temporais são medições realizadas em um intervalo fixo de tempo, que 
    podem ser usadas em diversos tipos de problemas. Elas são estudadas por 
    diversas áreas a fim de compreender as características de sua geração. 
    Existe uma área mais específica de previsão de séries temporais que busca 
    capturar a tendência e encontrar um padrão dos movimentos em situações que 
    já ocorreram para prever a próxima observação da série. Porém, ao longo do 
    tempo podem acontecer alguns eventos que mudam todo o contexto da série, o 
    concept drift, e o conhecimento armazenado da série pode não refletir mais 
    a realidade da série após esse evento. Então, quando um modelo de 
    aprendizado de máquina é treinado para realizar previsões e um concept 
    drift acontece, esse modelo passa a ficar defasado e para a atualização do 
    modelo, alguns pontos do novo conceito precisam ser capturados e 
    armazenados, até serem suficientes para um novo treinamento. Durante esse 
    período de coleta de dados os modelos aumentam exponencialmente seu erro, 
    afetando o desempenho geral do sistema de previsão e dependendo da 
    frequência em que o concept drift aconteça, pode inviabilizar o seu uso. O 
    objetivo deste trabalho é propor um método para previsão de séries 
    temporais na presença de concept drift, minimizando o impacto da redução do 
    desempenho preditivo durante o processo de adaptação ao novo conceito. Para 
    isso foram propostos três métodos que usam o conceito antigo para melhorar 
    o desempenho nessa fase de adaptação. Os métodos usam PSO para otimização 
    do treinamento de partículas ELM, que são usadas na previsão e como 
    sensores para detecção concept drift. O primeiro método usa um ensemble com 
    todas as partículas treinadas. O segundo usa uma combinação, usando o 
    algoritmo guloso, das melhores partículas quando o concept drift é 
    detectado até a sua adaptação. E o terceiro usa a melhor combinação das 
    partículas desde o início e atualiza a combinação depois da detecção de um 
    concept drift. Todos os métodos propostos fazem adaptação para o novo 
    conceito depois de ter dados suficientes para o treinamento. Nos 
    experimentos foram usadas sete séries, sendo elas quatro geradas 
    sinteticamente com concept drift conhecidos e três séries reais de índices 
    do mercado financeiro com concept drift desconhecidos. Os resultados do 
    experimento foram comparados com métodos disponíveis na literatura e os 
    métodos propostos que se adaptam usando uma combinação das melhores 
    partículas conseguiram resultados melhores com significância estatística. 
    Mostrando que, o período de adaptação do método ao novo conceito é 
    relevante no erro geral da previsão e que o treinamento anterior pode 
    ajudar a reduzir esse erro.

17
  • MARIA CECILIA CAVALCANTI JUCÁ
  • Como startups e corporações se envolvem em iniciativas de inovação aberta? Um estudo exploratório

  • Leader : CARINA FROTA ALVES
  • MEMBRES DE LA BANQUE :
  • CARINA FROTA ALVES
  • GIORDANO RIBEIRO EULALIO CABRAL
  • IVAN DO CARMO MACHADO
  • Data: 3 mars 2022


  • Afficher le Résumé
  • Nos últimos anos, a crescente pressão do mercado e o constante surgimento de novas tecnologias levaram as empresas a realizar transformações digitais para criar valor e entregar melhores produtos ou serviços para os clientes. As corporações enfrentam vários desafios quando se trata de incorporar novas tecnologias ou acelerar e digitalizar seus processos bem estabelecidos. Por outro lado, as startups são reconhecidas por sua capacidade de inovação, disposição para assumir riscos, soluções escaláveis e processos ágeis. Na busca por velocidade e inovação, as corporações estão se engajando com startups para atingir objetivos complementares. As corporações desejam o potencial criativo das startups, enquanto as startups precisam de recursos abundantes nas corporações. Portanto, identificamos o crescente interesse de corporações e startups em se envolverem por meio de iniciativas de inovação aberta. Esta pesquisa explora como a inovação aberta é realizada na perspectiva de startups e corporações. Identificamos uma oportunidade de explorar as relações startup-corporação no Porto Digital, um dos ecossistemas de inovação mais relevantes do Brasil. Em um estudo exploratório, realizamos entrevistas semiestruturadas em oito startups e cinco corporações para entender a dinâmica de seus relacionamentos durante iniciativas de inovação aberta. Todas as oito startups fazem parte do Porto Digital, e as corporações foram selecionadas devido ao relacionamento com as startups estudadas. Nossos resultados revelam os principais direcionadores, benefícios e desafios envolvidos no engajamento entre startups e corporações. Por fim, apresentamos um conjunto de recomendações para estabelecer e fomentar as relações startup-corporação.

18
  • RAPHAEL CRESPO PEREIRA
  • Otimização de Combinação de Modelos para Previsão de Consumo de 
    Energia

  • Leader : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBRES DE LA BANQUE :
  • LUCIANO DE ANDRADE BARBOSA
  • MANOEL HENRIQUE DA NÓBREGA MARINHO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 7 mars 2022


  • Afficher le Résumé
  • A previsão do consumo de energia elétrica é um processo que permite a 
    melhoria de tomada de decisões auxiliando na gestão e gerenciamento de 
    consumo em edifícios de pequeno porte, graças aos avanços dos medidores 
    inteligentes. Na literatura pode-se observar que a previsão de consumo  de 
    energia é um problema desafiador por ser um tipo de série temporal composta 
    de correlações lineares e não-lineares.  Por este motivo, os modelos 
    estatísticos clássicos que são amplamente utilizados na literatura, possuem 
    uma capacidade limitada de identificar todos os padrões da série, já que 
    tais modelos são construídos considerando uma correlação linear dos dados. 
    Assim, a utilização de modelos não-lineares baseados em Aprendizagem de 
    Máquina (AM), se mostram bons candidatos por serem capazes de identificar 
    os padrões não- lineares. Além da utilização destes modelos, existem 
    trabalhos que mostram um ganho de desempenho com a utilização de Sistemas 
    Híbridos, na qual realizam a combinação dos modelos lineares estatísticos 
    com modelos não-lineares de AM. Tal combinação considera que o resíduo dos 
    modelos lineares, ou seja, a série composta pela diferença entre o real e o 
    previsto, possui padrões não-lineares que não foram captados. Este trabalho 
    propõe uma nova abordagem baseada na utilização de Sistemas Híbridos 
    Inteligentes composta por três modelos, sendo eles: modelo linear para 
    realizar a extração dos padrões lineares da série temporal, modelo 
    não-linear para realizar a extração dos padrões não-lineares presentes na 
    série de resíduos e um modelo de combinação que considera que existe uma 
    relação não linear entre a série temporal, a série de resíduos, a previsão 
    da série temporal e a previsão da série de resíduos. Para contornar os 
    problemas de seleção dos dados que serão utilizados como entrada (lags) e a 
    escolha subótima dos hiperparâmetros dos modelos de AM, a metodologia 
    proposta possui 2 etapas de otimização, sendo uma delas na seleção da 
    quantidade de lags e dos hiperparâmetros do modelo de resíduos; e a outra 
    no modelo de combinação, realizando a seleção dos hiperparâmetros e da 
    quantidade de lags de cada uma das quatro séries utilizadas como dados de 
    entrada (Real, Resíduos, Previsão da Real e Previsão dos Resíduos). Desta 
    forma o sistema se mostra flexível por permitir explorar diferentes 
    combinações das séries e assim avaliar unificadamente diferentes propostas 
    de combinações que são encontradas na literatura. Nos experimentos 
    realizados foram utilizados o ARIMA como modelo linear e LSTM como modelo 
    não-linear. Para o  modelo de combinação foram testados o  XGBoost e SVR e 
    o Tree Parzen Estimator como algoritmo de otimização. Os resultados 
    encontrados apresentaram um desempenho superior ao estado da arte para 
    previsão do consumo de energia, a partir de dados de medidores inteligentes 
    utilizando as métricas clássicas de avaliação de modelos de previsão de 
    série temporal.

19
  • ARTHUR DO REGO BARROS MENDONÇA
  • Avaliação Experimental de uma Arquitetura de Microsserviços para o Gerenciamento de Notas Fiscais Eletrônicas

  • Leader : VALERIA CESARIO TIMES ALVES
  • MEMBRES DE LA BANQUE :
  • RICARDO RODRIGUES CIFERRI
  • ANA CAROLINA BRANDAO SALGADO
  • VALERIA CESARIO TIMES ALVES
  • Data: 8 mars 2022


  • Afficher le Résumé
  • Notas fiscais eletrônicas são documentos digitais no formato XML que registram operações de circulação de mercadorias ou prestação de serviços. Por meio de convênios de cooperação, os órgãos de arrecadação e controle fiscal têm intensificado o compartilhamento das notas fiscais que envolvem compras governamentais com os órgãos de controle da Administração Pública, como tribunais de contas e o Ministério Público. No entanto, o gerenciamento desses dados em SGBDs relacionais se mostra desafiador, principalmente pelo volume de dados gerado e pela variedade de formatos da NF-e, em cujo leiaute estão previstos campos multivalorados e opcionais. O leiaute é frequentemente modificado, o que leva à necessidade de retrabalho na modelagem dos dados. Neste trabalho, se descreve a arquitetura ControleNF, uma arquitetura que utiliza microsserviços, uma REST API e SGBD NoSQL para o gerenciamento das notas fiscais por órgãos de controle. A arquitetura é avaliada do ponto de vista qualitativo, através dos critérios de manutenibilidade e portabilidade, previstos no ISO/IEC 25010, e quantitativo, em que os aspectos de desempenho e escalabilidade são mensurados através de uma avaliação experimental. Embora a avaliação qualitativa aponte possíveis ganhos relativos à facilidade de manutenção e à portabilidade da arquitetura, o desempenho mensurado no experimento foi consideravelmente inferior àquele observado na arquitetura tradicional que utiliza SGBDs relacionais. Uma investigação detalhada é realizada e possíveis causas da perda de desempenho são relatadas.

20
  • MILTON VASCONCELOS DA GAMA NETO
  • Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais

     

  • Leader : GERMANO CRISPIM VASCONCELOS
  • MEMBRES DE LA BANQUE :
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • GERMANO CRISPIM VASCONCELOS
  • JAIRSON BARBOSA RODRIGUES
  • Data: 10 mars 2022


  • Afficher le Résumé
  • As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e aparecimento de novos métodos. Ao mesmo tempo, os desafios são cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a ética, responsabilidade e performance nas soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, e realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio que a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar algumas estratégias. Diferente de alguns trabalhos comparativos, a análise em uma mesma base de dados fornece uma visão mais justa das explicações geradas. Em decorrência das limitações encontradas nas abordagens investigadas, é proposto um novo método, o Textual SHAP. O método busca endereçar necessidades da área, como por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos. Foi realizada uma avaliação com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.

21
  • PEDRO VINICIUS BATISTA CLERICUZI
  • Desenvolvimento de um Sistema de Gerenciamento de Uso de 
    Equipamentos em um Laboratório baseado em RFID

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • ADRIANO AUGUSTO DE MORAES SARMENTO
  • EDNA NATIVIDADE DA SILVA BARROS
  • VICTOR WANDERLEY COSTA DE MEDEIROS
  • Data: 10 mars 2022


  • Afficher le Résumé
  • Novas tecnologias voltadas para o controle no uso de bens têm surgido ano após ano para tornar o controle patrimonial cada vez mais ágil e confiável. Este trabalho teve como objetivo o desenvolvimento de um sistema de monitoramento de uso dos equipamentos de um laboratório usando a tecnologia RFID. O sistema foi desenvolvido a fim de possibilitar que os alunos do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) usem o laboratório de hardware a qualquer hora sem a supervisão de terceiros e os equipamentos contidos nele estejam sempre seguros e sob supervisão automatizada. No contexto atual isso não é possível, as baias são abertas apenas com chave e só quem tem acesso a elas são os monitores e funcionários. Isso é um problema porque o CIn funciona 24h todos os dias, sendo o laboratório de hardware um dos poucos que funcionam apenas em dias e horários específicos. A solução desenvolvida usa como meio de acesso às baias crachás com tags RFID, tecnologia essa que é amplamente utilizada no CIn. Para os equipamentos, também foram utilizados leitores RFID dentro das baias para garantir que os equipamentos estejam no local correto após seu uso. Todas as informações do monitoramento e log de uso ficam armazenadas em um sistema na nuvem, desenvolvido no contexto deste trabalho. O sistema em nuvem permite identificar os usuários dos equipamentos, enviar notificações de uso e efetuar reservas para uso do laboratório em horários não comerciais.

22
  • ASSIS TIAGO DE OLIVEIRA FILHO
  • UMA ANÁLISE EXPERIMENTAL DE DESEMPENHO DO PROTOCOLO QUIC

  • Leader : KELVIN LOPES DIAS
  • MEMBRES DE LA BANQUE :
  • DJAMEL FAWZI HADJ SADOK
  • GLAUCO ESTACIO GONÇALVES
  • NELSON SOUTO ROSA
  • Data: 10 mars 2022


  • Afficher le Résumé
  • O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada. 

23
  • RODRIGO LUDERMIR DE OLIVEIRA
  • Detecção de Posicionamento em Tweets sobre Covid-19 no Brasil 
    utilizando métodos de Aprendizagem de Máquina

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • CLEBER ZANCHETTIN
  • RENATO VIMIEIRO
  • Data: 10 mars 2022


  • Afficher le Résumé
  • A onipresença da pandemia de Covid-19 durante os últimos dois anos 
    acarretou na urgência de ações responsivas contra o avanço da contaminação 
    do novo coronavírus e em estratégias de imunização da população, através de 
    políticas de saúde pública e medidas sanitárias preventivas por parte das 
    autoridades responsáveis e também da sociedade civil. No Brasil, de modo 
    semelhante a outros países, esse processo foi profundamente politizado, 
    suscitando discussões polarizadas que inundaram as redes sociais - ocupando 
    agora, mais do que nunca, diante do isolamento social, o centro das 
    discussões sociais e políticas - com opiniões e posicionamentos acerca das 
    medidas adotadas contra a Covid-19 e suas repercussões. Enquanto um 
    paradigma emergente no campo de mineração de opiniões nas redes sociais, 
    sistemas de detecção de posicionamento têm produzido resultados frutíferos. 
    Isso ocorre principalmente em aplicações que utilizam métodos de 
    Processamento de Linguagem Natural e Análise de Redes, sobretudo quando são 
    implementados para classificar o posicionamento de usuários e/ou textos 
    implicados em temas sociais e políticos. A tarefa de detecção de 
    posicionamentos, no entanto, alcança um maior desempenho quando os objetos 
    de classificação, sejam usuários ou textos, estão segmentados por um tópico 
    alvo sobre o qual os posicionamentos foram direcionados. Desse modo, esta 
    dissertação investiga a utilização de métodos de aprendizagem de máquina no 
    desenvolvimento de sistemas de detecção de posicionamento em Tweets - 
    publicações na rede social Twitter - de usuários brasileiros comentando as 
    medidas relacionadas ao Covid-19, exercidas por eles próprios e pelo 
    governo brasileiro em seus diferentes órgãos e níveis de atuação. O 
    trabalho envolve quatro partes principais: (1) Construção da base de dados, 
    na qual houve o levantamento de aproximadamente 6 milhões de Tweets e 
    Retweets em português que mencionam palavras relacionadas ao Covid-19 entre 
    Janeiro de 2020 e Outubro de 2021, das quais cerca de 350 mil Tweets foram 
    rotulados (pseudo-labels), através de métodos de anotação fraca (weak 
    supervision), em 'favoráveis' ou 'contrários' às medidas do governo federal 
    frente à pandemia. (2) Limpeza, análise exploratória e segmentação da base 
    rotulada por tópicos mais relevantes e frequentes: Vacinação, Lockdown, 
    Tratamento Precoce, Uso de Máscaras, CPI da Covid e atuação dos 
    Governadores e Prefeitos. (3) Avaliação de modelos tradicionais de 
    Aprendizagem de Máquina na detecção de posicionamentos. (4) Avaliação de 
    modelos de aprendizagem profunda, sobretudo Transformers, na mesma tarefa. 
    Uma arquitetura específica foi investigada em detalhes através de três 
    abordagens de aprendizagem distintas, mas complementares. Utilizando o 
    modelo de linguagem de domínio geral em português-brasileiro BERTimbau, que 
    segue a arquitetura base do BERT, foram realizados experimentos com: (1) 
    adaptação de domínio, usando os dados não rotulados; (2) uso de dados 
    relacionais dos usuários (rede de interações - retweets, mentions e 
    replies); (3) Aprendizado via Multi-tasking, realizando o ajuste-fino em 
    todos os tópicos ao mesmo tempo. Os experimentos realizados demonstraram 
    que os modelos inicializados usando BERTimbau e treinados combinando as 
    três abordagens citadas acima se sobressaem sobre os demais em seu 
    desempenho diante da variedade de tópicos relacionados ao Covid-19 no 
    contexto brasileiro.

24
  • ELISA DE FÁTIMA ANDRADE SOARES
  • Um Mapeamento Sistemático de Problemas de Otimização no 
    Compartilhamento de Caronas

  • Leader : VALERIA CESARIO TIMES ALVES
  • MEMBRES DE LA BANQUE :
  • FRANCISCO CHAGAS DE LIMA JÚNIOR
  • SERGIO CASTELO BRANCO SOARES
  • VALERIA CESARIO TIMES ALVES
  • Data: 10 mars 2022


  • Afficher le Résumé
  • O compartilhamento de caronas (CC) é um serviço de mobilidade compartilhada 
    que traz diversos benefícios  ambientais, econômicos e sociais. Sistemas de 
    Compartilhamento de Caronas englobam diferentes problemas e, para 
    solucioná-los técnicas de otimização são empregadas para realizar a 
    intermediação entre motoristas e passageiros que tenham horários e 
    itinerários semelhantes. Para efetivação das caronas é indispensável o uso 
    de algoritmos para definição das rotas dos participantes. Além disso, para 
    obter os melhores resultados desse tipo de serviço são considerados alguns 
    desafios, como: maximizar o número de participantes, determinar as melhores 
    rotas e minimizar os custos da viagem. Nesse contexto, o objetivo desta 
    pesquisa é investigar os problemas de otimização existentes no 
    compartilhamento de caronas e, também, identificar os métodos, as 
    ferramentas, os algoritmos e as técnicas utilizados para solucionar tais 
    problemas. Para esta pesquisa, um protocolo foi elaborado para a condução 
    de um Mapeamento Sistemático da Literatura (MSL), método utilizado para 
    identificar, classificar, analisar e sintetizar as evidências encontradas 
    através dos estudos selecionados que abordam o compartilhamento de caronas.
    Nesse mapeamento sistemático, foram analisados 138 artigos publicados no 
    período entre 2012 e 2020, e  resultados dessa análise mostram os problemas 
    e as soluções de otimização voltadas para o compartilhamento de carona. 
    Diante das análises e dos resultados desta pesquisa, constata-se que há um 
    interesse crescente de pesquisadores nos últimos anos por essa área. 
    Conforme os estudos selecionados, conclui-se que 134 autores consideram o 
    compartilhamento de caronas somo sendo do tipo dinâmico, assim como grande 
    parte deles utilizam a abordagem exata e definem problemas de otimização 
    multiobjetivo para serem solucionados. Por fim, foi identificado que quinze 
    métodos e algoritmos diferentes foram empregados na resolução de problemas 
    otimização para o compartilhamento de caronas.

25
  • VITÓRIA MARIA DA SILVA MACIEL
  • Um Modelo de Suporte para Conformidade de Data Lake com a LGPD

  • Leader : BERNADETTE FARIAS LOSCIO
  • MEMBRES DE LA BANQUE :
  • BERNADETTE FARIAS LOSCIO
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • PRISCILLA KELLY MACHADO VIEIRA AZÊVEDO
  • Data: 10 mars 2022


  • Afficher le Résumé
  • Na era do Big Data, um grande volume de dados estruturados, 
    semi-estruturados, e principalmente não estruturados é gerado muito mais 
    rápido por tecnologias digitais e sistemas de informação. Neste contexto, 
    Data Lakes surgiram como uma alternativa aos tradicionais Data Warehouses, 
    tornando-se uma das soluções de Big Data mais utilizadas para análise e 
    gerenciamento distribuído de grande volumes de dados. A ideia principal do 
    Data Lake é ingerir dados brutos e processá-los durante seu uso, 
    caracterizando a abordagem \textit{schema on-read}. Durante seu ciclo de 
    vida em um Data Lake, um dado pode passar por inúmeras transformações, 
    levando a questões de rastreabilidade. Com a LGPD em vigor, as organizações 
    precisam ter ao seu dispor além das mudanças ocorridas, informações sobre 
    quem modificou os dados, onde modificou e as dependências geradas. Visando 
    atender esse problema, alguns modelos de metadados foram propostos na 
    literatura. No entanto, nenhum deles foca em apresentar metadados que 
    descrevam a linhagem dos dados. Sendo assim, essa dissertação propõe um 
    Modelo de Suporte para Conformidade de Data Lake com a LGPD (Data Lake 
    Compliance Model - DLCM), que tem como objetivo descrever os conjuntos de 
    dados no Data Lake e os tratamentos aplicados sobre eles.

26
  • HÉLIO GONÇALVES DE SOUZA JÚNIOR
  • Comparação de métodos de inferência dos rejeitados em modelos de 
    Credit Scoring

  • Leader : GERMANO CRISPIM VASCONCELOS
  • MEMBRES DE LA BANQUE :
  • GERMANO CRISPIM VASCONCELOS
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • ROSALVO FERREIRA DE OLIVEIRA NETO
  • Data: 11 mars 2022


  • Afficher le Résumé
  • Os modelos de Credit Scoring oferecem benefícios para os credores e 
    tomadores por muitos anos. No entanto, na prática, esses modelos são 
    normalmente construídos em uma amostra da população de clientes aprovados e 
    não consideram os que foram rejeitados. Isso tende a causar um viés 
    amostral. Inferência dos rejeitados é um método para estimar como os 
    requerentes rejeitados teriam se comportado se tivessem sido concedidos e 
    incorporando essas informações na reconstrução do modelo de Credit Scoring. 
    Nesta dissertação vão ser comparados 4 (cinco) métodos de inferência dos 
    negados: Reclassificação, Augmentation, Cluster e Parcelamento. E também a 
    inclusão de um algoritmo de deep learning, o Deep Embedded Clustering 
    (DEC). Os métodos serão avaliados por diversas métricas de performance, 
    tais como: AUC, KS, F1, acurácia, DTI, teste não paramétrico de 
    Kruskal-Wallis e um teste post-hoc de Nemenyi. Os métodos são analisados em 
    3 (três) conjuntos de dados reais com diversos perfis de taxa de 
    reprovação, para verificar se o efeito do comportamento da aprovação 
    impacta na performance dos métodos. Os experimentos realizados evidenciaram 
    que existe diferença significativa entre os métodos estudados e também que 
    o método de DEC teve desempenho superior que os demais métodos para a 
    maioria das métricas avaliadas.

27
  • VALDI FERREIRA DO NASCIMENTO JUNIOR
  • Mineração de dados de crowdsourcing para investigar o uso de 
    energia em dispositivos Android

  • Leader : FERNANDO JOSE CASTOR DE LIMA FILHO
  • MEMBRES DE LA BANQUE :
  • FERNANDO JOSE CASTOR DE LIMA FILHO
  • IVAN DO CARMO MACHADO
  • VINICIUS CARDOSO GARCIA
  • Data: 11 mars 2022


  • Afficher le Résumé
  • Um dos fatores essenciais para o sucesso de uma aplicação ou modelo é o 
    consumo de energia, que impacta diretamente na autonomia e na satisfação da 
    usabilidade de dispositivos móveis e seus aplicativos. Em geral, os estudos 
    relacionados à área são realizados em laboratório, por meio de simulações, 
    com um número limitado de dispositivos e aplicações. Portanto, este estudo 
    investiga o uso dados coletados através de crowndsourcing desses 
    dispositivos para prever seu comportamento e entender os fatores que mais 
    impactam o seu consumo de energia. Para isso foram desenvolvidos modelos de 
    regressão utilizando dados de uso real de dispositivos móveis em larga 
    escala, capazes de correlacionar diversos fatores como configurações, 
    aplicações e processos do sistema do contexto móvel com o tempo de consumo 
    de energia de 1% do nível da bateria usando. Foram estudados os 100 modelos 
    mais populares e suas configurações, juntamente com os aplicativos e 
    processos, presentes no banco de dados GreebHub, uma iniciativa 
    colaborativa e voluntária para coletar dados para estudos de dispositivos 
    móveis Android. No estudo foram utilizados algoritmos de regressão baseados 
    em árvore (Decision Tree, Random Forest e XGboot), avaliados com auxilio 
    das métricas de regressão do Scikit-Learn, e com a importância das features 
    (feature importance) sendo medida utilizando a abordagem SHAP (SHapley 
    Additive exPlanations). Os resultados indicam um grau de dificuldade 
    elevado ao estudar as relações contidas nos dados, pois a precisão das 
    predições varia bastante de acordo com o modelo de dispositivo a ser 
    estudado, refletindo a heterogeneidade do contexto. Além disso, foi 
    detectada uma variação muito grande no impacto dos aplicativos e processos 
    de um modelo de dispositivo pra outro, e que as configurações foram 
    consideradas mais relevantes que ambos no consumo de energia.

28
  • HORHANNA ALMEIDA DE OLIVEIRA
  • Um processo de concepção e prototipação rápida de visualizações 
    animadas de música

  • Leader : GIORDANO RIBEIRO EULALIO CABRAL
  • MEMBRES DE LA BANQUE :
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • PEDRO MARTINS ALESSIO
  • Data: 11 mars 2022


  • Afficher le Résumé
  • A produção de animações para área de Visualização de Informação Musical, 
    ainda é escassa e possui desafios pela necessidade de domínios de softwares de 
    edição exigindo capacidades técnicas e conhecimentos específicos 
    relacionados a cada área. Nesse trabalho, trazemos uma revisão sistemática 
    da área da visualização, mais especificamente visualização da informação, 
    visualização de música e Animação. Mapeando os processos de concepção de 
    visualizações, elaboramos um modelo experimental para ideação, 
    prototipação, construção e validação de animações de informações musicais, 
    realizado com especialistas em música. E através de sessões desenvolvendo 
    protótipos rápidos obtivemos resultados qualitativos com coleta de 
    feedbacks de especialistas em música. Concluímos que é notável a 
    importância da animação, como uma aliada nos processos de concepção e 
    criação de uma visualização musical, pois facilita a representação e 
    acompanhamento do tempo para comunicar elementos estruturais da música, 
    todos eles dispostos dinamicamente em uma área gráfica.

29
  • HYGOR JARDIM DA SILVA
  • Plataforma Integrada 4G, IMS e 5G baseada em software e hardware 
    abertos e de baixo custo

  • Leader : KELVIN LOPES DIAS
  • MEMBRES DE LA BANQUE :
  • TASSIO COSTA DE CARVALHO
  • KELVIN LOPES DIAS
  • RENATO MARIZ DE MORAES
  • Data: 11 mars 2022


  • Afficher le Résumé
  • A difusão dos paradigmas de softwarização e virtualização de redes, bem 
    como de tecnologias de rádio definido por software (SDR – Software-Defined 
    Radio), estão fomentando o desenvolvimento protótipos para sistemas móveis 
    de quinta geração (5G), tanto pela academia quanto pela indústria. Este 
    novo cenário influenciou a transição dos clássicos sistemas monolíticos 
    baseado em hardware proprietário, das gerações anteriores (2G/3G/4G), para 
    uma nova filosofia com inúmeros projetos de código aberto relacionados às 
    redes de acesso por rádio (RAN) e  de núcleo constituintes de sistemas 4G e 
    5G. Entretanto, a interoperabilidade entre soluções RAN e de núcleo 
    distintas, e avaliações de desempenho fim-a-fim, bem como o suporte a 
    sistemas tradicionais, como o amplamente difundido IMS (IP Multimedia 
    Subsystem) para chamadas VoLTE (Voice over LTE) 4G, são aspectos pouco 
    entendidos, implementados parcialmente, ou mesmo ainda não avaliados. Esta 
    dissertação tem como objetivo analisar a compatibilidade das implementações 
    de código aberto para sistemas celulares com os padrões preconizados pelo 
    3GPP (Third Generation Partnership Project); realizar a implementação de 
    protótipos utilizando software e hardware abertos; conceber uma abordagem 
    de virtualização e implantação utilizando contêineres para os serviços do 
    núcleo da rede, da RAN e integração com sistema IMS. O estudo considerou 
    plataformas de computação de propósito geral, juntamente com placas SDR 
    para implantar a rede. Smartphones e cartões SIM com suporte 4G, VoLTE e 5G 
    foram utilizados para realizar os experimentos e a coleta dos resultados. 
    Como parte dos resultados da avaliação, a infraestrutura composta pelo 
    núcleo Open5Gs, RAN srsLTE e IMS OpenIMSCore em conjunto com Kamailio 
    (P-CSCF, I-CSCF, S-CSCF) se mostrou capaz de estabelecer chamadas VoLTE com 
    duração até 1h.  Os resultados do estudo também mostraram que a plataforma 
    OAI (OpenAirInterface) alcançou um desempenho 15% superior ao da plataforma 
    srsRAN. Com isto, este trabalho concebeu e descreveu uma infraestrutura de 
    baixo custo capaz de executar todo um ambiente de redes móveis 4G/5G e 
    prover funcionalidades do sistema IMS, como ligações VoLTE.

30
  • IVONILDO PEREIRA GOMES NETO
  • Um Instrumento de Inspeção da Aderência de Soluções Iot à LGPD

  • Leader : SERGIO CASTELO BRANCO SOARES
  • MEMBRES DE LA BANQUE :
  • LUIS JORGE ENRIQUE RIVERO CABREJOS
  • KIEV SANTOS DA GAMA
  • SERGIO CASTELO BRANCO SOARES
  • Data: 15 mars 2022


  • Afficher le Résumé
  • Introdução: Com os  atuais avanços digitais, a sociedade torna-se mais 
    dependente da tecnologia. Para acompanhar estes avanços, o investimento na 
    segurança das informações passa a ser cada vez mais necessário. Isto  não é 
    diferente para no contexto da  IoT (do inglês, Internet of things), pois 
    ela traz diversos benefícios para o cotidiano tanto de pessoas como 
    empresas,  pois diversos projetos na IoT tratam diversos dados pessoais. 
    Diante disso, se faz necessária certa proteção de informações relacionadas. 
    Atualmente no Brasil,  a gestão de segurança de informação é regida pela 
    LGPD (Lei Geral de Proteção dos Dados).
    Objetivo: Visando verificar a adequação de projetos com a LGPD, 
    pesquisadores da UFMA propuseram um mecanismo de auxílio à averiguação de 
    adequação à LGPD. Desta forma, este trabalho visa propor uma extensão a 
    esse mecanismo para  auxiliar à averiguação de adequação à LGPD 
    considerando  as características específicas de IoT.
    Metodologia: O mecanismo foi avaliado em uma instituição privada ligada à 
    inovação industrial. Consideramos que esse é o perfil do público-alvo do 
    mecanismo proposto. A avaliação foi conduzida como um estudo de caso onde, 
    após inspeção de possíveis falhas de segurança no sistema da empresa, foi 
    aplicado um questionário de pós-inspeção com o mecanismo  proposto. Este 
    questionário avaliou a facilidade em usá-lo e a intenção dos participantes 
    em utilizá-lo em outros sistemas. Por fim, ocorreu um focus group, onde 
    foram discutidos benefícios, pontos críticos e melhorias aplicáveis ao 
    checklist.
    Resultados: Foram apresentadas opiniões positivas sobre o uso do mecanismo 
    proposto,  os participantes conseguiram utilizá-lo sem grandes problemas. 
    Além disso, foi possível encontrar defeitos de segurança nos sistemas. Os 
    participantes consideraram o mecanismo como de grande utilidade para guiar 
    os profissionais nas soluções dos defeitos encontrados.
    Conclusões: Conclui-se que o mecanismo proposto é capaz de auxiliar 
    profissionais na averiguação de adequação à LGPD em projetos que envolvem 
    IoT à LGPD. O estudo foi realizado em uma instituição específica, 
    identificando defeitos reais de uma empresa, porém, os resultados não podem 
    ser generalizados. É necessário replicações do estudo para identificar se 
    esses resultados se aplicam a outras empresas.

31
  • JUSCELINO SEBASTIAO AVELINO JUNIOR
  • Uma abordagem de seleção dinâmica de classificadores para predição 
    de defeitos de software

  • Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBRES DE LA BANQUE :
  • ARAKEN DE MEDEIROS SANTOS
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • RAFAEL MENELAU OLIVEIRA E CRUZ
  • Data: 16 mars 2022


  • Afficher le Résumé
  • A predição de defeitos é uma tarefa que visa alocar recursos e informações 
    para predizer módulos de software propensos a defeitos. Contudo, devido a 
    necessidade de quantidades suficientemente grandes de dados requeridas 
    pelos modelos, pesquisadores tem se concentrado em pesquisas sobre 
    Cross-Project Defect Prediction (CPDP). Essa abordagem envolve construir 
    modelos usando um conjunto de treinamento composto por informações de 
    diversos projetos externos. Diversas abordagens CPDP propostas na 
    literatura utilizam abordagens tradicionais como, por exemplo, 
    normalização/transformação dos dados através do logaritmo ou uso de 
    algoritmos de aprendizagem de máquina, entretanto, essas abordagens não 
    possuem nenhum mecanismo capaz de selecionar um classificador ou um 
    conjunto de classificadores mais apto em predizer uma determinada amostra 
    de teste. Logo, a seleção dinâmica de classificadores é uma abordagem ao 
    qual seleciona classificadores básicos em tempo real de acordo com cada 
    amostra de teste a ser classificada. Neste contexto e considerando as 
    limitações das abordagens CPDP tradicionais, propomos uma abordagem CPDP 
    que, com base nos dados de treinamento, seleciona a melhor configuração de 
    parâmetros (técnica de seleção dinâmica de classificadores, classificador 
    básico e tamanho do pool de classificadores) para classificaras novas 
    amostras de entrada (dados de teste). A abordagem proposta é composta por 
    três etapas: Definição do Alvo, Superprodução e Avaliação do Modelo. 
    Portanto, nessa dissertação são almejados quatro principais pontos. 
    Primeiro, é conduzida uma análise experimental para investigar o 
    comportamento da abordagem proposta na predição de defeitos de software. 
    Segundo, são realizadas comparações entre a abordagem proposta versus 
    abordagens CPDP da literatura. Neste contexto, foram investigados quais 
    métodos apresentam melhor desempenho para os mesmos conjuntos de dados ou 
    projetos de software. Terceiro, para verificar a precisão de classificação 
    dos métodos CPDP, foi analisada a qualidade da performance dos método sem 
    relação à algumas escalas da área sob a curva ROC (ROC-AUC). Quarto, foi 
    realizada uma análise experimental para verificar quando utilizar a 
    abordagem proposta. Neste ponto, utilizamos um meta-classificador (árvore 
    de decisão) que, através de regras de decisão, define quais características 
    dos dados a abordagem proposta deve ser aplicada e, consequentemente, 
    apresentar maior desempenho.

32
  • GEORGE DE VASCONCELOS CARVALHO NETO
  • Mineração de subgrupos aplicada a dados de metilação de pacientes com câncer de mama

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • DANYELLY BRUNESKA GONDIM MARTINS
  • MARCELO RODRIGO PORTELA FERREIRA
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 25 mars 2022


  • Afficher le Résumé
  • O câncer de mama é um dos tipos de câncer mais prevalentes em mulheres, com 
    uma ênfase crescente na pesquisa relacionada ao câncer, muitos trabalhos 
    foram realizados para classificar o diagnóstico, a sobrevivência ou a 
    recorrência desse tipo de câncer. Como um dos biomarcadores epigenéticos 
    mais descritos em cânceres humanos, a metilação do DNA desempenha um papel 
    essencial na regulação da expressão gênica e tem sido implicada no 
    prognóstico e na terapêutica de muitos cânceres. Nesse estudo exploramos os 
    perfis de metilação de DNA capturando grupos heterogêneos de pacientes com 
    câncer de mama para melhorar o prognóstico desses pacientes no nível 
    epigenético. Perfis de metilação do DNA de um estudo caso-controle com 235 
    indivíduos com câncer de mama e 424 indivíduos normais saudáveis foram 
    obtidos do banco de dados Gene Expression Omnibus (GEO). Os marcadores 
    diferencialmente metilados foram identificados por teste T moderado. Novas 
    características foram adicionadas aos dados usando ferramentas de predição 
    de idade biológica, tipos celular e condição de fumante. Subgrupos de 
    pacientes foram encontrados usando as ferramentas de mineração de subgrupos 
    Beam search e SSDP+. Um total de 20 subgrupos foram selecionados, sendo 10 
    subgrupos encontrados pelo Beam search e 10 pelo SSDP+. Onde o algoritmo 
    Beam search encontrou subgrupos com mais elementos e alto grau de 
    redundância englobando diferentes genes relacionados previamente ao câncer 
    de mama, enquanto o SSDP+ encontrou subgrupos com menos elementos e alto 
    grau de diversidade, mas que por englobar menos regiões não tiveram genes 
    previamente relacionados a câncer de mama. Nosso estudo identificou 
    múltiplos painéis de metilação de DNA associados a grupos específicos de 
    pacientes com câncer de mama que podem, se validados clinicamente, ser 
    úteis para a previsão do risco de câncer de mama no futuro.

33
  • JESSICA TAIS DE SOUZA REINALDO
  • Using Item Response Theory to evaluate feature relevance in missing 

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • RAFAEL GOMES MANTOVANI
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 29 mars 2022


  • Afficher le Résumé
  • A Teoria de Resposta ao Item (em inglês, Item Response Theory - IRT) tem 
    sido historicamente usada para avaliar as habilidades latentes de 
    respondentes humanos a um conjunto de itens.
    Recentemente, esforços têm sido feitos para propor soluções que utilizem a 
    TRI para resolver problemas de classificação, onde os respondentes são 
    classificadores e os itens são as instâncias de um conjunto de dados.
    O β^3-IRT oferece uma ferramenta poderosa para analisar conjuntos de dados 
    e classificadores, pois formula o problema de TRI com duas variáveis 
    latentes (2-PL), onde as instâncias são descritas em termos de dificuldade 
    e discriminação, e os classificadores têm um habilidade associada. A 
    formulação do β^3-IRT  permite utilizar a predição da probabilidade de cada 
    classificador para cada instância, o que é uma abordagem muito mais rica em 
    informação do que modelos anteriores que propunham utilizar simplesmente 
    uma resposta dicotômica, isto é, apenas mapeando erros e acertos de cada 
    classificador na predição de cada instância.
    Uma aplicação possível de TRI em problemas de classificação é utiliza-la 
    para resolver problemas em que faltam dados no momento do teste.
    A falta de dados é um problema desafiador na classificação, principalmente 
    quando ocorre no momento de teste, ou seja, quando um classificador que já 
    foi treinado com os dados completos precisa ser usado para fornecer uma 
    previsão para uma nova instância, para a qual está faltando o valor de 
    alguma variável. Nesses casos, antes de aplicar o classificador, deve-se 
    decidir se vale a pena adquirindo o valor real do recurso ou apenas 
    imputando o valor ausente. A imputação pode
    ser uma alternativa melhor, por exemplo, se a coleta de recursos for muito 
    cara e/ou não se espera que o recurso seja realmente relevante para 
    melhorar a qualidade do classificador
    predição.
    Neste trabalho, propomos um workflow onde esses dados faltantes em tempo de 
    teste são preenchidos com valores imputados com diferentes técnicas de 
    imputação, baseado nos dados de treinamento disponíveis, a fim de avaliar o 
    quanto esses dados faltantes podem afetar a habilidade dos classificadores 
    e a dificuldade e discriminação das instâncias em um conjunto de dados.
    Essa abordagem representa uma alternativa às técnicas de seleção de 
    atributos que é capaz de fornecer uma visão geral da relevância dos 
    recursos tanto em nível global quanto individualmente para cada instância.
    A análise do desempenho de classificadores e como a falta de dados impacta 
    os modelos e as instâncias do ponto de vista da TRI ainda não foi 
    investigada na literatura.

34
  • HEITOR DE CASTRO FELIX
  • OGNet-AD: Um método para detecção de falhas em equipamentos através 
    da detecção de anomalias em imagens com GAN baseado na OGNet 

  • Leader : VERONICA TEICHRIEB
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • FRANCISCO PAULO MAGALHAES SIMOES
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • Data: 13 avr. 2022


  • Afficher le Résumé
  • A aplicação de visão computacional com Deep Learning (DL) vem sendo 
    utilizada para resolver problemas complexos. Um desses problemas é a 
    inspeção automática de objetos industriais. A inspeção pode ocorrer em 
    cenário controlado, como mostrado no dataset MVTec AD ou em um cenário não 
    controlado, como ocorre em torres de linhas de transmissão de energia. Um 
    dos maiores desafios na inspeção automática é a disponibilidade limitada de 
    dados de falhas para o treinamento dos classificadores tradicionais 
    baseados em DL. Pois, em aplicações de inspeção industrial, há poucos dados 
    de falhas e baixa diversidade nos exemplos. Mesmo em linhas de transmissão 
    de energia, que são essenciais para vida humana moderna, não existem 
    datasets de inspeção para o treinamento supervisionado de classificadores. 
    Portanto, abordagens de treinamento não supervisionado são usadas para 
    contornar a escassez de dados, como detecção de anomalias e One-Class 
    Classification (OCC). Nessas abordagens, os treinamentos dos modelos são 
    realizados apenas com os dados dos equipamentos em seus estados normais, 
    sem defeitos. Este trabalho investiga a detecção de anomalias com o uso da 
    OGNet, uma técnica de estado da arte de OCC e busca adaptá-la para a 
    detecção de anomalias, criando uma nova rede, a OGNet-AD. A nova rede e a 
    OGNet foram avaliadas quantitativamente em um ambiente controlado com MVTec 
    AD e em um ambiente não controlado com um dataset privado de inspeção de 
    linhas de transmissão de energia, o DILTE. Como resultado da pesquisa, 
    verificou-se que a OGNet pode ser utilizada para detecção de anomalias e 
    compara-se com técnicas tradicionais desse contexto. A OGNet-AD conseguiu 
    superar a OGNet tanto no cenário controlado do MVTec-AD quanto no cenário 
    não controlado do DILTE, com média de AUC-ROC de 87,4 contra 84,7 da OGNet 
    no MVTec-AD e 77 contra 72 no DILTE, comprovando os benefícios das 
    modificações realizadas no modelo. Apesar da evolução da OGNet-AD, a 
    técnica também foi comparada com técnicas elaboradas para detecção de 
    anomalias, não superando ainda a técnica do estado da arte. Além dos testes 
    quantitativos, uma técnica de Explainable Artificial Inteligente foi 
    explorada para a validação qualitativa da OGNet-AD. A validação foi 
    realizada utilizando a Grad-CAM para visualizar as regiões que influenciam 
    nas decisões da rede. A validação qualitativa mostrou-se eficiente para 
    analisar o uso da OGNet-AD, principalmente em cenários com poucos dados 
    para realização da validação quantitativa tradicional.

35
  • STHEFANIE DAL MAGRO
  • ENGENHARIA DE REQUISITOS EM SISTEMAS CRÍTICOS DE SEGURANÇA: uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança

  • Leader : JAELSON FREIRE BRELAZ DE CASTRO
  • MEMBRES DE LA BANQUE :
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • JAELSON FREIRE BRELAZ DE CASTRO
  • JOHNNY CARDOSO MARQUES
  • Data: 28 avr. 2022


  • Afficher le Résumé
  • Sistemas Críticos de Segurança (SCSs) são considerados sistemas que caso falhem podem levar à perda de vida, perdas financeiras e danos ao meio ambiente. A Engenharia de Requisitos é essencial no desenvolvimento destes sistemas, tendo em vista que a utilização de requisitos inadequados ou incompreendidos são reconhecidos como a principal causa de acidentes e catástrofes relacionados com a segurança. Portanto, os requisitos iniciais de segurança dos SCSs devem ser cuidadosamente identificados e adequadamente modelados. No entanto, a literatura apresenta poucas técnicas de elicitação e modelagem. Ademais, de acordo com Vilela et al. (2020) é mais econômico corrigir problemas na fase da Engenharia de Requisitos do que na etapa de desenvolvimento do sistema em de requisitos voltadas para o domínio de SCSs. Esta pesquisa propõe o desenvolvimento de uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança no contexto de sistemas críticos de segurança que posteriormente serão modelados através da notação iStar4Safety. Inicialmente, foi realizado um levantamento para aquisição de conhecimento acerca do tema, depois foram identificadas as técnicas de elicitação de requisitos para SCSs existentes na literatura. Em seguida, foi desenvolvida uma nova abordagem para elicitação de requisitos iniciais de segurança, uma ferramenta para dar apoio a abordagem e regras de mapeamento em iStar4Safety. Por último, foi realizada uma avaliação da proposta através de um quasi-experimento. Sendo assim, este trabalho propôs a abordagem Elicit4Safety que visa auxiliar na descoberta e modelagem dos perigos e requisitos iniciais de segurança no contexto dos SCSs, além do desenvolvimento de uma ferramenta que dá suporte a abordagem. De acordo com os resultados encontrados na análise de dados qualitativa e quantitativa, obtidos através aplicação de testes estatísticos e um questionário aplicado aos sujeitos experimentais, é possível observar que a abordagem Elicit4Safety é fácil de entender e de ser utilizada.

36
  • GERALDO PIRES CORDEIRO JUNIOR
  • Reconhecimento de espécies de mosquitos por meio de métodos 
    computacionais inteligentes baseados em aprendizagem profunda

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • FERNANDO MACIANO DE PAULA NETO
  • LEANDRO MACIEL ALMEIDA
  • ROSÂNGELA MARIA RODRIGUES BARBOSA
  • Data: 18 mai 2022


  • Afficher le Résumé
  • As doenças transmitidas por mosquitos vetores expressam um grande perigo à 
    sociedade. Arboviroses como Dengue, Zika, Febre Amarela, Chikungunya, 
    causaram alto número de mortes nas últimas décadas, além de diminuírem a 
    qualidade de vida das pessoas, causarem outras doenças, como é o caso de 
    microcefalia em recém-nascidos por conta da Zika, e impactarem a economia. 
    Ações que visem o controle dos vetores se mostraram eficazes no combate a 
    essas doenças. Entretanto, em áreas em que essas doenças são endêmicas, os 
    vetores coexistem com outros mosquitos que não transmitem doenças, sendo 
    essencial a identificação desses mosquitos, para que se possa analisar a 
    densidade e entender mais sobre a população deles. Todavia é necessário a 
    atuação de um especialista, sendo muitas vezes um trabalho cansativo. 
    Observando a importância da identificação desses vetores e os problemas das 
    atuais técnicas de identificação, esse estudo propõe um modelo 
    computacional inteligente para a classificação automática de mosquitos 
    vetores, baseado em imagens. Para isso foi construída uma base com 5432 
    imagens de mosquitos de 3 espécies: Aedes aegypti, Aedes albopictus e Culex 
    quinquefasciatus. Foram utilizadas três redes convolucionais: VGG16, 
    ResNet50 e EfficientNetB0. O modelo de Deep Learning que obteve maior 
    resultado foi a VGG16, com acurácia de 95%, mostrando-se eficiente na 
    identificação das espécies estudadas.

37
  • JÉSSICA FELICIANO COUTINHO
  • Avaliação de técnicas de Combinação de Embeddings para a Análise de 
    Sentimentos de Produtos escritos em Português-BR

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • LEANDRO MACIEL ALMEIDA
  • LUCIANO DE ANDRADE BARBOSA
  • Data: 26 mai 2022


  • Afficher le Résumé
  • A  Análise de Sentimentos é uma área de pesquisa voltada para a 
    determinação da polaridade do sentimento presente em um texto, buscando 
    identificar se a informação é de caráter positivo, negativo ou neutro, 
    dentre outras formas de classificação. Com o expressivo volume de 
    informações textuais que circulam na web diariamente, o processo de 
    análises automáticas dos sentimentos torna-se ainda mais necessário. Para 
    conteúdos relacionados à avaliação de produtos e serviços, a detecção de 
    sentimentos é de grande relevância, uma vez que entender a mensagem que um 
    consumidor está querendo passar sobre um produto é essencial para as 
    empresas por diversos fatores, dentre eles campanhas de marketing e 
    melhoria no relacionamento com seus clientes. Nesse cenário, o estudo das 
    formas de melhorar a representação das informações textuais, de modo que 
    elas sejam processadas através de modelos de aprendizagem de máquina, é de 
    extrema importância para contribuir com o aumento de performance na 
    classificação dos sentimentos presentes nos textos. Diante disto, o 
    presente trabalho realiza um estudo experimental do comportamento de 
    diferentes técnicas de vetorização de textos, com foco nos embeddings: 
    vetores representativos compostos por valores reais capazes de armazenar 
    informações sintáticas e semânticas das palavras. Para isso, são avaliados 
    diferentes tipos de vetores de embeddings e três formas de combinação 
    desses vetores, que são utilizados no processo de classificação de cinco 
    diferentes algoritmos de aprendizagem de máquina. Além disso, também é 
    utilizado um algoritmo de aprendizagem profundo onde a etapa de embedding é 
    realizada pela própria camada da rede neural. Com o intuito de contribuir 
    com a Análise de Sentimentos de textos em Português-BR, foram estudadas 
    quatro bases de dados neste idioma: Buscapé, B2W, Olist e UTL Movies. Essas 
    bases são compostas por avaliações de usuários reais da web sobre produtos 
    e serviços. Os resultados encontrados nessa pesquisa mostraram que nem 
    todos os algoritmos de aprendizagem de máquina sofrem impacto diante da 
    mudança na técnica de vetorização, porém quando pelo menos duas técnicas 
    são combinadas a partir da concatenação entre seus vetores de pesos, é 
    possível obter melhoria na performance de algoritmos comumente utilizados 
    na área de aprendizagem de máquina, como a MLP e o XGBoost

38
  • KARL VANDESMAN DE MATOS SOUSA
  • Desenvolvimento de base de dados e algoritmo de classificação 
    antecipada de exames RT-qPCR para COVID-19

  • Leader : ADENILTON JOSÉ DA SILVA
  • MEMBRES DE LA BANQUE :
  • ADENILTON JOSÉ DA SILVA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • GEORGE GOMES CABRAL
  • Data: 2 juin 2022


  • Afficher le Résumé
  • A doença denominada COVID-19, causada pelo vírus SARS-CoV-2, foi a 
    responsável por gerar uma pandemia, preocupando diversos órgãos e 
    instituições ao redor do mundo de forma a combatê-la e reduzir o seu 
    impacto. Um dos fatores importantes para esse combate, é o diagnóstico da 
    doença, que deve considerar a assertividade e o tempo levado para sua 
    conclu- são. Este trabalho atuou nos dados quantitativos gerados pelo exame 
    RT-qPCR, obtidos pela disponibilização feita pelo Núcleo de Pesquisa em 
    Inovação Terapêutica (NUPIT) da Universidade Federal de Pernambuco. Os 
    arquivos de saída do exame foram filtrados e ajustados de forma a se ter 
    uma base de dados disponível para treinamento de algoritmos de aprendizagem 
    supervisionada, totalizando 75.716 linhas com 45 características temporais 
    (ciclos de máquina) e um alvo a ser classificado como positivo ou negativo. 
    Esses dados formam uma série temporal, sendo cada característica um valor 
    de fluorescência do processo da reação química do RT-qPCR, de forma a 
    detectar genes do SARS-CoV-2. Foram elencados diferentes algoritmos da 
    literatura, desde mais genéricos para classificação, a outros mais 
    complexos, utilizando comitês, e considerando a ordenação temporal das 
    características do problema. Primeiramente, esses algoritmos foram 
    treinados com a totalidade dos ciclos, para se ter uma referência do 
    desempenho que poderia ser obtido. Posteriormente, foram realizados 
    treinamentos com uma redução desse número de ciclos, com o intuito de 
    antecipar o exame e consequentemente diminuir o tempo necessário para sua 
    conclusão. Para comparar os desempenhos, foram analisadas as métricas AUROC 
    (do inglês, Area Under the Receiver Operating Characteristic), acurácia, 
    especificidade e sensibilidade, com média e desvio padrão calculadas em 
    cima de cem reamostragens da base de dados. Para o cenário de redução de 30 
    ciclos, foi realizada a otimização de hiperparâmetros dos três algoritmos 
    que se destacaram na etapa anterior: um baseado em redes neurais, MLP 
    (Multilayer Perceptron) e dois comitês de classificadores, o XGBoost e o 
    Time Series Forest (TSF), sendo que este último considera a relação 
    temporal das características. Testes estatísticos realizados indicaram um 
    maior desempenho do TSF (AUROC 98,98 ± 0, 07%) e do MLP (98,94 ± 0, 19%) 
    para 30 ciclos, uma melhoria de desempenho graças à otimização, mas ainda 
    com desempenho inferior ao algoritmo treinado com 35 ciclos com valores 
    padrões de hiperparâmetros. Com isso, este trabalho fornece respaldo para a 
    redução do tempo do RT-qPCR aplicado para COVID-19, por meio de algoritmos 
    de aprendizagem de máquina.

39
  • MATEUS GONÇALVES MACHADO
  • DyLam: A Dynamic Reward Weighting Method for Reinforcement Learning 
    Policy Gradient Algorithms

  • Leader : HANSENCLEVER DE FRANCA BASSANI
  • MEMBRES DE LA BANQUE :
  • ANNA HELENA REALI COSTA
  • HANSENCLEVER DE FRANCA BASSANI
  • TSANG ING REN
  • Data: 7 juin 2022


  • Afficher le Résumé
  • Aprendizagem por Reforço (AR) é um subcampo emergente de Aprendizagem de 
    Máquina no qual um agente interage com um ambiente e aproveita suas 
    experiências para aprender, por tentativa e erro, quais ações são as mais 
    adequadas para cada estado.
    A cada passo o agente recebe um sinal de recompensa positivo ou negativo, 
    que é o principal feedback utilizado para o aprendizado.
    A AR encontra aplicações em diversas áreas, como robótica, bolsa de valores 
    e até mesmo em sistemas de refrigeração, apresentando desempenho 
    sobre-humano no aprendizado de jogos de tabuleiro (Xadrez e Go) e 
    videogames (jogos de Atari, Dota2 e StarCraft2).
    No entanto, os métodos AR ainda lutam em ambientes com recompensas escassas.
    Por exemplo, um agente pode receber poucas recompensas por gols em um jogo 
    de futebol. Assim, é difícil associar recompensas (gols) com ações.
    Os pesquisadores frequentemente introduzem várias recompensas 
    intermediárias para ajudar no aprendizado e contornar esse problema. No 
    entanto, combinar adequadamente várias recompensas para compor o sinal de 
    recompensa único usado pelos métodos AR frequentemente não é uma tarefa 
    fácil.
    Este trabalho visa resolver este problema específico através da introdução 
    do DyLam. Ele estende os métodos de gradiente de política existentes 
    decompondo a função de recompensa usada no ambiente e ponderando 
    dinamicamente cada componente em função do desempenho do agente na tarefa 
    associada.
    Provamos a convergência do método proposto e mostramos empiricamente que 
    ele supera métodos concorrentes nos ambientes avaliados em termos de 
    velocidade de aprendizado e, em alguns casos, desempenho final.

40
  • DANILO AUGUSTO MENEZES CLEMENTE
  • Modelagem hierárquica da disponibilidade de serviços hospedados em Centro de Dados distribuídos

  • Leader : PAULO ROMERO MARTINS MACIEL
  • MEMBRES DE LA BANQUE :
  • CARLOS ALEXANDRE SILVA DE MELO
  • ERICA TEIXEIRA GOMES DE SOUSA
  • PAULO ROMERO MARTINS MACIEL
  • Data: 20 juin 2022


  • Afficher le Résumé
  • A computação em nuvem fornece uma abstração das camadas físicas, permitindo 
    uma sensação de recursos infinitos. No entanto, os recursos físicos não são 
    ilimitados e precisam ser utilizados de maneira cada vez mais assertiva. Um 
    dos desafios da computação em nuvem é aprimorar esta utilização dos 
    recursos físicos sem comprometer a disponibilidade dos ambientes neles 
    hospedados. Os modelos hierárquicos possibilitam uma avaliação eficiente 
    dos sistemas que se utilizam da computação em nuvem, permitindo um melhor 
    aproveitamento dos recursos físicos. Este trabalho se utiliza desta 
    estratégia para conduzir uma avaliação de disponibilidade de um sistema 
    hospedado em uma nuvem privada. Foram realizados estudos preliminares na 
    infraestrutura física e lógica utilizada pelo sistema, visando identificar 
    possíveis pontos de melhorias nas configurações, incluindo uma análise de 
    sensibilidade que identifica os componentes que possuem a maior capacidade 
    de interferência na disponibilidade do sistema. Modelos hierárquicos foram 
    concebidos para representar o ambiente atual (baseline), possibilitando a 
    identificação da disponibilidade do sistema. Foi desenvolvido também uma 
    metodologia que permite a replicação adequada deste estudo, podendo ser 
    utilizada para este sistema ou em sistemas similares. Após a correta 
    identificação e modelagem da baseline, foram propostas alterações nos 
    componentes internos ao CD, visando um aprimoramento da disponibilidade do 
    sistema. Posteriormente da descoberta de um valor da disponibilidade 
    considerado como satisfatório pelos administradores do sistema, foram 
    adicionadas aos modelos previamente desenvolvidos, componentes físicos da 
    estrutura do CD, em conjunto com as CCF. Neste momento do estudo, foram 
    aplicadas técnicas de sintetização em modelos SPN, permitindo a realização 
    dos cálculos com um baixo custo operacional. Foram concebidos modelos que 
    possibilitam a análise de cenários em casos de redundância de CD, 
    permitindo a identificação do CD ativo, além de qual cenário possibilita 
    uma melhor disponibilidade para o sistema.

41
  • PAULO JÚNIOR DE MORAES VASCONCELOS
  • Identificação de fungos anemófilos, em ambientes abertos, através 
    de um nariz eletrônico e modelos de Inteligência Artificial

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • PAULO SALGADO GOMES DE MATTOS NETO
  • CLEBER ZANCHETTIN
  • REGINALDO GONCALVES DE LIMA NETO
  • Data: 22 juin 2022


  • Afficher le Résumé
  • Os fungos dispersam-se na natureza através do ar atmosférico ou por outras 
    vias, como água, insetos, humanos e animais. Os fungos que são dispersados 
    através do ar atmosférico são denominados fungos anemófilos. Sendo assim, a 
    microbiota fúngica anemófila pode ser semelhante ou diferente em cada 
    cidade ou região. Em indústrias como farmacêutica e de alimentos, a 
    preservação da qualidade do ar dos ambientes é ponto importante para a 
    garantia asséptica dos produtos. Hospitais constituem ambientes que 
    necessitam de maior atenção, no que diz respeito ao monitoramento ambiental 
    das áreas críticas. Por outro lado, em climatizadores de ar, o acúmulo de 
    umidade e material orgânico pode torná-los poderosas fontes dispersoras de 
    bioaerossóis. Outra problemática na disseminação de fungos é a produção de 
    micotoxinas. Para conhecer o objeto desse trabalho apresenta-se um estudo 
    sobre os fungos anemófilos, uma breve discursão sobre Inteligência 
    Artificial, em seguida é apresentado o nariz eletrônico utilizado nos 
    experimentos, apresenta-se e explica-se os princípios de funcionamento dos 
    modelos de aprendizagem de máquina testados como solução do problema. 
    Relata-se a exploração dos dados levantados e experimentos das bases de 
    dados de leituras do nariz eletrônico. Os resultados foram satisfatórios em 
    duas bases e insatisfatório em uma base. O classificador InceptionTime 
    obteve o melhor desempenho em uma das bases, atingindo acurácia 97,7% no 
    conjunto de teste. Em outra base o classificador HIVE-COTE 2.0 obteve os 
    melhores resultados alcançando acurácia 96,4% no conjunto de teste. Na 
    última base testada, os resultados foram insatisfatórios, com acurácia 
    máxima de apenas 41,6% no conjunto de teste. Estando no princípio da 
    pesquisa, um ou outro resultado adverso é natural, contudo, conclui-se que 
    essa dissertação contribui desenvolver produtos e serviços que monitorem a 
    qualidade do ar em áreas sensíveis como indústrias alimentícias e 
    farmacêuticas, áreas hospitalares críticas, acúmulo de umidade e material 
    orgânico em condicionadores de ar, como também a presença de micotoxinas 
    produzidas por esses microrganismos. A ampliação e a diversificação da 
    testagem de fungos anemófilos objetivando cobrir uma gama maior de 
    problemas e patologias associadas a mais espécies de fungos anemófilos, 
    como também ampliação das bases de dados, isto é, mais dados e melhores 
    dados para minimizar os erros, implica em modelos mais bem treinados, que 
    generalizam adequadamente para casos novos, que não são conhecidos pelos 
    modelos. Outra frente de trabalho importante é aprofundar o estudo dos 
    modelos de classificadores especializados em séries temporais. O objetivo é 
    encontrar o modelo com resultados mais satisfatórios e com os menores 
    custos computacionais.

42
  • CLEISON CORREIA BATISTA DE AMORIM
  • Uma Abordagem Linguística para o Reconhecimento de Línguas de Sinais

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • BYRON LEITE DANTAS BEZERRA
  • CLEBER ZANCHETTIN
  • LEANDRO MACIEL ALMEIDA
  • Data: 5 juil. 2022


  • Afficher le Résumé
  • A língua de sinais é uma ferramenta essencial na vida do Surdo, capaz de 
    assegurar seu acesso à comunicação, educação, desenvolvimento cognitivo e 
    socio-emocional. Na verdade, ela é a principal força que une essa 
    comunidade e o símbolo de identificação entre seus membros. Por outro lado, 
    o número de indivíduos ouvintes que conseguem se comunicar por meio dessa 
    língua atualmente é pequeno e, na prática, isso acaba trazendo alguns 
    obstáculos para o cotidiano do Surdo. Tarefas simples como utilizar o 
    transporte público, comprar roupas, ir ao cinema ou obter assistência 
    médica acabam se tornando um desafio por conta dessa comunicação limitada. 
    O Reconhecimento de Língua de Sinais é uma das áreas de pesquisa que atuam 
    para desenvolver tecnologias capazes de reduzir essas barreiras 
    linguísticas e facilitar a comunicação entre esses indivíduos. Apesar 
    disso, ao analisarmos sua evolução ao longo das últimas décadas, percebemos 
    que seu progresso ainda não é suficiente para disponibilizar soluções 
    efetivamente aplicáveis ao mundo real. Isso ocorre principalmente porque 
    várias pesquisas nessa área acabam não se apropriando ou abordando 
    adequadamente as particularidades linguística apresentadas pelas línguas de 
    sinais, que são decorrentes de sua natureza visual. Tendo isso em vista, 
    este trabalho introduz uma abordagem linguística para o reconhecimento de 
    língua de sinais que objetiva estabelecer uma direção capaz de conduzir a 
    avanços mais efetivos para essa área e, consequentemente, contribuir com a 
    superação dos obstáculos hoje enfrentados pelo Surdo.

43
  • FERNANDO HENRIQUE DE ALBUQUERQUE ALVES
  • On the usage of functional programming concepts in JavaScript 

  • Leader : FERNANDO JOSE CASTOR DE LIMA FILHO
  • MEMBRES DE LA BANQUE :
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • FERNANDO JOSE CASTOR DE LIMA FILHO
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 8 juil. 2022


  • Afficher le Résumé
  • Constructos de linguagem de programação inspirados no paradigma funcional chegaram à maioria das linguagens convencionais. Muitos pesquisadores e desenvolvedores consideram que esses constructos levam a programas mais concisos, reutilizáveis e mais fáceis de entender. No entanto, poucos estudos investigam a prevalência dessas estruturas e as implicações de usá-las em linguagens de programação convencionais. Este trabalho quantifica a prevalência de quatro conceitos, normalmente associados à programação funcional, em JavaScript: recursão, imutabilidade, avaliação preguiçosa e funções como valores. Dividimos o último em dois grupos, funções de ordem superior e callbacks & promises. Focamos em programas JavaScript devido à disponibilidade de alguns desses conceitos na linguagem desde seu início, sua inspiração em linguagens de programação funcionais e a popularidade da linguagem. Mineramos 91 repositórios GitHub (mais de 22 milhões de linhas de código (LOC)) escritos principalmente em JavaScript (mais de 50% do código), medindo o uso desses conceitos de perspectivas estáticas e temporais. Também medimos a probabilidade de commits de correção de bugs removendo usos desses conceitos (o que sugeriria propensão a bugs) e sua associação com a presença de comentários de código (o que sugeriria um código difícil de entender). Descobrimos que esses conceitos estão em uso generalizado (478,605 ocorrências, 1 para cada 46.65 linhas de código, 43.59% de LOC). Além disso, o uso de funções de ordem superior, imutabilidade e estruturas relacionadas à avaliação preguiçosa vêm crescendo ao longo dos anos para os projetos analisados, enquanto o uso de recursão e callbacks & promises diminuiu. Também encontramos evidências estatísticas de que a remoção dessas estruturas, com exceção das associadas à imutabilidade, é menos comum em commits de correção de bugs do que em outros commits. Além disso, sua presença não está correlacionada com o tamanho do comentário associado. Nossas descobertas sugerem que os conceitos de programação funcional são importantes para desenvolvedores que usam uma linguagem multiparadigma, como JavaScript, e seu uso não torna os programas mais difíceis de entender.

44
  • JORGE FÉLIX PUIG BATLLE
  • DIFUSÃO ÓTIMA MULTICANAL EM REDES ALOHA VEICULARES COM   RESTRIÇÃO TEMPORAL

  • Leader : RENATO MARIZ DE MORAES
  • MEMBRES DE LA BANQUE :
  • JOSE AUGUSTO SURUAGY MONTEIRO
  • JULIANO BANDEIRA LIMA
  • RENATO MARIZ DE MORAES
  • Data: 27 juil. 2022


  • Afficher le Résumé
  • Este trabalho desenvolve o acesso aleatório ótimo na transmissão de mensagens com prazo de entrega final em uma rede veicular de rádio cognitivo, considerando que as mensagens devem ser entregues para todos os nós da rede em um prazo de entrega estrito. No modelo proposto são considerados vários canais de transmissão de dados sincronizados, não sobrepostos e independentes. O transmissor é um usuário secundário (SU), que acessa a um desses canais usados pelos usuários primários (PU), de forma oportunista. O protocolo de controle de acesso ao meio usado é o Slotted-Aloha onde uma transmissão por difusão tem sucesso se todos os nós receptores, dentro do alcance de transmissão do emissor, recebem as mensagens dentro do prazo de entrega estritamente definido, considerando terminais ocultos na rede. Uma abordagem com retransmissão de mensagens é utilizada para melhorara confiabilidade de entrega, que necessita ter uma taxa de sucesso maior ou igual a 99,9 %,com uma latência máxima de 100 ms para cumprir as regulamentações de confiabilidade e segurança das redes de veículos. Além disso, um novo método de análise de transmissão multicanal periódica é proposto usando uma abordagem com coeficientes multinomiais e outra baseada na função de distribuição de probabilidade geométrica. Nos resultados, exibimos como o aumento do numero de canais para as transmissões, o aumento do tempo limite de entrega de pacotes assim como as retransmissões, tem um efeito positivo na vazão do sistema modelado. Por outra parte, será exposto como a presença de terminais escondidos e o aumento de usuários prioritários, vão em detrimento do desempenho da rede.

45
  • DAVI JOSÉ MENDES MAIA
  • Revelando Competências no PBL Aplicado ao Ensino de Computação: Uma 
    Solução Baseada em IA para Alinhamento Construtivo entre Objetivos 
    Educacionais e Feedbacks dos Estudantes

  • Leader : SIMONE CRISTIANE DOS SANTOS LIMA
  • MEMBRES DE LA BANQUE :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • SIMONE CRISTIANE DOS SANTOS LIMA
  • VERONICA TEICHRIEB
  • Data: 28 juil. 2022


  • Afficher le Résumé
  • Existe um movimento crescente na educação superior em computação para
    mudar um paradigma educacional que vai além da educação baseada no
    conhecimento. Por isso, metodologias ativas de aprendizagem baseadas em
    experiências práticas, como o PBL, têm se tornado cada vez mais populares
    para desenvolver conhecimentos técnicos, habilidades e atitudes do aluno,
    capacitando-o para um melhor desempenho profissional. Todos esses
    elementos envolvem iterações que precisam ser mapeadas e acompanhadas
    continuamente por meio de um modelo abrangente de avaliação de diferentes
    aspectos e perspectivas. Nesse contexto, surge a educação baseada em
    competências como uma abordagem pedagógica que envolve a redefinição do
    objetivo do programa, da sala de aula e da educação, tendo como referência o
    desenvolvimento de competências nos alunos. Neste estudo, o termo
    “competência” é definido por três atributos: conhecimento, habilidades e
    atitudes. Assim, é necessário monitorar esses atributos nos alunos,
    considerando esse modelo de ensino. Com essa motivação, este trabalho
    defende a Teoria do Alinhamento Construtivo de Biggs como forma de
    acompanhamento de competências profissionais. Essa teoria sugere o
    alinhamento entre os resultados da aprendizagem na perspectiva do aluno e os
    objetivos educacionais definidos pelo professor no planejamento do curso. Esse
    acompanhamento pode ser feito de várias maneiras e incluir muitas fontes de
    dados, como os questionários de feedback dos alunos, aplicados pelos
    professores ao longo do curso/disciplina. Entretanto, esse
    acompanhamento exige muito esforço do professor ou da equipe pedagógica,
    pois o professor precisa adotar um modelo de avaliação contínua que capte
    vários aspectos subjetivos desses feedbacks, geralmente numerosos. Assim,
    processar feedbacks pessoais, alinhando-os com o desenvolvimento de
    competências para melhorar a aprendizagem, envolve dificuldades relacionadas
    ao esforço, carga de trabalho e tempo gasto para fazer melhorias.
    Considerando os desafios encontrados e o contexto da educação baseada em
    competências, esta pesquisa se propõe a responder a seguinte questão:
    Como acompanhar competências profissionais dos alunos
    de forma automatizada, tendo como referência a Teoria do Alinhamento
    Construtivo e o planejamento do curso? Para responder a essa pergunta,
    este estudo propõe a criação e aplicação de uma solução baseada em IA
    para processamento dos feedbacks dos alunos que auxiliará o professor no
    acompanhamento de competências, considerando os objetivos educacionais
    planejados. O método Design Science Research foi utilizado para construir a
    SkillSight em ciclos, por meio de técnicas de mineração de texto como modelagem de
    tópicos e reconhecimento de entidades nomeadas, utilizando as bibliotecas
    BERTopic e Spacy. Como resultados, um protótipo funcional da SkillSight foi construído e
    avaliado por professores e especialistas, mostrando uma boa aceitação da ferramenta e evidências iniciais de sua utilidade no processo de acompanhamento de competências, auxiliando o professor no processamento de feedbacks.

46
  • MIGUEL ANGEL ORTIZ ACUÑA
  • Cooperação Cientifica e Inovadora STEM sob a Égide da Tríplice 
    Hélice para Brasil, Argentina, Chile e México: uma abordagem de Teoria dos  Jogos Cooperativos.

  • Leader : ADIEL TEIXEIRA DE ALMEIDA FILHO
  • MEMBRES DE LA BANQUE :
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • CARMELO JOSÉ ALBANEZ BASTOS FILHO
  • FRANCISCO DE SOUSA RAMOS
  • Data: 4 août 2022


  • Afficher le Résumé
  • Esta Dissertação utiliza Jogos Cooperativos para analisar as contribuições individuais
    e coletivas realizadas no contexto da Tríplice Hélice (Universidade, Industria e Governo)
    em áreas consideradas de impacto significativo para a inovação (denominadas como STEM
    - Science, Technology, Engineering and Mathematics), nas quatro principais economias
    da América Latina. Os países analisados possuem sistemas de inovação limitados e passa-
    ram por muitas mudanças em sua estrutura política e econômica nos últimos anos. Três
    métricas foram utilizadas, o Núcleo, o Valor de Shapley e o Nucléolo, com o objetivo de
    modelar a contribuição individual e coletiva de cada jogador para criar e manter a si-
    nergia. As informações bibliométricas tanto de publicações cientificas e patentes de áreas
    STEM foram coletadas da Web of Science e The Lens respectivamente para o período de
    2010 a 2020, posteriormente foi aplicado o algoritmo RegexTH para classificar os atores
    em cada sistema de inovação. Os resultados mostram que em publicações cientificas, a
    universidade é a protagonista com maior poder de criação de sinergia. Dois resultados
    emergem, com características bem definidas: i) um modelo de intervenção mínima, se-
    guindo princípios liberais, em que a universidade é considerada referência. Este modelo é
    utilizado pelo Chile, com grande protagonismo universitário, escassa contribuição indivi-
    dual da Indústria e do Governo, mas cuja participação em coalizão é muito significativa;
    e ii) o modelo intervencionista, que segue direções progressistas, em que a universidade é
    um ator importante, mas o governo e a indústria têm influência significativa, economica-
    mente e politicamente. A análise de patentes demostra que o principal ator é a indústria
    mas a área do núcleo dos sistemas de inovação é vazio portanto o nível de maturidade
    ainda está na etapa de competição e precisará de tempo e políticas de inovação para fazer
    uma transição a uma etapa de colaboração.

47
  • ERALDO BARBOSA DOS ANJOS FILHO
  • Otimização de Portfólio de Markowitz Através da Estratégia de Pares 
    de Negócios Cointegrados em Investimento a Longo Prazo Aplicado ao Mercado 
    Brasileiro

  • Leader : ADIEL TEIXEIRA DE ALMEIDA FILHO
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • CARLOS ALBERTO GOMES DE AMORIM FILHO
  • Data: 4 août 2022


  • Afficher le Résumé
  • Os modelos clássicos de portfólio geralmente consideram critérios de média 
    e variância de retorno, analisados e estudados em condições de certeza, 
    enquanto os modelos contemporâneos consideram outros objetivos e restrições 
    mais realistas, como a estratégia de pares. Este trabalho buscou analisar o 
    desempenho de uma otimização de Markowitz em conjunto com métodos 
    contemporâneos, em particular, a otimização da carteira Mar- kowitz através 
    da estratégia de pares de negócios cointegrados, com base em dados 
    históricos sobre o preço de abertura dos principais ativos que compõem o 
    índice Bovespa, de janeiro de 2010 até dezembro de 2021. Para analisar e 
    comparar o desempenho da carteira, foi realizada uma simulação de Monte 
    Carlo em R, armazenando o retorno acumulado e o índice de Sharp de cada 
    iteração. Os métodos de comparação adotados foram: modelo de médias móveis 
    autorregressivas (ARIMA) e XGboost em conjunto com Markowitz e otimização 
    de portfólio utilizando o Algoritmo Genético de Ordenação Não Dominada II 
    (NSGA-II). Após a comparação se observou que a estratégia de pares obteve 
    um retorno anual médio de 0,21 utilizando a estratégia de pares e 0,31 com 
    a otimização via NSGA-II, resultado bem superior aos indicadores (Ibovespa, 
    CDI e Selic) e aos modelos ARIMA e XGboost. A estratégia de pares também 
    apresentou o maior índice de Sharp, 0,10 e 0,13, também superior aos demais 
    modelos e indicadores. Os resultados demostraram a eficiência da estratégia 
    de pares de negócios cointegrados no mercado financeiro brasileiro.

48
  • GABRIEL FONSECA REIS DE SOUZA
  • Manipulação robótica: Projeto e desenvolvimento de uma garra para 
    conectores RJ45

  • Leader : JUDITH KELNER
  • MEMBRES DE LA BANQUE :
  • ANNA PRISCILLA DE ALBUQUERQUE
  • JUDITH KELNER
  • PATRICIA TAKAKO ENDO
  • Data: 5 août 2022


  • Afficher le Résumé
  • Uma vez que as garras são os elementos responsáveis por interagir com o 
    ambiente físico, a manipulação robótica tem uma importância relevante na 
    automação de tarefas. Existem diversas garras robóticas no mercado, 
    entretanto, nem sempre elas são adequadas aos sistemas de automação por não 
    apresentarem confiabilidade ou terem custo elevado. Esse trabalho descreve 
    o desenvolvimento de uma garra robótica para trabalhar em conjunto com um 
    sistema autônomo de manutenção para ERB, o RBOT. A garra foi projetada com 
    o foco em manipular conectores RJ45. O processo de desenvolvimento englobou 
    a especificação de requisitos, passando por várias iterações de 
    prototipagem até a realização de testes a fim de validar o uso da garra em 
    um cenário real. Foram executados testes de manipulação do conector RJ45 de 
    forma teleoperada e automática  parasimular a tarefa de retirar cabos de 
    uma ERB. Os usuários ainda avaliaram o sistema através da escala numérica 
    de usabilidade SUS. Ao fim, a garra impactive com dois dedos construída com 
    peças impressas em 3D mostrou-se confiável e robusta o bastante para ser 
    utilizada em laboratório.

49
  • KEVIN IAN RUIZ VARGAS
  • UR-SRGAN: A Generative Adversarial Network for Real-world 
    Super-resolution with a U-Net-based Discriminator

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • TSANG ING REN
  • ING JYH TSANG
  • Data: 8 août 2022


  • Afficher le Résumé
  • Apesar de várias melhorias nas técnicas de aprendizado profundo de 
    super-resolução, esses métodos propostos tendem a falhar em muitos cenários 
    do mundo real, pois seus modelos geralmente são treinados usando um 
    processo de degradação predefinido de imagens de verdade de alta resolução 
    (HR) para baixa resolução (LR). Neste trabalho, propomos um modelo 
    supervisionado de Generative Adversarial Network (GAN) para Super-Resolução 
    (SR) de Imagem que tem como primeira etapa estimar kernels de blur e 
    estimativa de ruído de imagens do mundo real para gerar imagens LR para a 
    fase de treinamento. Além disso, a proposta inclui a implementação de um 
    novo discriminador baseado em U-Net, para considerar o contexto global e 
    local de uma imagem de entrada, e permite empregar um aumento de dados 
    CutMix para regularização de consistência no espaço de saída bidimensional 
    do decodificador. O modelo proposto foi aplicado a três conjuntos de dados 
    principais que são normalmente usados em competições oficiais de 
    super-resolução. As métricas de avaliação comumente usadas para restauração 
    de imagem PSNR, SSIM e LPIPS foram usadas para esta avaliação. Após a 
    implementação desta nova arquitetura, três outros modelos de destaque nas 
    propostas GAN de super-resolução de última geração foram treinados com os 
    mesmos parâmetros e bancos de dados para realizar uma comparação global 
    entre todos eles. Por fim, os resultados da experimentação em tarefas de 
    treinamento e avaliação entre todos os modelos sugerem uma melhora no 
    desempenho do trabalho apresentado em relação às demais arquiteturas 
    baseadas nas métricas estabelecidas.

50
  • KESSIA THAIS CAVALCANTI NEPOMUCENO
  • A Machine Learning Approach to Escaped Defect Analysis

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE CABRAL MOTA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 11 août 2022


  • Afficher le Résumé
  • Encontrar defeitos em sistemas ou aplicações computacionais é uma das 
    principais atividades na indústria de software. Isso impacta diretamente a 
    qualidade e performance do produto final, gerando consequências para o 
    usuário e o fornecedor. Uma das situações atreladas às atividades de 
    detectar defeitos, é quando o defeito não é percebido na etapa que ele 
    deveria ser detectado, e então é incorporado ao produto. Chamamos este 
    acontecimento de defeito escapado, uma vez que o defeito foi escapado pelo 
    testador daquela etapa. A fim de mitigar ou eliminar os defeitos escapados, 
    é comum se ter um setor responsável pelas suas análises. Esse setor analisa 
    e avalia os bugs perdidos com o intuito de entender o contexto em que eles 
    estão inseridos e corrigir as falhas. Assim a falha não volta a acontecer e 
    temos um ganho na qualidade do produto e performance  dos testes.
    A análise de defeitos escapados também é uma forma de medir o desempenho da 
    equipe de testes, bem como o lançamento de novos produtos e serviços. 
    Entretanto, apesar de ser uma atividade importante, ela exige recursos como 
    tempo, equipamentos, treinamentos e outros. Portanto, nem sempre é possível 
    ser aplicada de forma constante e precisa.
    Neste trabalho, construímos um sistema de aprendizagem de máquina para 
    automatizar o processo de análise de defeitos escapados. Utilizamos Bug 
    Reports reais da indústria como dados históricos no nosso modelo. Esses 
    documentos de Bug Report representam os defeitos rotulados como defeito 
    escapado e defeito não escapado.  Os dados dos campos do Bug Report foram 
    coletados, tratados e utilizados como entrada pro nosso modelo, o qual 
    utilizou o Random Forest como classificador principal. Como resultado, 
    obtivemos o ranking dos Bug Reports com maior probabilidade de ser um 
    defeito escapado. Com isso, é possível que os testadores da indústria de 
    software concentrem e direcionem os esforços nos Bugs Reports com maior ou 
    menor chance de ser um defeito escapado. Dessa forma, eles conseguem 
    otimizar recursos de operação de trabalho.
    Para medir o desempenho do classificador, utilizamos a Curva ROC e uma nova 
    métrica que propomos, a curva de custo-benefício. Em ambas as métricas, 
    obtivemos resultados significativos e promissores.

51
  • BRUNO DE SOUZA JERONIMO
  • Human-Robot Interaction Engagement Strategies for Children’s  Education

  • Leader : JUDITH KELNER
  • MEMBRES DE LA BANQUE :
  • CARMELO JOSÉ ALBANEZ BASTOS FILHO
  • JAELSON FREIRE BRELAZ DE CASTRO
  • JUDITH KELNER
  • Data: 11 août 2022


  • Afficher le Résumé
  • A Robótica Assistiva e Educacional é uma das áreas de amplo destaque no campo da Interação Humano-Robô. Em relação a esse aspecto, recente revisão de literatura indica que o uso de robôs sociais no domínio educacional tem despertado significativa atenção nos últimos anos. Recursos tecnológicos podem apoiar a educação musical no desenvolvimento de habilidades individuais, além de apoio ao ensino à distância e o fortalecimento da autoeficácia e do aprendizado de habilidades independentes. As tecnologias podem reforçar as estratégias de aprendizagem existentes e incentivar mais pessoas a aprender música. O engajamento, nesse sentido, é fundamental para evitar a desistência e induzir o interesse do indivíduo em desenvolver novos horizontes de aprendizagem. O presente trabalho concentra-se então na comparação de dois modelos de robôs sociais que executam a mesma aplicação de Interação Humano-Robô (IHR) visando o contexto da educação musical para crianças, e a descoberta dos designs robóticos preferidos pelo público-alvo nas tarefas avaliadas. A avaliação realizada usou um protocolo remoto experimental que apoia a coleta de feedback online com os usuários durante a pandemia do COVID-19. Os resultados empíricos apoiaram a realização de avaliações quantitativas e qualitativas de nossa aplicação, além de destacar as diferenças percebidas nos recursos existentes nos corpos desses robôs.

52
  • JONATHAN HENRIQUE ANDRADE DE CARVALHO
  • Parametrized Constant-Depth Quantum Neuron: framework, conception, and applications

  • Leader : FERNANDO MACIANO DE PAULA NETO
  • MEMBRES DE LA BANQUE :
  • PAULO SALGADO GOMES DE MATTOS NETO
  • FERNANDO MACIANO DE PAULA NETO
  • TIAGO ALESSANDRO ESPINOLA FERREIRA
  • Data: 11 août 2022


  • Afficher le Résumé
  • A computação quântica vem revolucionando o desenvolvimento de algoritmos, o que inclui notáveis avanços em redes neurais artificiais. A exploração de fenômenos inerentemente quânticos traz a promessa de transcender a computação clássica. No entanto, apenas dispositivos quânticos de escala intermediária e ruidosos estão disponíveis atualmente. Para demonstrar vantagens nesta era quântica, o desenvolvimento de algoritmos quânticos precisa satisfazer diversos requisitos de software devido à insuficiência de recursos computacionais quânticos. Nesta pesquisa, nós propomos uma estrutura que constrói neurônios quânticos baseados em máquinas de kernel. Esta estrutura generalizada não apenas contempla neurônios quânticos existentes como também abre espaço para definir inúmeros outros, incluindo neurônios quânticos que atendam às atuais restrições de hardware. Por exemplo, nós propomos aqui um neurônio quântico que é implementado por um circuito de profundidade constante com um número linear de portas elementares de um único bit quântico. Neurônios quânticos existentes são implementados por circuitos exponencialmente custosos, mesmo usando portas complexas de múltiplos bits quânticos. Nós melhoramos o neurônio quântico proposto através de uma parametrização que consegue mudar a forma da sua função de ativação a fim de se ajustar a padrões subjacentes que neurônios quânticos existentes não conseguem se ajustar. Como uma demonstração inicial, nós mostramos o neurônio quântico proposto produzindo soluções ótimas para seis problemas de classificação que um neurônio quântico existente consegue resolver apenas dois deles. A superioridade do neurônio quântico proposto é realmente confirmada aqui por um benchmark entre neurônios quânticos e clássicos em diversos problemas de classificação. Na maioria dos casos, o neurônio quântico proposto é o melhor entre todos os neurônios. A parametrização definitivamente fornece flexibilidade para não apenas se ajustar a uma ampla variedade de problemas mas também para otimizar a margem entre classes, pelo menos melhor que os neurônios clássicos e os neurônios quânticos existentes. Portanto, esta pesquisa abre o caminho para desenvolver redes neurais quânticas que podem demonstrar uma vantagem quântica prática já na era quântica atual.

53
  • EDUARDO HENRIQUE ALVES MAIA MATIOS OLIVEIRA
  • Autenticação no Ambiente IoV baseada em Blockchain com suporte a 
    Computação de Borda (ABE-IoV)

  • Leader : KELVIN LOPES DIAS
  • MEMBRES DE LA BANQUE :
  • NELSON SOUTO ROSA
  • KELVIN LOPES DIAS
  • TASSIO COSTA DE CARVALHO
  • Data: 12 août 2022


  • Afficher le Résumé
  • Com o advento dos Sistemas de Transporte Inteligentes (ITS - Intelligent 
    Transportation Systems), os dados de vários sensores incorporados em 
    veículos ou infraestrutura de cidades inteligentes são de extrema 
    importância. O ambiente da Internet Veicular (IoV) demanda soluções 
    eficazes de autenticação e validação das informações e dados 
    compartilhados, considerando os requisitos de latência e vazão das 
    aplicações veiculares. Diante deste cenário o suporte de segurança é de 
    suma importância para o sucesso e a ampla adoção de carros conectados e 
    autônomos. Este ecossistema exigirá poder de processamento e mecanismos de 
    confiança eficientes para os diversos modos de comunicações entre os 
    veículos e demais dispositivos no ambiente (V2I, V2V e V2X). Os estudos 
    atuais de avaliação de desempenho com base na adoção das redes móveis de 
    nova geração 5G e da computação de borda com o processamento mais próximo 
    dos veículos são incipientes quanto à análise comparativa entre sistemas de 
    autenticação centralizados tradicionais e blockchain como serviço de 
    autenticação. Para realizar esta análise foram elaborados diferentes 
    cenários com variação do número de estações radio-base, road-side units, 
    veículos, mineradores e tamanho do bloco. Além disso, este trabalho de 
    pesquisa implementou duas soluções de Autenticação no Ambiente IoV, uma 
    baseada em Blockchain com suporte a Computação de Borda (ABE-IoV) e outra 
    baseada em Trust Authority centralizada. Essas soluções foram desenvolvidas 
    como aplicações no simulador de rede NS-3. Simulando os diferentes cenários 
    foi possível identificar as principais características, vantagens e 
    limitações do uso de blockchain como serviço de autenticação de veículos. 
    Observou-se que ao aumentar a quantidade total de veículos mantendo o 
    número de mineradores, as métricas de Quality of Service (QoS) para 
    blockchain se mantiveram estáveis com poucas alterações. No entanto, ao 
    aumentar a quantidade de mineradores mantendo a quantidade de veículos o 
    QoS caiu drasticamente

54
  • THIAGO BATISTA RODRIGUES SILVA
  • Predição de compatibilidade entre cultivares em processos de 
    enxertia: um estudo comparativo de técnicas baseadas em sistemas de 
    recomendação

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • ROSIMAR DOS SANTOS MUSSER
  • DOUGLAS VÉRAS E SILVA
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 12 août 2022


  • Afficher le Résumé
  • A viticultura é a ciência que estuda o cultivo da uva para produção de sucos, vinhos e outros
    derivados. Tanto os produtos quanto a cadeia produtiva possuem elevada importância socioeconômica e cultural em grande parte do mundo. Recentemente, técnicas de enxertia vêm sendo aplicadas para aumentar a produtividade e a qualidade no setor, no entanto, o processo para encontrar cultivares de porta-enxerto que sejam compatíveis com enxertos de videiras é essencialmente experimental, lento e custoso. Embora a utilização de aprendizagem de máquina no Agronegócio não seja novidade, a literatura carece de trabalhos que demonstrem a aplicabilidade dessa técnica para apoiar especificamente processos de enxertia. Este trabalho, por meio de uma perspectiva de Sistema de Recomendação, oferece uma comparação entre abordagens de predição e de classificação para o problema da seleção de cultivares de enxerto e porta-enxerto. Além disso, também avalia os desempenhos de algoritmos baseados em filtragem colaborativa com os de algoritmos baseados em métodos de Kernel, para as tarefas de predição de ratings e de classificação de interações. Ao todo, 17 modelos baseados em algoritmos de filtragem colaborativa e métodos de kernel foram avaliados em um conjunto de dados de 251 interações rotuladas, atingindo o valor máximo de 96% para a métrica f1-score. Os resultados indicaram uma vantagem significativa para a abordagem de classificação, especialmente para os modelos baseados em kernel, bem como a viabilidade de uma ferramenta de apoio à decisão para orientar as escolhas de especialistas das melhores cultivares para enxertia.

55
  • FERNANDA TEIXEIRA DOS SANTOS
  • Espaço de dissimilaridade simbólicos usando distâncias intervalares para classificação e regressão

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • MARCUS COSTA DE ARAUJO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • Data: 12 août 2022


  • Afficher le Résumé
  • Apresenta como objetivo principal a aplicação de algoritmos clássicos de 
    aprendizagem de máquina na transformação de dados simbólicos em dados 
    clássicos, na busca de alcançar resultados tão bons quanto utilizando dados 
    clássicos. Tendo em vista que, o estudo de dados simbólicos originou a área 
    de análise de dados simbólicos, que está diretamente ligada a uma abordagem 
    na área de descoberta automática de máquinas para os dados clássicos. Para 
    tanto,utilizar-se-á da matriz de dissimilaridade já que vem sendo
    amplamente explorada na literatura de aprendizagem de máquina,por obter 
    bons resultados em variadas tarefas, sendo testadas tarefas de 
    classificação e regressão.

56
  • FLAVIANO DIAS FONTES
  • Deejai: Uma plataforma open source para recomendação de músicas 
    para grupos de usuários de serviços de streaming

  • Leader : GIORDANO RIBEIRO EULALIO CABRAL
  • MEMBRES DE LA BANQUE :
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • GILBERTO AMADO DE AZEVEDO CYSNEIROS FILHO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • Data: 15 août 2022


  • Afficher le Résumé
  • Consumir música é algo que fazemos ao longo dos séculos e é uma atividade 
    bastante importante em nossas vidas. Realizar esse consumo de forma 
    coletiva nos dá a possibilidade de criar uma relação emocional forte, pois 
    associamos as pessoas ao redor com o ambiente que consumimos criando toda 
    uma experiência diferenciada. Mas essa experiência acaba ficando nas mãos 
    de poucas pessoas, o artista que está tocando, o DJ da festa, ou até o 
    amigo que põe a sua playlist para tocar durante o encontro com os amigos. 
    Para aprimorar a experiência de se consumir músicas em ambiente coletivo, 
    nos propusemos a utilizar de estudos sobre sistemas de recomendação focado 
    em música, aproveitando suas técnicas já estudadas para construir uma 
    plataforma open source e com a possibilidade de integrar dois serviços de 
    streaming a fim de facilitar a colaboração dos usuários levando em 
    consideração os seus gostos e principalmente seus desgostos para tentar 
    melhorar o resultado da playlist gerada. Foram utilizadas técnicas de 
    filtro colaborativo aplicadas a grupo, de consumo das informações 
    previamente disponíveis pelos usuários nos seus serviços de streaming, 
    levando em consideração os problemas de partida a frio que essas técnicas 
    apresentam além de uma filtragem automática das músicas que não agradam o 
    indivíduo para responder a pergunta: Levar em consideração os desgostos dos 
    usuários cria uma lista de reprodução mais legal. Foi criado o conceito de 
    salas, local onde é definido um contexto para que os usuários possam 
    acompanhar a montagem da playlist, um sistema de votação onde  é possível 
    salvar a opinião de uma determinada música para melhorar as futuras 
    recomendações, pois essa informação não é disponibilizada pelos serviços de 
    streaming. Esse sistema de votação se mostrou importante, pois o consumo de 
    música se mostrou algo muito efêmero, uma música que um usuário gosta muito 
    hoje pode não ser tão apreciada meses depois. Além de que o consumo de 
    músicas é baseado em um contexto, onde, por exemplo, o usuário tem a 
    preferência em ouvir um determinado ritmo durante a prática de exercícios 
    ou em uma festa e para um outro momento tem a preferência por outro, 
    fazendo com que o não gostar dele possa ser tanto pra música que ele 
    detesta, como também para músicas que não combinam com aquele contexto. Com 
    base no do EveryNoiseAtOnce onde os estilos são mapeados como pontos 
    cartesianos, a fim de aproximar estilos próximos é um bom auxílio para 
    poder criar a playlist para usuário que possuem gostos muito distantes, 
    pois é possível construir um caminho entre esses pontos, buscando o vizinho 
    mais próximo.

57
  • GEOVÁ JUNIO DA SILVA TAVARES
  • Uma abordagem baseada no Fluents Calculus para a axiomatização dos 
    casos jurídicos do Direito das Sucessões

  • Leader : FREDERICO LUIZ GONCALVES DE FREITAS
  • MEMBRES DE LA BANQUE :
  • ANJOLINA GRISI DE OLIVEIRA
  • CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
  • RICARDO CICERO DE CARVALHO RODRIGUES
  • Data: 17 août 2022


  • Afficher le Résumé
  • O Direito de Sucessão brasileiro passa por um processo de longa transformação que, naturalmente, acompanha a evolução dos valores morais de uma sociedade. Essa evolução, porém, traz diversas regras e exceções que causam confusão entre leigos e até mesmo pelos operadores do Direito. Além das diversas regras e exceções existentes no texto legal, para algumas situações a legislação ainda é omissa e fica a cargo do judiciário decidir de acordo com o caso concreto, tornando assim essa matéria ainda mais complexa e de difícil elucidação. As razões para querer formalizar o Direito de Sucessão com a ajuda da linguagem formal e a criação de sistemas capazes de inferir premissas em situações de elevada carga de regras e restrições são inúmeras. A formalização melhora a compreensão exata e específica de um texto porque ajuda a destacar ambiguidades, leituras ou interpretações não intencionais, aumenta a compreensão precisa e evita má interpretação do texto legal proveniente das frequentes alterações e revisões da legislação e jurisprudência. Isso resulta em uma expansão do acesso à informação, crescimento da produtividade, qualificação das informações, melhora no controle de prazos, aumento da eficiência e redução de custos e auxilia o órgão julgador na sua tomada de decisão e provimento de sentença. Nessa interdisciplinaridade do Direito e da Inteligência Artificial o propósito é desembaraçar problemas com a complexidade dos sistemas jurídicos, as antinomias da norma jurídica, o alto volume de informações, e a modelagem do raciocínio jurídico. Este trabalho explora como o conhecimento jurídico e o raciocínio jurídico do Direito de Sucessão se comportam ao serem formalizados pelo Fluents Calculus.

58
  • GEICIANFRAN DA SILVA LIMA ROQUE
  • Agente Conversacional no Autocuidado de Feridas

  • Leader : SERGIO RICARDO DE MELO QUEIROZ
  • MEMBRES DE LA BANQUE :
  • MARCOS ANTONIO DE OLIVEIRA SOUZA
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • SERGIO RICARDO DE MELO QUEIROZ
  • Data: 18 août 2022


  • Afficher le Résumé
  • A crescente demanda por pacientes com feridas, tem desafiado 
    significativamente os enfermeiros em seu trabalho. Um agente conversacional 
    com conteúdo baseado em evidências devidamente validado pode auxiliar 
    enfermeiros e pacientes no gerenciamento do autocuidado. Este trabalho 
    descreve o desenvolvimento de um agente conversacional (botcurativo) que 
    visa auxiliar o autocuidado no manejo de feridas no ambiente doméstico, 
    fornecendo orientação sobre os procedimentos de curativos recomendados para 
    cada tipo de ferida. A pesquisa metodológica foi realizada em cinco etapas. 
    A primeira etapa corresponde o levantamento dos requisitos, em seguida 
    realiza à validação do conteúdo do roteiro através de um painel de 
    enfermeiros estomaterapeutas, que avaliaram os domínios e itens do roteiro 
    do agente conversacional. A análise dos dados foi realizada utilizando o 
    Índice de Validade do Conteúdo por níveis individuais e de escala (≥ 0,80). 
    Assim, para verificar o acordo entre os agente conversacional, foi 
    utilizado o teste Kappa. O agente de conversação foi desenvolvido na 
    segunda etapa utilizando a plataforma Dialogflow. Na terceira etapa, a 
    usabilidade do agente conversacional foi analisado usando a Escala de 
    Usabilidade do Sistema (SUS) por 17 usuários, 8 pacientes com feridas 
    crônicas, 5 cuidadores de pessoas com feridas agudas e crônicas e 4 
    enfermeiros. Finalmente, a etapa 4 foi um estudo de caso onde 9 
    participantes foram entrevistados, incluindo pacientes e cuidadores. 
    Avaliamos a percepção do usuário ao utilizar o Botcurativo. Os dados 
    coletados foram analisados utilizando técnicas de codificação aberta e 
    axial. Os resultados foram analisados usando a ferramenta MAXQDA. Os 
    domínios estabelecidos alcançaram excelentes critérios de adequação, 
    relevância e representatividade, todos acima de 90%; o índice de validade 
    do conteúdo por nível de escala alcançou 0,97 e 0,82 pelos métodos de 
    acordo médio e universal, respectivamente, com excelente concordância entre 
    os avaliadores (valor Kappa: 0,83). A pontuação geral de usabilidade foi de 
    80,1. A percepção dos sete pacientes que utilizaram o Botcurativo, com a 
    causa da ferida afetada por trauma ou patologia, teve uma sensação 
    positiva. Por outro lado, quando a causa da ferida era uma lesão por 
    pressão, os pacientes eram idosos e tinham comorbidades, e seus cuidadores, 
    os participantes da pesquisa, tinham sentimentos negativos e precisavam de 
    cuidados mais humanizados. O script desenvolvido e incorporado ao protótipo 
    do agente conversacional atingiu um nível satisfatório de validade do 
    conteúdo. A usabilidade foi considerada boa, acrescentando credibilidade ao 
    dispositivo, e a percepção do usuário apresentou um sentimento positivo na 
    aplicação.

59
  • DIÓGENES EMIDIO LEÓDIDO
  • NUDGES DIGITAIS COM CHATBOTS: UMA SOLUÇÃO DE APOIO A FISIOTERAPIA PÓS-CIRÚRGICA DO OMBRO

  • Leader : SERGIO RICARDO DE MELO QUEIROZ
  • MEMBRES DE LA BANQUE :
  • ALANA ELZA FONTES DA GAMA
  • ALEX SANDRO GOMES
  • SERGIO RICARDO DE MELO QUEIROZ
  • Data: 19 août 2022


  • Afficher le Résumé
  • A telessaúde tem sido foco das políticas de saúde para a zona rural, 
    sobretudo para apoiar o processo de reabilitação pós cirúrgica do ombro .Os 
    procedimentos pós-cirúrgicos são de suma importância para o sucesso do 
    tratamento, uma vez que a não realização de uma série de movimentos no 
    ombro operado pode causar atrofiamento e congelamento dos movimentos. 
    Diversas pesquisas tecnológicas apresentam soluções para promover adesão e 
    engajamento aos exercícios realizados à distância, entretanto sua maioria 
    utiliza recursos de alto custo  como games, sensores e smartwatch. Itens 
    que inviabilizam a implantação deste tipo de tecnologia em áreas rurais.   
    Por isso, esse trabalho tem como objetivo desenvolver e avaliar um nudge 
    chatbot para auxílio da telereabilitação pós-cirúrgica do ombro. Trata-se 
    de um estudo de desenvolvimento tecnológico que utilizou o Design Science 
    Research Methodology (DSRM) com suas seis etapas. O artefato foi 
    apresentado para 7  profissionais formados em Fisioterapia, os quais 
    preencheram um questionário semi-estruturado de avaliação.  Foi 
    desenvolvido o protótipo de um chatbot que envia nudges digitais através de 
    mensagens assíncronas na plataforma de mensagens Telegram. 71% dos 
    participantes afirmaram acreditar que o artefato  possa influenciar a 
    prática de exercícios de fisioterapia; 85% acreditam que o sistema proposto 
    possa dar auxílio a pacientes que realizam cirurgia de ombro. Com os 
    resultados foi possível concluir que um nudge chatbot foi bem aceito pela 
    área de fisioterapia e que pode ser um instrumento mais estratégico e de 
    baixo custo para a política de saúde em áreas remotas e distantes do país.

60
  • JOSE WILLIAM ARAUJO DO NASCIMENTO
  • Identificação de bactérias comuns em feridas infectadas 
    (Staphylococcus aureus e Pseudomonas aeruginosa) através de um nariz 
    eletrônico e modelos de Inteligência Artificial

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • SERGIO RICARDO DE MELO QUEIROZ
  • LEANDRO MACIEL ALMEIDA
  • ISABEL CRISTINA RAMOS VIEIRA SANTOS
  • Data: 23 août 2022


  • Afficher le Résumé
  • As infecções em feridas são umas das complicações mais comuns que atrasam a 
    sua cicatrização. As principais bactérias que causam esta infecção são 
    Staphylococcus aureus e Pseudomonas aeruginosa, elevando a morbidade e 
    mortalidade dos pacientes. Os principais métodos atuais para auxiliar no 
    diagnóstico de infecções em feridas causadas por estas bactérias são a 
    cultura e o método molecular, que possuem elevado período para 
    identificação das espécies e elevado custo financeiro, respectivamente. 
    Neste sentido, um excelente recurso tecnológico em informática é o nariz 
    eletrônico, uma técnica de amostragem não invasiva, indolor e barata, com 
    elevada taxa de precisão. Na literatura científica são abordados poucos 
    estudos acerca do uso do nariz eletrônico no campo de feridas infectadas 
    por bactérias, desta forma, este estudo justifica-se por apresentar uma 
    nova metodologia que torne a identificação de bactérias de forma mais 
    precisa e rápida, podendo ser um recurso que auxiliará profissionais de 
    saúde em um breve futuro. Neste sentido, este estudo objetivou identificar 
    bactérias comuns em feridas infectadas (Staphylococcus aureus e Pseudomonas 
    aeruginosa) através de um nariz eletrônico e modelos de Inteligência 
    Artificial. A metodologia deste estudo experimental utilizou um nariz 
    eletrônico com controle automático e quatro culturas bacterianas, sendo 
    duas da espécie Staphylococcus aureus e duas culturas da espécie 
    Pseudomonas aeruginosa foram utilizadas no experimento. Após o processo de 
    coleta das amostras no nariz eletrônico, foi desenvolvido um banco de dados 
    composto por 4249 amostras, onde 2719 foram utilizadas para o treinamento 
    dos modelos (60%), 850 para validação (20%) e 680 para testes dos modelos 
    de Inteligência Artificial utilizados (20%). Quatro algoritmos de 
    classificação supervisionados com base em séries temporais foram utilizados 
    no processamento de dados. Após os experimentos envolvendo os modelos de 
    Inteligência Artificial, verificou-se que no conjunto de teste (os modelos 
    são colocados em contato com amostras desconhecidas), o classificador 
    InceptionTime obteve o melhor desempenho para a identificação das bactérias 
    Staphylococcus aureus e Pseudomonas aeruginosa, com uma acurácia de 99,50% 
    (desvio padrão: 0,00074) e uma precisão de 99,51%. O desempenho médio dos 
    modelos no conjunto de teste apresentou resultados satisfatórios, com uma 
    acurácia de 97,70% e uma precisão de 97,73%. Constatou-se que a metodologia 
    proposta utilizando um nariz eletrônico e modelos de aprendizado de máquina 
    baseado em séries temporais pode ajudar a identificar espécies bacterianas 
    presentes em feridas infectadas de forma mais precisa, rápida e eficiente 
    do que os métodos de identificação existentes.

61
  • DAVI SIMÕES FREITAS
  • Uma infraestrutura assistida por robô para detecção de perda de 
    dados em aplicativos Android.

  • Leader : BRENO ALEXANDRO FERREIRA DE MIRANDA
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE CABRAL MOTA
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • MARCIO DE MEDEIROS RIBEIRO
  • Data: 23 août 2022


  • Afficher le Résumé
  • Quando uma aplicação Android é interrompida por uma chamada ou quando a 
    orientação do dispositivo é alterada (de retrato para paisagem ou 
    vice-versa), o sistema operacional pode precisar destruir e recriar a 
    atividade. Idealmente os dados e o estado da aplicação deveriam ser salvos 
    (antes da destruição) e restaurados (após a recriação) para evitar perda de 
    dados. Infelizmente, o sistema operacional Android não gerencia estes 
    cenários nativamente e os desenvolvedores de aplicativos precisam 
    explicitamente salvar e restaurar os dados da aplicação. Caso contrário, os 
    usuários podem observar falhas de perda de dados (i.e., informações que 
    estavam presentes antes da interrupção são perdidas após a recriação da 
    atividade). Um trabalho recente (RIGANELLI et al., 2020) propôs uma 
    abordagem automatizada para a detecção de perda de dados em aplicativos 
    Android: casos de teste são gerados para explorar a interface do aplicativo 
    e, durante a exploração, a aplicação é interrompida a partir do 
    acionamento, via software, de uma rotação na tela. Capturas de tela e os 
    dados do aplicativo antes e depois da rotação são comparados para verificar 
    se dados foram perdidos. Tal proposta, entretanto, é i) pouco realista e 
    ii) invasiva. Pouco realista porque a alteração na orientação da tela é 
    acionada via software –— e não pelos sensores como aconteceria em um 
    cenário real; e invasiva porque os comandos são enviados através de 
    comunicação com o dispositivo via cabo USB ou dispositivo simulado. Este 
    trabalho propõe a utilização de um braço robótico artesanal para 
    proporcionar um ambiente de testes mais realista: os eventos de destruição 
    e recriação das atividades são acionados pela rotação física do smartphone. 
    A infraestrutura proposta também permite o envio de comandos sem a 
    necessidade de conexão física com o dispositivo via cabo USB, um passo 
    importante na direção de uma solução realista e não-invasiva. Para avaliar 
    a viabilidade de utilização da infraestrutura proposta, uma avaliação 
    empírica foi realizada considerando 77 aplicativos Android e 341 falhas de 
    perda de dados foram identificadas. Todas as falhas identificadas foram 
    reportadas aos desenvolvedores e, das 201 falhas que já foram analisadas, 
    180 (89,55%) foram confirmadas pelos desenvolvedores.

62
  • CARLOS HENRIQUE CALOETE PENA
  • An Ensemble Learning Method for Segmentation Fusion.

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • CARLOS ALEXANDRE BARROS DE MELLO
  • LUIS FILIPE ALVES PEREIRA
  • TSANG ING REN
  • Data: 25 août 2022


  • Afficher le Résumé
  • A segmentação das células presentes nas imagens microscópicas é uma etapa 
    essencial em muitas tarefas, incluindo a aferição da concentração de 
    proteínas e a análise da expressão gênica das células. Em estudos de 
    genômica, as segmentações celulares são vitais para avaliar a composição 
    genética de células individualmente e a sua localização espacial relativa. 
    Vários métodos e ferramentas foram desenvolvidos para oferecer uma 
    segmentação robusta, sendo, atualmente, os modelos de deep learning as 
    soluções mais promissoras. Como alternativa ao desenvolvimento de outro 
    modelo direcionado de segmentação de células, propomos, nesta dissertação, 
    uma estratégia de aprendizado de fusão que agrega diversas segmentações 
    candidatas independentes provindas de uma mesma imagem para produzir uma 
    única segmentação de consenso. Estamos particularmente interessados em 
    aprender como agrupar segmentações de imagens provindas de ferramentas 
    crowdsourcing, podendo ser criadas por especialistas e não especialistas em 
    laboratórios e data centers. Assim, comparamos nosso modelo de fusão com 
    outros métodos adotados pela comunidade biomédica e avaliamos a robustez 
    dos resultados em três aspectos: fusão com outliers, dados com 
    subsegmentação e deformações sintéticas. Nossa abordagem supera os métodos 
    em eficiência e qualidade, especialmente, quando há uma grande discordância 
    entre as segmentações candidatas da mesma imagem.

63
  • LUIZA CARVALHO SILVEIRA
  • Combinação de técnicas de aprendizado profundo para classificação 
    de raio-x toráxico em apoio ao diagnóstico de COVID-19

  • Leader : FERNANDO MACIANO DE PAULA NETO
  • MEMBRES DE LA BANQUE :
  • ALUIZIO FAUSTO RIBEIRO ARAUJO
  • FERNANDO MACIANO DE PAULA NETO
  • THAÍS GAUDENCIO DO RÊGO
  • Data: 25 août 2022


  • Afficher le Résumé
  • A aplicação de técnicas de deep learning no âmbito de serviços de saúde é um campo de pesquisa emergente na área de Ciência da Computação. A utilização de modelos de deep learning como ferramenta de apoio ao diagnóstico de doenças a partir de exames de imagem tem despertado interesse crescente de pesquisadores da área. A pandemia da COVID-19 motivou o desenvolvimento de modelos de deep learning para detecção de padrões de imagem tendo em vista a escassez de recursos, como exames sorológicos, ter estimulado a utilização alternativa de exames de imagem para detecção da síndrome respiratória. No caso da COVID-19, os exames de raio-x e tomografia do tórax são realizados rotineiramente para investigação da hipótese diagnóstica. Este trabalho combina diferentes técnicas anteriormente aplicadas para detecção da COVID-19 e descreve a qualidade das melhores pipelines encontradas quanto à capacidade de diferenciar três classes de pacientes: aqueles infectados pelo vírus da COVID-19, pacientes com síndrome respiratória causada por outro agente que não o SARS-CoV-2, e, finalmente, pacientes saudáveis. Além disso, é aberta uma discussão sobre a real capacidade de generalização dos modelos existentes até então ao se realizar predições para conjuntos de dados totalmente novos. As técnicas utilizadas para a construção dos pipelines foram segmentação de imagens, transfer learning e aumento de dados. O modelo proposto obteve F1-Score de 90,8% para o conjunto de testes e 55,1% para o conjunto de testes alternativo.

64
  • HEITOR VICTOR VEIGA DA COSTA
  • Decomposição de séries temporais utilizando o modelo GAMLSS: Uma 
    nova metodologia híbrida para previsão de séries temporais

  • Leader : FERNANDO MACIANO DE PAULA NETO
  • MEMBRES DE LA BANQUE :
  • FERNANDO MACIANO DE PAULA NETO
  • LEANDRO MACIEL ALMEIDA
  • ULISSES RAMOS MONTARROYOS
  • Data: 26 août 2022


  • Afficher le Résumé
  • Este estudo teve por objetivo geral propor uma abordagem para modelagem de 
    séries temporais aplicando o modelo estatístico Generalized Additive Models 
    for Location, Scale and Shape (GAMLSS) para a sua decomposição. Os 
    objetivos específicos consistiram em: (i) Observar sua capacidade 
    preditiva; (ii) Identificar os potenciais efeitos da pandemia de COVID-19 
    nas séries temporais e padrões espaciais de nascidos vivos no estado de 
    Pernambuco (2010 até 2021). Com a decomposição, foi feita a modelagem de 
    seus resíduos para refinar a qualidade de ajustamento aos dados, sendo tal 
    procedimento conhecido como um tipo de modelagem híbrida. Os resultados 
    demonstraram que o procedimento proposto traz vantagens em termos de 
    acurácia, onde obteve-se melhor performance preditiva em 7 de 15 
    experimentos realizados (a partir do erro quadrático médio e o erro 
    percentual absoluto médio). Quanto aos impactos da COVID-19, os resultados 
    não indicaram uma mudança clara no número de nascidos vivos, mas apoiou a 
    continuação esperada da tendência decrescente dos anos anteriores. 
    Considerando a importância do número de nascidos vivos no contexto 
    demográfico, econômico e da saúde pública, o monitoramento deve ser mantido 
    para analisar um possível impacto futuro da pandemia de COVID-19 nas 
    projeções de nascidos vivos. A abordagem apresentada retornou boa 
    performance preditiva e possibilidade de gerar resultados inferenciais 
    confiáveis.

65
  • ARTHUR DÓRIA MENESES DE FREITAS
  • Análise de Topologias de Fluxo de Informação (IFT) em Veículos 
    Autônomos e Conectados (CAV) para aplicações Platoon

  • Leader : ABEL GUILHERMINO DA SILVA FILHO
  • MEMBRES DE LA BANQUE :
  • EVANDRO LEONARDO SILVA TEIXEIRA
  • ABEL GUILHERMINO DA SILVA FILHO
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • Data: 29 août 2022


  • Afficher le Résumé
  • A Topologia de Fluxo de Informações (IFT) de um Platoon, veículos 
    conectados e automatizados (CAVs) que viajam na mesma faixa de uma rodovia, 
    representa as conexões de comunicação inter-veicular que cada veículo 
    utiliza para adquirir informações. Portanto, a arquitetura topológica 
    representa o arranjo físico entre os veículos do Platoon e pode influenciar 
    significativamente no comportamento de condução coletiva e cooperativa do 
    Platoon. A troca de informações é essencial para um controle efetivo do 
    Platoon, garantindo o menor espaçamento possível entre eles, ao mesmo tempo 
    que garante requisitos e segurança dos motoristas. Sincronizando as ações 
    de aceleração e frenagem, enquanto mantém distâncias seguras e velocidades 
    relativas próximas de zero. O desempenho de um Platoon depende diretamente 
    da topologia do fluxo de informações; e da qualidade das comunicações sem 
    fio que é altamente influenciada pelo protocolo de controle de acesso ao 
    meio (MAC) do protocolo IEEE 802.11p.
    Este trabalho, analisa a influência das IFTs em Platoon em cenários 
    simulados, onde existem diferentes probabilidades de sucesso na recepção de 
    mensagens para todos os pares de veículos. O estudo de uma IFT, necessita 
    levar em consideração os diversos tipos de problemas que podem ocorrer em 
    um sistema de comunicação veicular sem fio, como por exemplo, uma 
    conectividade ruim entre os veículos, alta latência ou altas taxas de perda 
    de pacotes. Por esta razão, a análise foi realizada no framework PLEXE 
    (Platooning Extension for Veins), um simulador de Platooning open-source 
    baseado no OMNeT++, capaz de avaliar o impacto do uso do protocolo IEEE 
    802.11p em aplicações segurança veicular.
    Os resultados foram obtidos a partir da análise de mais de cem mil 
    simulações com diferentes topologias de comunicação, taxas de perda de 
    pacotes. Além disso, a dinâmica de aceleração longitudinal do veículo líder 
    foi modelada a partir de equação para a velocidade sinusoidal, forma que se 
    aproxima do comportamento de um motorista humano. O veículo líder do 
    Platoon, acelera e freia diversas vezes em uma mesma simulação para 
    verificar se o espaçamento desejado e o erro de espaçamento entre veículos 
    serão atendidos independentemente das condições do tráfego. Os resultados 
    obtidos mostraram que um controlador baseado em consenso com a topologia de 
    comunicação Leader-Predecessor-Follower (LPF) consegue manter um Platoon 
    com erro de espaçamento médio desejado entre os veículos de 3,19%, mesmo 
    com uma taxa de 95% perda de pacotes.

66
  • SAULO JOSE DE ALBUQUERQUE SILVA
  • Avaliação Automática da Qualidade de Imagens de Alta Resolução Sem 
    Referência

  • Leader : CARLOS ALEXANDRE BARROS DE MELLO
  • MEMBRES DE LA BANQUE :
  • CARLOS ALEXANDRE BARROS DE MELLO
  • CLEBER ZANCHETTIN
  • RAFAEL GALVAO DE MESQUITA
  • Data: 6 sept. 2022


  • Afficher le Résumé
  • Um dos grandes desafios nas áreas de visão computacional e processamento de ima-
    gens é desenvolver métodos para modelar corretamente o sistema visual humano. Um dos
    processos existentes na modelagem do sistema visual humano é a avaliação da qualidade
    de uma imagem, processo complexo por envolver elementos objetivos e subjetivos. Dentre
    as abordagens de avaliação automática da qualidade de imagens da literatura, neste tra-
    balho é utilizada a avaliação da qualidade de imagens sem referência, aplicada a imagens
    geradas por dispositivos móveis. Nos últimos anos, houve um avanço na tecnologia das
    câmeras de tais dispositivos, possibilitando a captura de imagens de alta resolução. Nesse
    contexto, foi avaliado o comportamento de métodos de avaliação automática da qualidade
    de imagens quando aplicados a imagens de alta resolução. Na literatura foram encontrados
    vários modelos, dentre os quais destacamos: (1) BRISQUE, (2) OCPP, e (3) DIQA. Para
    modelos baseados em inteligência artificial, foram utilizadas para treinamento as bases de
    dados públicas e amplamente utilizadas nesse contexto, como: LIVE IQA, LIVE in the
    Wild e KonIQ-10K. Não existem bases conhecidas de imagens de alta resolução. Dessa
    forma, os resultados da aplicação desses modelos a tais imagens foram bastante incoeren-
    tes, como é apresentado nesta Dissertação. Sugere-se que pesquisas posteriores abordem
    modelos de aprendizagem profundo que visem corrigir os problemas encontrados no DIQA
    para torná-lo mais eficiente em termos de acurácia e velocidade de processamento.

67
  • LUCAS DE LIMA NOGUEIRA
  • Learning to Transfer What, Where and Which: Método de transfer 
    learning entre redes convolucionais de arquiteturas diferentes

  • Leader : FERNANDO MACIANO DE PAULA NETO
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • BRUNO JOSE TORRES FERNANDES
  • CLEBER ZANCHETTIN
  • Data: 12 sept. 2022


  • Afficher le Résumé
  • Atualmente, os modelos de deep learning estão sendo utilizados para solucionar uma grande variedade de problemas. No entanto, esse tipo de algoritmo usualmente necessita de grandes quantidades de dados para alcançar bons desempenhos. Apesar do crescimento da quantidade de dados disponíveis devido à digitalização da informação, essa ainda não é uma realidade para diversos problemas, além da necessidade de um alto custo computacional, dependendo da complexidade envolvida. Nesse sentido, técnicas de transferência de aprendizagem vêm sendo desenvolvidas para transacionar essa barreira. Algumas técnicas propostas recentemente envolvem conectar camadas e/ou channels entre redes convolucionais, de forma a transferir o conhecimento de uma rede pré-treinada para uma nova. Neste trabalho, é proposto estender essa ideia, conectando unidades de ativação, além de camadas e channels, de forma a refinar a transferência de conhecimento, aumentando o desempenho do processo. Nesse sentido, foram realizados testes em diversos datasets e o método proposto se demonstrou superior ao método anterior em um cenário essencial de quantidade limitada de dados de treinamento, alcançando um aumento de até 3.75% na acurácia.

68
  • JULIANDSON ESTANISLAU FERREIRA
  • Specification is Law: Safe Creation and Upgrade of Ethereum Smart 
    Contracts

  • Leader : AUGUSTO CEZAR ALVES SAMPAIO
  • MEMBRES DE LA BANQUE :
  • FABIOLA GONÇALVES PEREIRA GREVE
  • ALEXANDRE CABRAL MOTA
  • AUGUSTO CEZAR ALVES SAMPAIO
  • Data: 12 sept. 2022


  • Afficher le Résumé
  • Contratos inteligentes são a base do paradigma "code is law". O código do 
    contrato inteligente descreve indiscutivelmente como seus ativos devem ser 
    gerenciados - uma vez criado, seu código normalmente é imutável. Contratos 
    inteligentes com falhas apresentam significativa evidência contra a 
    praticidade desse paradigma; os bugs resultaram em perdas de ativos no 
    valor de milhões de dólares. Para resolver esse problema, a comunidade 
    Ethereum propôs (i) ferramentas e processos para auditar/analisar contratos 
    inteligentes e (ii) padrões de design que implementam um mecanismo para 
    tornar o código do contrato mutável. Individualmente, (i) e (ii) abordam 
    apenas parcialmente os desafios levantados pelo paradigma "code is law". 
    Neste trabalho, combinamos elementos de (i) e (ii) para criar uma estrutura 
    sistemática que se afasta do "code is law" e dá origem a um novo 
    paradigma "specification is law". Ele permite que contratos sejam criados e 
    atualizados, mas somente se eles atenderem a uma especificação formal 
    correspondente. A estrutura é centrada em um trusted deployer: um serviço 
    off-chain que verifica e reforça formalmente essa noção de conformidade. 
    Com essa estrutura, contratos com falhas devem ser impedidos de serem 
    implantados e atualizações seguras podem ser realizadas para otimizar o 
    código do contrato, por exemplo. Prototipamos essa estrutura e investigamos 
    sua aplicabilidade a contratos que implementam três padrões Ethereum 
    amplamente usados: o ERC20 Token Standard, ERC3156 Flash Loans e ERC1155 
    Multi Token Standard.

69
  • JOSÉ MAURÍCIO MATAPI DA SILVA
  • Efeitos potenciais da pandemia de COVID-19 sobre modelos de 
    aprendizagem de máquina para predição de parto prematuro nas capitais 
    Brasileiras

  • Leader : FERNANDO MACIANO DE PAULA NETO
  • MEMBRES DE LA BANQUE :
  • ADIEL TEIXEIRA DE ALMEIDA FILHO
  • CRISTINE VIEIRA DO BONFIM
  • FERNANDO MACIANO DE PAULA NETO
  • Data: 13 sept. 2022


  • Afficher le Résumé
  • O parto prematuro é o que ocorre antes de 37 semanas de gestação, sendo 
    considerado um problema de saúde global, e ainda uma das principais causas 
    de mortes em bebês e crianças menores de cinco anos de idade. A taxa de 
    parto prematuro pode variar de acordo com a região geográfica e nível de 
    renda, mantendo uma maior frequência de ocorrência em países 
    subdesenvolvidos. Nos países desenvolvidos, ele é amplamente avaliado como 
    forma de compreender as causas e na criação de ações preventivas. Nesta 
    pesquisa, foi proposta a utilização de algoritmos de aprendizado de máquina 
    para predição de parto prematuro em gravidez única, utilizando dados das 
    capitais brasileiras. Foi verificado se os dois primeiros anos da pandemia 
    COVID-19 trouxeram impactos significativos para as distribuições das 
    variáveis contidas na base de dados, em comparação ao que foi utilizado 
    para treinamento dos modelos. Foram utilizados 6 classificadores de 
    aprendizagem de máquina: Árvore de Decisão, Floresta Aleatória, Regressão 
    Logística, Adaptive Boosting, Análise de Discriminante Linear  e Rede 
    Neural do tipo Multi-layer Perceptron, analisando as métricas de acurácia, 
    precisão, revocação, F1-SCORE e área sobre a curva ROC. Portanto, com o 
    processamento desses resultados, foi possível verificar a predição de parto 
    prematuro com dados secundários no período de pandemia. Com destaque para o 
    modelo Floresta Aleatória que obteve uma acurácia e AUC de 87%. Os demais 
    modelos mantiveram uma média de acurácia acima de 70%; a média da precisão 
    para todos os modelos se manteve acima dos 90%. Foi possível constatar que 
    há uma estabilidade dos modelos, quando se é testado com dados do período 
    de pandemia e não apresentou impactos expressivos nas variáveis nesse 
    período.

70
  • VINÍCIUS JOSÉ DE SIQUEIRA
  • History-based Prioritization in the Context of Manual Testing: a 
    Study in a Real Industrial Setting

  • Leader : BRENO ALEXANDRO FERREIRA DE MIRANDA
  • MEMBRES DE LA BANQUE :
  • GENAÍNA NUNES RODRIGUES
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • JULIANO MANABU IYODA
  • Data: 19 sept. 2022


  • Afficher le Résumé
  • Muitas técnicas de priorização de casos de teste foram propostas com o objetivo final de acelerar a detecção de falhas. A priorização baseada em histórico, em particular, tem se mostrado uma estratégia eficaz. A maioria dos estudos empíricos realizados neste tópico, no entanto, se concentraram no contexto de testes automatizados. Investigar a eficácia da priorização baseada em histórico no contexto de testes manuais é importante porque, apesar da popularidade das abordagens automatizadas, o teste manual ainda é amplamente adotado na indústria. Neste trabalho nós propomos duas heurísticas de priorização baseadas em histórico e avaliamos elas no contexto de testes manuais em um ambiente industrial real. Para nossa avaliação nós coletamos informações históricas de execução de testes para 35 produtos, abrangendo mais de sete anos de informações históricas, contabilizando um total de 3,196 casos de teste únicos e 5,859,989 resultados de teste passados. Os resultados de nossos experimentos mostraram que a eficácia das abordagens propostas não estão longe de uma teórica priorização ótima, e que são significativamente melhores do que as alternativas de ordenações das suítes de testes, incluindo a abordagem utilizada como comparação do estado da arte, a ordem sugerida pela ferramenta de gerenciamento de testes e a ordem de execução seguida pelos testadores durante a execução real das suítes de testes avaliadas durante o nosso estudo.

71
  • PAULO MARTINS MONTEIRO
  • Propostas de métodos baseados em Co-op training para aprendizado 
    semi-supervisionado em fluxos contínuos de dados

  • Leader : ROBERTO SOUTO MAIOR DE BARROS
  • MEMBRES DE LA BANQUE :
  • ROBERTO SOUTO MAIOR DE BARROS
  • PAULO MAURICIO GONÇALVES JUNIOR
  • RODOLFO CARNEIRO CAVALCANTE
  • Data: 28 oct. 2022


  • Afficher le Résumé
  • No contexto de fluxo contínuo de dados, no qual os dados são gerados em 
    tempo real, é comum a existência de dados sem rótulos, por exemplo, devido 
    ao alto custo para rotulá-los. Para lidar com estes dados, estão sendo 
    propostas estratégias de aprendizagem semi-supervisionadas em que são 
    utilizados dados rotulados e não rotulados ao mesmo tempo. Outro desafio 
    típico dos fluxos contínuos de dados é a presença das chamadas mudanças de 
    conceito (concept drift): neste cenário, a distribuição dos dados muda com 
    o tempo, o que causa uma diminuição da precisão das classificações. Essa 
    dissertação apresenta três novos métodos baseados na técnica de Co-op 
    training, nos quais são utilizados dois classificadores que cooperam entre 
    si para realizar predições em fluxos contínuos de dados. Estes algoritmos 
    foram adaptados com o objetivo de obter uma melhor acurácia de 
    classificação quando comparados ao método original e aos seus concorrentes. 
    O primeiro método proposto é o Co-op training V2, uma versão menos rigorosa 
    do método original; o segundo é o Co-op training V3, que utiliza apenas o 
    grau de confiança de ambos os classificadores para rotular dados sem 
    rótulo; e o último é o Co-op Training V4, que também utiliza apenas o grau 
    de confiança na rotulação de dados, tendo o treinamento de ambos os 
    classificadores como principal diferença para o V3. Os métodos propostos 
    foram comparados aos algoritmos disponíveis no MOA-SS, a extensão do 
    Massive Online Analysis (MOA) framework que foi utilizada para realizar os 
    testes. Os experimentos utilizaram bases de dados artificiais e reais, 
    tanto em conjuntos de dados sem mudanças de conceito quanto em cenários com 
    mudanças de conceito. Finalmente, analisamos quais algoritmos se saíram 
    melhor em cada um dos cenários testados, incluindo a avaliação estatística 
    dos resultados.

72
  • CLÁUDIO CÉSAR MIRANDA SALGUEIRO
  • DEPÓSITOS JUDICIAIS NO TRIBUNAL DE JUSTIÇA:  UMA PROPOSTA DE 
    SISTEMA PARA ADMINISTRAÇÃO E OTIMIZAÇÃO DOS RENDIMENTOS

  • Leader : RICARDO MARTINS DE ABREU SILVA
  • MEMBRES DE LA BANQUE :
  • CÍCERO GARROZI
  • PAULO SALGADO GOMES DE MATTOS NETO
  • RICARDO MARTINS DE ABREU SILVA
  • Data: 25 nov. 2022


  • Afficher le Résumé
  • Os depósitos judiciais nos Tribunais de Justiça são administrados por 
    instituições financeiras oficiais que remuneram seus depositantes por taxas 
    análogas às da poupança. Atualmente os tribunais delegam as instituições 
    financeiras à administração destes depósitos judiciais através de 
    contratos, contudo percebe-se vários pontos negativos nesta contratação 
    como: baixo rendimentos; grande dependência das instituições financeiras; 
    falta transparência, ausência de integração dos sistemas dos tribunais com 
    os sistemas das instituições financeiras; inconsistência de informações; 
    procedimentos manuais, morosidade e insegurança. Dessa forma, é proposto um 
    sistema para administração e otimização via gerenciamento de portfólio 
    segundo o modelo de Markowitz dos rendimentos sobre os depósitos judiciais 
    e que solucione os pontos negativos acima descritos. Ou seja, o sistema 
    proposto proporcionará ao poder judiciário realizar diretamente o 
    gerenciamento dos depósitos judiciais, que é composto pelo módulo externo, 
    módulo vara e módulo gerencial os quais apresentam funcionalidades 
    distintas. Consequentemente, esse sistema possibilitará aos tribunais de 
    justiça algumas vantagens como: maior rendimento dos recursos depositados, 
    uma vez que o spread bancário que até então favorecia os bancos oficiais 
    será destinado aos tribunais; maior controle já que o sistema proposto 
    seria integrado com o PJE, evitando inconsistência; transparência, uma vez 
    que o tribunal saberia a qualquer tempo para quem e quantos boletos foram 
    gerados e pagos, para quem e quantos alvarás foram autorizados e 
    creditados; maior usabilidade, uma vez que viabilizaria maior eficiência, 
    eficácia, segurança utilidade, aprendizagem e manutenção.

73
  • LEVI DA SILVA RAMOS JÚNIOR
  • RequestBERT-BiLSTM: Detecção de anomalias em Requisições HTTP sem 
    Log Parser

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • BRUNO JOSE TORRES FERNANDES
  • CLEBER ZANCHETTIN
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • Data: 30 nov. 2022


  • Afficher le Résumé
  • No cenário atual da internet, a maioria dos serviços, como compartilhamento 
    de informações, entretenimento e educação são prestados por servidores web. 
    Essa gama de serviços compartilhados tornou a web o principal foco de 
    atuação para invasores e fraudadores. A maioria das técnicas defensivas nos 
    servidores web não consegue lidar com a complexidade e evolução dos ataques 
    cibernéticos em requisições HTTP. No entanto, as abordagens de aprendizagem 
    de máquina podem ajudar a detectar ataques, sejam eles conhecidos ou 
    desconhecidos. Neste trabalho, é apresentado o modelo RequestBert-BiLSTM, o 
    qual permite detectar possíveis ataques em requisições HTTP sem a 
    utilização de Log Parser. O Log Parser é uma fase importante na detecção 
    automática de ataques atual, mas também uma fonte de possíveis erros na 
    detecção dos ataques. O modelo proposto foi testado nos conjuntos de dados 
    públicos CSIC 2010, ECML/PKDD 2007, BGL. Além disso, foi construído um 
    conjunto de dados baseado em um ambiente real. Observou-se que o modelo 
    proposto apresentou o melhor desempenho, quando comparado com outros 
    modelos da literatura, na detecção de ataques. Outra contribuição a 
    destacar é que este trabalho evidencia que a etapa de análise de log pode 
    prejudicar o desempenho do modelo na detecção de ataques devido a erros 
    gerados pelos métodos tradicionais de parser. A proposta ainda sugere que 
    modelos baseados em aprendizado de máquina são promissores estratégias para 
    detecção de ataques na web.

74
  • ADRIANO MARABUCO DE ALBUQUERQUE LIMA
  • Sistema baseado em seleção dinâmica para previsão de casos de COVID-19

  • Leader : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 13 déc. 2022


  • Afficher le Résumé
  • A pandemia da COVID-19 provocou 546 milhões casos e 20 milhões óbitos até 30 de
    junho de 2022, além disso gerou uma queda de 3% no PIB mundial em 2020. Um dos desafios no enfrentamento da doença é a previsão da quantidade de casos e óbitos, assim como a tendência de crescimento e decrescimento. Muitos trabalhos têm focado nessa tarefa, entretanto nenhum deles considerou a mudança de conceito nas séries temporais da COVID-19. Essas séries possuem basicamente três conceitos principais: crescimento exponencial, decrescimento e platô. Dessa forma, modelos que não tratam dessa questão podem apresentar baixa precisão em virtude da mudança na distribuição dos dados ao longo do tempo. Esse trabalho propõe o Concept Drift Dynamic Forecasting System (CODYS) para previsão de casos da COVID-19. O CODYS primeiramente realiza a detecção de conceitos na fase treinamento para gerar um conjunto de preditores especialistas nos padrões encontrados. Na fase de teste, o método proposto seleciona dinamicamente a partir de uma região de competência o modelo mais apto para prever um dado padrão de teste. O CODYS foi avaliado utilizando conjuntos de dados dez países de diferentes continentes e graus de desenvolvimento. Os resultados mostram que o CODYS alcançou desempenho superior quando comparado com modelos da estatísticos, de aprendizado de máquina e ensembles.

75
  • VICTOR VIANA DE ARAÚJO SILVA
  • Um Método Difuso Multivariado Baseado em Medoids

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • BRUNO ALMEIDA PIMENTEL
  • GETULIO JOSE AMORIM DO AMARAL
  • Data: 15 déc. 2022


  • Afficher le Résumé
  • A Análise de agrupamentos foi inicialmente utilizada por Tyron em 1939, em que visa
    organizar dados que possuam características similares dentro de um mesmo grupo e no caso contrário em que os dados possuam características distintas, eles serão alocados em grupos diferentes. Ou seja, se é levado em consideração a ideia deminimizar a distância intra-grupos e maximizar a distância inter-grupos. Com isso, dentre outros benefícios, podem ser visualizadas algumas vantagens da utilização desta técnica, como por exemplo a diminuição da dimensionaliMeans (FCM), o qual possui algumas desvantagens tal como considerar que todos os grupos possuem formas esféricas e ser altamente influenciado em casos de conjuntos de dados ruidosos. O Fuzzy C-medoid (FCMdd)dade dos dados e a extração das características dos grupos. O principal método de agrupamento difuso é o Fuzzy C- foi criado com o intuito de tentar mitigar esta problemática, porém não leva em consideração o impacto de cada variável no cálculo dos graus de pertinências. Diante desse cenário, o Multivariate Fuzzy C-means (MFCM) foi criado com o intuito de levar em consideração o efeito de cada variável no cálculo dos protótipos, porém, utiliza a média para o cálculo dos centróides podendo ser fortemente influenciado negativamente por dados ruidosos. Este trabalho introduz o método Multivariate Fuzzy C-medoids (MFCMdd), em que como o próprio nome já diz, os graus de pertinência são multivariados e utilizam observações do próprio conjunto de dados para serem os centróides, também conhecidos como medoids. Diante deste cenário, o método proposto MFCMdd, é comparado com os outros três métodos (FCM, FCMdd e MFCM) abordados de acordo com as métricas utilizadas para avaliação dos algoritmos, sendo elas o Índice de Rand Ajustado e o F-score. Com o objetivo de avaliar o desempenho dos métodos, um estudo comparativo em relação aos agrupamentos difusos usando o experimento Monte Carlo é realizado. Além disso,foram planejados experimentos com dados sintéticos e reais. Os resultados mostraram que o método proposto MFCMdd, perante o MFCM é preferível quando se há conjuntos de dados sem ruído ou também quando os conjuntos de dados possuem caráter esférico com dados ruidosos.

76
  • MAYARA WANESSA ALVES DOS SANTOS
  • Os impactos do Ensino Remoto Emergencial no processo de ensino e 
    aprendizagem nos cursos de Tecnologia: percepções de discentes e docentes

  • Leader : RAFAEL DUEIRE LINS
  • MEMBRES DE LA BANQUE :
  • ALEX SANDRO GOMES
  • GABRIEL DE FRANCA PEREIRA E SILVA
  • RAFAEL DUEIRE LINS
  • Data: 22 déc. 2022


  • Afficher le Résumé
  • Em março de 2020, diversos países vivenciaram uma crise devido a pandemia da
    COVID-19. No Brasil não foi diferente, em consequência do alto nível de contágio do
    vírus, o controle da pandemia exigiu o isolamento social, afetando o ensino em todos os
    níveis. Com isso, a educação passou por mudanças significativas. Diante deste cenário,
    as Instituições de Ensino Superior (IES) brasileiras necessitaram de uma reformulação
    nas práticas pedagógicas, promovendo ações, buscando estratégias e recorrendo ao auxílio
    das ferramentas digitais para que possibilitassem o Ensino Remoto Emergencial (ERE).
    Desse modo, esta dissertação tem como objetivo investigar as percepções de discentes
    e docentes dos cursos de Tecnologia de IES sobre os impactos do ERE no processo de
    ensino e aprendizagem. Metodologicamente, foi utilizado uma pesquisa quali-quantitativa
    abordando docentes que atuaram no Ensino Superior e discentes que tiveram aulas durante
    o período do ensino remoto emergencial. Nesse estudo, o instrumento de coleta utilizado
    foi um questionário online com perguntas objetivas e discursivas, obtendo a participação
    voluntária de 126 docentes e 366 discentes de diversas Instituições Federais. Baseado
    nos dados obtidos nesta pesquisa, fornecemos orientações e elaboramos um conjunto de
    diretrizes para auxiliar gestores e professores no planejamento para o ensino remoto, caso
    seja necessário. Os resultados obtidos confirmam que o ERE requer um planejamento
    adequado, divisão de tarefas e trabalhos em grupos. Os docentes mencionaram a falta
    de interação dos discentes e o baixo engajamento como os principais desafios enfrentados
    durante as aulas síncronas. Também indicaram fatores como a sobrecarga de trabalho, o
    despreparo tecnológico, a infraestrutura inadequada e falta de apoio institucional durante
    o ERE

Thèses
1
  • REGINA ROSA PARENTE
  • Classificação de Uma Classe para Seleção de Conjuntos de Dados Sintéticos em Meta-Aprendizado

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • RONNIE CLEY DE OLIVEIRA ALVES
  • GISELE LOBO PAPPA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • TSANG ING REN
  • Data: 4 févr. 2022


  • Afficher le Résumé
  • A seleção de algoritmos é uma tarefa crucial e desafiadora no aprendizado de máquina em diferentes domínios do conhecimento. O meta-aprendizado trata a seleção de algoritmos como uma tarefa de aprendizado supervisionado. Exemplos de treinamento (ou seja, meta-exemplos) são gerados a partir de experimentos realizados com um conjunto de algoritmos candidatos em vários conjuntos de dados. Pode haver uma pequena disponibilidade de conjuntos de dados reais 
    em alguns domínios, o que torna difícil gerar bons meta-exemplos. Portanto, confiar em conjuntos de dados sintéticos pode ser uma boa alternativa para gerar meta-exemplos. No entanto, não é garantido que todos os conjuntos de dados sintéticos sejam relevantes e representativos em comparação com os conjuntos de dados reais. Desta forma, o uso indiscriminado de muitos 
    conjuntos de dados sintéticos aumenta o custo computacional da realização de experimentos sem melhorar significativamente a precisão do meta-aprendizado. Nesta tese, lidamos com a seleção de conjuntos de dados sintéticos para meta-aprendizagem como um problema de classificação de uma classe (OCC). Em OCC, os classificadores são construídos assumindo a disponibilidade de exemplos de treinamento pertencentes a uma classe única de interesse (ou seja, a classe positiva), enquanto os rótulos de classe dos outros exemplos são desconhecidos. Na solução proposta, técnicas de OCC são utilizadas para selecionar os conjuntos de dados sintéticos mais 
    relevantes (a classe desconhecida), considerando os conjuntos de dados reais (a classe positiva) disponíveis. Também conduzimos experimentos em dois estudos de caso, nos quais empregamos dois procedimentos diferentes de manipulação de dados para produzir conjuntos de dados sintéticos e duas técnicas de OCC para seleção de conjuntos de dados. Os resultados demonstraram que é possível usar um número reduzido de conjuntos de dados sintéticos selecionados, mantendo um bom desempenho de meta-aprendizagem.

2
  • WAGNER JORGE FIRMINO DA SILVA
  • Métodos de Aprendizagem Estatística para Dados Simbólicos Poligonais

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • BRUNO ALMEIDA PIMENTEL
  • GETULIO JOSE AMORIM DO AMARAL
  • LEANDRO CARLOS DE SOUZA
  • TELMO DE MENEZES E SILVA FILHO
  • Data: 14 févr. 2022


  • Afficher le Résumé
  • Ciência de Dados é um campo que diz respeito à análise e extração de conhecimento e informações valiosas de dados estruturados e não estruturados. A Análise de Dados Simbólicos fornece uma estrutura que fornece respostas para dados grandes e complexos. Nesta tese, propomos ferramentas para manipulação e extração de conhecimento em dados simbólicos poligonais, um tipo de dado simbólico multivalorado. Dessa forma, modelos bivariados poligonais são discutidos a partir de um caso especial desses modelos para dados intervalares. O modelo bivariado é menos sensível na presença de valores discrepantes de intervalo. Além disso, desenvolvemos um cluster dinâmico considerando a distância de Hausdorff para dados poligonais, onde os protótipos são obtidos a partir de uma solução analítica independente do número de lados. Outra contribuição desta tese é a criação de um pacote na linguagem R, chamado psda para análise de dados simbólicos poligonais. Este pacote fornece ferramentas que permitem agregação de dados por classes, representação de dados no centro e raio do polígono, análise descritiva e modelagem de dados poligonais. Para ilustrar a aplicabilidade do modelo, algoritmo de clusterização e do pacote, alguns exemplos são exibidos.

3
  • DOMINGOS SÁVIO DE OLIVEIRA SANTOS JÚNIOR
  • Método de Ensemble para correção de modelos ARIMA: uma abordagem de sistema híbrido para previsão de séries temporais

  • Leader : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBRES DE LA BANQUE :
  • MANOEL HENRIQUE DA NÓBREGA MARINHO
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • HUGO VALADARES SIQUEIRA
  • PAULO RENATO ALVES FIRMINO
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 17 févr. 2022


  • Afficher le Résumé
  • Nas últimas décadas Sistemas Híbridos (SH) que utilizam a modelagem residual têm sido
    amplamente aplicados no contexto de previsão de séries temporais. Esta abordagem utiliza
    como previsão final a combinação da previsão de um modelo linear com a previsão do resíduo obtida por um modelo de Aprendizagem de Máquina (AM) não linear. Essa série de resíduo representa a diferença entre a previsão linear e valor real da série temporal. Uma vez que normalmente são encontrados padrões lineares e não lineares em séries temporais reais, esta classe de SH tem alcançado resultados empíricos e teóricos promissores em razão da sua arquitetura ser capaz de modelar esses padrões em etapas especificas. Contudo, são identificadas limitações na etapa de modelagem residual, sendo que por conta de sua complexidade, um modelo de AM pode apresentar problemas de má especificação de parâmetros, sobre ajuste e sub ajuste, prejudicando os resultados de todo SH. Baseado neste problema, este trabalho propõe um método de ensemble para previsão residual (Ensemble method for Residual Forecast (ERF)). O método ERF é composto por três fases gerais: (i) previsão da série temporal por meio de um modelo linear; (ii) previsão do erro realizada por um ensemble; (iii) combinação pela soma das previsões das fases (i) e (ii). A fase (ii) é a principal contribuição desta tese, na qual é proposta uma abordagem homogênea que cria um ensemble de modelos de AM diverso e de forma sistemática. O ARIMA é utilizado como modelo linear, já como modelo não linear são avaliados o MLP e SVR. Desta forma, são obtidas duas versões do método proposto: ERFMLP e ERFSVR. Essas versões são aplicadas em doze séries temporais reais com os respectivos modelos simples (ARIMA, MLP e SVR) e sete sistemas híbridos da literatura. Todos os métodos são avaliados por meio da métrica Raiz do Erro Quadrático Médio e testes estatísticos de Wilcoxon, Friedman e Nemenyi. Com base nessas formas de avaliação, visualiza-se que as abordagens propostas possuem a capacidade de encontrar bons resultados quando aplicadas em diferentes séries temporais.

4
  • JOSÉ GUEDES DOS SANTOS JÚNIOR
  • Método Robusto à Oclusão para Rastreamento 6-DOF de Objetos em 
    Imagens RGB-D com Otimização por Enxame de Partículas

  • Leader : VERONICA TEICHRIEB
  • MEMBRES DE LA BANQUE :
  • JOAO PAULO PAPA
  • CLÁUDIO ROSITO JUNG
  • CLEBER ZANCHETTIN
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • SILVIO DE BARROS MELO
  • Data: 17 févr. 2022


  • Afficher le Résumé
  • Rastreadores visuais podem ser usados para determinar a trajetória de 
    objetos 3D rígidos com 6 graus de liberdade em tempo real. Essa 
    funcionalidade é necessária para vários tipos de aplicações, como em 
    realidade aumentada ou robótica, e sua eficiência muitas vezes está 
    relacionada com a acurácia, a robustez a falha e o desempenho de tempo 
    desses rastreadores. Nos últimos anos, vários trabalhos contribuíram para a 
    melhoria dessas técnicas, apresentando métodos com boa acurácia que são 
    executados em tempo real, dentre os quais se destacam aqueles baseados em 
    otimização, baseados em aprendizagem e híbridos, ou seja, que utilizam 
    otimização e aprendizagem de forma cooperativa. Neste contexto, o presente 
    trabalho propõe melhorias no rastreamento com 6 graus de liberdade de 
    objetos 3D arbitrários que usa otimização por enxame de partículas. Dentre 
    elas, destacam-se: o aperfeiçoamento da função de aptidão usando média 
    harmônica das coordenadas 3D, cor e normais dos pontos; a seleção dinâmica 
    da região de interesse na nuvem de pontos da cena; a filtragem dos pontos 
    visíveis do modelo considerando a auto-oclusão e a oclusão por outros 
    objetos da cena; o cálculo das fronteiras do subespaço de soluções em tempo 
    de execução, observando a inércia do objeto alvo; a filtragem de poses em 
    tempo de execução a partir da trajetória encontrada; e a implementação da 
    otimização por enxame de partículas completamente em GPU. Experimentos 
    mostraram que tais mudanças possibilitaram melhorias na robustez a falhas, 
    na acurácia e no desempenho de tempo da técnica. Quando comparado com 
    métodos presentes no estado da arte, o rastreador proposto nessa proposta 
    de tese foi, em média, 19,3% e 16,3% mais acurado em relação aos erros de 
    translação e rotação, respectivamente, e apresentou um número de falhas 
    78,4% menor. O rastreador proposto ainda foi de 5 a 7 vezes mais rápido que 
    uma técnica existente baseada em otimização por enxame de partículas.

5
  • MÁRCIO ROBÉRIO DA COSTA FERRO
  • AStar: A Modeling Language for Document-oriented Geospatial Data Warehouses

  • Leader : ROBSON DO NASCIMENTO FIDALGO
  • MEMBRES DE LA BANQUE :
  • VÍTOR ESTEVÃO SILVA SOUZA
  • ANA CAROLINA BRANDAO SALGADO
  • CLAUDIO DE SOUZA BAPTISTA
  • LUCIANO DE ANDRADE BARBOSA
  • VINICIUS CARDOSO GARCIA
  • Data: 18 févr. 2022


  • Afficher le Résumé
  • Um Data Warehouse Geoespacial (DWG) é uma extensão de um Data Warehouse tradicional que inclui dados geoespaciais nos processos de tomada de decisão. Diversos estudos propõem o uso de bancos de dados orientados a documentos em um DWG como alternativa aos bancos de dados relacionais. Isso se deve à capacidade dos bancos de dados não relacionais de escalar horizontalmente, permitindo o armazenamento e o processamento de grandes volumes de dados. Nesse contexto, modelar por meio da análise visual a maneira como fatos e dimensões estão estruturados é importante para entender, manter e evoluir o DWG Orientado a Documentos (DWGD). No entanto, até onde sabemos, não há linguagens de modelagem conhecidas que suportem o design de fatos e dimensões como documentos referenciados (normalizados) ou embutidos (desnormalizados), particionados em uma ou mais coleções. Para superar essa lacuna, propomos Aggregate Star (AStar), uma linguagem de modelagem específica de domínio para projetar esquemas lógicos de DWGD. AStar é definida por uma sintaxe concreta (notação gráfica), uma sintaxe abstrata (metamodelo) e semântica estática (regras de boa formação). Para descrever a semântica dos conceitos definidos em AStar, semântica translacional é usada para mapear a notação gráfica para o metamodelo e o respectivo código que define o esquema no MongoDB (usando JSON Schema). Avaliamos a notação gráfica usando \textit{Physics of Notations} (PoN), que fornece um conjunto de princípios para projetar notações visuais cognitivamente eficazes. Essa avaliação revelou que AStar está de acordo com oito dos nove Princípios PoN, um nível adequado de eficácia cognitiva. Como prova de conceito, o metamodelo e as regras de boa formação foram implementados em um protótipo de ferramenta de Engenharia de Software Assistida por Computador, denominado AStarCASE. Nesta versão atual, AStarCASE pode ser usada para projetar esquemas lógicos de DWGD e gerar seu código correspondente na forma de esquemas JSON. Além disso, apresentamos uma guia que mostra como projetar esquemas que possuem fatos, dimensões convencionais e dimensões geoespaciais relacionadas como documentos referenciados ou incorporados, particionados em uma ou mais coleções. O guia também apresenta boas práticas para obter baixo volume de dados e baixo tempo de execução de consulta em um DWGD.

6
  • SARA INÉS RIZO RODRÍGUEZ
  • Clustering algorithms with new automatic variables weighting

  • Leader : FRANCISCO DE ASSIS TENORIO DE CARVALHO
  • MEMBRES DE LA BANQUE :
  • VINICIUS LAYTER XAVIER
  • CLEBER ZANCHETTIN
  • HELOISA DE ARRUDA CAMARGO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • TSANG ING REN
  • Data: 21 févr. 2022


  • Afficher le Résumé
  • Todos os dias, uma grande quantidade de informações é armazenada ou representada como dados para posterior análise e gerenciamento. A análise de dados desempenha um papel indispensável na compreensão de diferentes fenômenos. Um dos meios vitais de lidar com esses dados é classificá-los ou agrupá-los em um conjunto de categorias ou grupos. O agrupamento ou análise de agrupamento visa dividir uma coleção de itens de dados em grupos, dada uma medida de similaridade. O agrupamento tem sido usado em vários campos, como processamento de imagens, mineração de dados, reconhecimento de padrões e análise estatística. Geralmente, os métodos de agrupamento lidam com objetos descritos por variáveis de valor real. No entanto, essa representação é muito restritiva para representar dados complexos, como listas, histogramas ou mesmo intervalos. Além disso, em alguns problemas, muitas dimensões são irrelevantes e podem mascarar os grupos existentes, por exemplo, os grupos podem existir em diferentes subconjuntos das variáveis. Este trabalho enfoca a análise de agrupamento de dados descritos por variáveis de valor real e de valor de intervalo. Nesse sentido, novos algoritmos de agrupamento de subespaço flexível foram propostos, nos quais a correlação e a relevância das variáveis são consideradas para melhorar o desempenho. No caso de dados com valor de intervalo, assumimos que a importância dos limites das variáveis com valor de intervalo pode ser a mesma ou pode ser diferente para o processo de agrupamento. Como os métodos baseados em regularização são robustos à inicializações, as abordagens propostas introduzem um termo de regularização para controlar o grau de pertinência dos objetos aos grupos. Essas regularizações são populares devido ao alto desempenho no agrupamento de dados em grande escala e baixa complexidade computacional. Esses algoritmos iterativos de três etapas fornecem uma partição difusa, um representante para cada grupo, e o peso de relevância das variáveis ou sua correlação, minimizando uma função objetivo adequada. Experimentos com conjuntos de dados sintéticos e reais corroboram a robustez e utilidade dos métodos de agrupamento propostos.

7
  • DAILYS MAITE ALIAGA REYES
  • Predição para Dados Simbólicos Multi-valorados de Tipo Quartis: 
    Caso Especial Dados Representados por Boxplots

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • FRANCISCO CRIBARI NETO
  • LEANDRO CARLOS DE SOUZA
  • NIVAN ROBERTO FERREIRA JUNIOR
  • PAULO SALGADO GOMES DE MATTOS NETO
  • TELMO DE MENEZES E SILVA FILHO
  • Data: 23 févr. 2022


  • Afficher le Résumé
  • Um dado simbólico de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 pode ser considerado como um caso particular das
    variáveis numéricas multi-valoradas no contexto da Análises de Dados Simbólicos (ADS). Este tipo de dado tem uma estrutura simples que permite resumir informações de unidades agregadas, chamadas de classes. No entanto, esse tipo de estrutura tem sido pouco explorada na literatura de ADS. Este trabalho apresenta duas novas abordagens de predição com o objetivo de extrair conhecimento e fazer inferência usando dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A primeira abordagem considera um modelo de regressão para 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 através da equação paramétrica da reta. Esta parametrização permite o ajuste dos pontos nas variáveis regressoras que permite melhorar a qualidade da variável resposta. Nessa direção, um critério é também proposto para verificar a coerência matemática da predição. Se a coerência não é garantida, uma nova estratégia, através de transformações 𝐵𝑜𝑥 −𝐶𝑜𝑥 é aplicada sobre a variável resposta de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A segunda abordagem proposta nesse trabalho consiste de um modelo que combina agregação, seleção de protótipos e previsão de series temporais. Inicialmente, as séries temporais são agregadas em classes de entidades e representadas por 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠. Um processo de seleção de protótipos baseado na informação mútua é aplicado para mitigar ruídos no conjunto de dados. Por último, um modelo multivariado para previsão de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠 é construído. Ambos modelos são avaliados com conjuntos de dados sintéticos e reais. Uma comparação entre as
    abordagens propostas e outros métodos de predição da literatura de ADS é também descrita. Além disso, este trabalho apresenta uma aplicação do mundo real no Setor Elétrico Brasileiro para fazer predição da temperatura dos motores usando a abordagem de regressão paramétrica para dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡.

8
  • ALYSSON BISPO PEREIRA
  • FILTRAGEM ROBUSTA DE RUÍDO DE RÓTULO PARA PREVISÃO DE DEFEITOS DE 
    SOFTWARE

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • ANA CAROLINA LORENA
  • ALEXANDRE CABRAL MOTA
  • ANNE MAGALY DE PAULA CANUTO
  • CLEBER ZANCHETTIN
  • LUCIANO DE ANDRADE BARBOSA
  • Data: 23 févr. 2022


  • Afficher le Résumé
  • Várias métricas de software e métodos estatísticos foram desenvolvidos para 
    ajudar as empresas a prever defeitos de software. Tradicionalmente, para 
    garantir a qualidade do software, o código-fonte pode ser inspecionado 
    estaticamente por processos de revisão de código ou mesmo avaliado por meio 
    da execução de testes por meio da execução do software. Por outro lado, os 
    métodos de aprendizado de máquina foram treinados usando conjuntos de dados 
    rotulados com base nas alterações de código e bugs relatados. Estudos 
    anteriores demonstraram que esses conjuntos de dados são geralmente 
    barulhentos devido a bugs não relatados ou devido a inconsistências nos 
    relatórios de bug. Nesses casos, muitas instâncias de treinamento são 
    atribuídas ao rótulo de classe errado. Como em qualquer outro contexto de 
    aprendizado de máquina, o desempenho de um preditor de defeito depende de 
    um conjunto de dados de treinamento confiável. Assim, evitar o uso de 
    instâncias ruidosas na fase de treinamento pode ser crucial. As abordagens 
    usadas até agora para detectar ruídos não consideraram métodos tradicionais 
    de garantia de qualidade de software, como revisão de código. Neste artigo, 
    propomos Robust Label Noise Filtering (RLNF) para aplicar técnicas de 
    detecção de ruído de rótulo para identificar defeitos de software não 
    relatados, identificando artefatos de software rotulados como livres de 
    defeitos quando na verdade possuem defeitos ainda não encontrados pelos 
    usuários finais. Para isso, estamos utilizando diferentes estratégias de 
    detecção de ruído de rótulo para reproduzir os mecanismos usados no 
    processo de revisão de código. Os experimentos foram realizados em um 
    conjunto de benchmarking de projetos de software, alcançando resultados 
    promissores.

9
  • GUSTAVO HENRIQUE FERREIRA DE MIRANDA OLIVEIRA
  • TACKLING VIRTUAL AND REAL CONCEPT DRIFTS VIA ADAPTIVE GAUSSIAN MIXTURE MODEL APPROACHES

  • Leader : ADRIANO LORENA INACIO DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • LUIZ EDUARDO SOARES OLIVEIRA
  • JOAO GAMA
  • FRANCISCO DE ASSIS TENORIO DE CARVALHO
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • TERESA BERNARDA LUDERMIR
  • Data: 24 févr. 2022


  • Afficher le Résumé
  • As aplicações do mundo real têm lidado com uma grande quantidade de 
    informações, que chegam de forma contínua e sequencialmente ao longo do 
    tempo, caracterizadas como fluxos de dados. Esse tipo de dado desafia os 
    algoritmos de aprendizado de máquina devido à mudança de conceito. A 
    mudança de conceito é uma mudança na distribuição de probabilidade conjunta 
    do problema e tem duas variações: a mudança virtual que afeta a 
    distribuição de probabilidade incondicional p(x); e a mudança real que 
    afeta a distribuição de probabilidade condicional p(y|x). Essas mudanças 
    podem ocorrer separadamente e simultaneamente e ter impactos diferentes no 
    desempenho do classificador. Os trabalhos da literatura geralmente não 
    compreendem bem esses aspectos. Devido a isso, se concentram apenas nas 
    mudanças reais, por que elas causam degradação direta no desempenho do 
    classificador. No entanto, desvios virtuais também podem causar essa 
    degradação de forma indireta. Novas observações podem chegar em uma região 
    não treinada pelo classificador, forçando-o a confundir sua verdadeira 
    classe, assim cometendo erros de classificação. O ideal seria ter 
    classificadores que entendam que tipo de mudança ocorre em determinado 
    momento para ativar estratégias apropriadas para lidar com este desafio. 
    Este processo é chamado de entendimento da mudança. Como as abordagens da 
    literatura não compreendem bem os diferentes impactos causados pelas 
    mudanças virtuais e reais, o seu desempenho fica limitado. Motivados por 
    isso, propomos três abordagens para entender o tipo da mudança e usar a 
    estratégia correta para se adaptar, sendo elas: (i) (GMM-VRD) Gaussian 
    Mixture Model For Dealing With Virtual and Real Concept Drifts; (ii) 
    (OGMMF-VRD) On-line Gaussian Mixture Model With Noise Filter For Handling 
    Virtual And Real Concept Drifts ; e (iii) (GLDD-DU) Gaussian Local Drift 
    Detector for Drift Understanding. Essas abordagens atualizam e criam 
    Gaussians on-line para lidar com mudanças virtuais, usam detectores de 
    mudança para reinicializar o conhecimento do sistema para lidar com 
    mudanças reais e recuperam modelos do pool para acelerar a adaptação a um 
    novo conceito. Os principais resultados mostraram que todas as abordagens 
    apresentam desempenho competitivo, mas o OGMMF-VRD foi mais consistente ao 
    longo dos conjuntos de dados, apresentando melhor desempenho.

10
  • LÉUSON MÁRIO PEDRO DA SILVA
  • Detectando, Entendendo e Resolvendo Conflitos de Build e Teste

  • Leader : PAULO HENRIQUE MONTEIRO BORBA
  • MEMBRES DE LA BANQUE :
  • EVERTON LEANDRO GALDINO ALVES
  • MARCIO DE OLIVEIRA BARROS
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • MARCIO LOPES CORNELIO
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 24 févr. 2022


  • Afficher le Résumé
  • Durante o desenvolvimento colaborativo de software, desenvolvedores geralmente adotam práticas de criação e integração (merge) de ramos de desenvolvimento quando trabalham em suas contribuições, permitindo que eles contribuam para um projeto de software independentemente. Apesar destes benefícios, estas práticas vem com um custo, a necessidade de integrar software e resolver conflitos de merge, que frequentemente ocorrem na prática. Enquanto técnicas modernas de merge, tais como merge estruturado ou 3-way, podem automaticamente resolver muitos destes conflitos, elas falham quando o conflito surge no nível semântico conhecidos como conflitos semânticos. Estes conflitos são revelados por falhas durante o processo de build e execução de testes do código integrado conhecidos como conflitos de build e teste, respectivamente. Detectar estes conflitos semânticos requer um entendimento do comportamento do software, o que está além da capacidade da maioria das ferramentas de integração de código e assistentes. Para resolver a necessidade de melhores ferramentas assistentes, nós investigamos a ocorrência de conflitos semânticos identificando suas causas e propondo ferramentas que possam apoiar os desenvolvedores quando eles enfrentam estes conflitos durante integrações de código em cenários de merge. Inicialmente, nós realizamos um estudo identificando a frequência, estrutura e padrões de resolução adotados em conflitos de build analisando empiricamente  451 projetos Java open-source. Como resultado, nós provemos um catálogo de conflitos com 239 ocorrências divididos em seis categorias. A maioria dos conflitos de build são causados por declarações não-resolvidas, removidas ou renomeadas por um desenvolvedor mas referenciadas por outra pessoa. Além disso, analisando alguns destes conflitos, nós também reportamos um catálogo de padrões de resolução. Por exemplo, conflitos causados por ações de renomeações são frequentemente resolvidas por meio da atualização da referência não-resolvida, enquanto que declarações removidas são frequentemente reintroduzidas. Ferramentas de reparo automático podem se beneficiar deste último catálogo para resolver conflitos automaticamente; nós ilustramos isto com uma implementação de prova de conceito de uma ferramenta que recomenda soluções para três categorias de conflitos de build. Para avaliar a ocorrência de conflitos de teste, nós adotamos uma abordagem diferente, pois estes conflitos envolvem a semântica de um programa. Consequentemente, eles não podem ser detectados durante a fase de compilação do processo de build. Desta forma, inicialmente, nós realizamos um segundo estudo investigando sua ocorrência, explorando a criação automática de testes unitários como especificações parciais para detectar conflitos. Baseando-se em um conjunto de dados de mais de 80 mudanças mútuas em elementos de classes de 51 cenários de merge com ground-truth, nós manualmente analisamos e investigamos se conflitos de teste existiam. Em seguida, nós exploramos sistematicamente a detecção de conflitos por meio de ferramentas de geração de testes, como também a adoção de Transformações de Testabilidade visando aumentas a testabilidade do código em análise. Como resultado, nós apresentamos um catálogo de 28 conflitos de testes, dos quais 9 foram detectados por nossa abordagem. Nossos resultados mostram que a melhor abordagem para detectar conflitos envolve a combinação das ferramentas Differential EvoSuite e EvoSuite aplicadas com Transformações de Testabilidade. Como contribuição final, nós apresentamos SAM, uma ferramenta de merge semântica baseada na geração de testes unitários, que avisa desenvolvedores sobre proeminentes conflitos em cenários de merge em andamento. No geral, nossos resultados se atentam a uma lacuna na literatura sobre a ocorrência de conflitos de integração de código semânticos durante o desenvolvimento de software. Baseado no tipo de conflito, nós investigamos suas causas e opções para lidar com eles. Enquanto conflitos de build podem ser detectados e solucionados por uma ferramenta de reparo automático, conflitos de teste poderiam ser detectados por uma ferramenta de merge semântica baseada na geração de testes unitários.

11
  • MANOELA MILENA OLIVEIRA DA SILVA
  • Desenvolvimento de Princípios de Design para Autoria de Realidade Aumentada na Educação com Base na Perspectiva Docente

  • Leader : VERONICA TEICHRIEB
  • MEMBRES DE LA BANQUE :
  • CREDINE SILVA DE MENEZES
  • APUENA VIEIRA GOMES
  • GIORDANO RIBEIRO EULALIO CABRAL
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • ROMERO TORI
  • Data: 4 mars 2022


  • Afficher le Résumé
  • Realidade Aumentada (RA) tem um impacto positivo na motivação e no desempenho cognitivo dos alunos de várias idades e em diferentes contextos. Porém, seu uso ainda está longe de ser difundido na educação. Poucas ferramentas de autoria de RA disponíveis são pensadas do ponto de vista educacional, o que evidencia a necessidade de novas pesquisas sobre ferramentas de autoria para a criação de atividades de RA. Assim, este trabalho investiga quais características são importantes na autoria de RA para a educação. Através da pesquisa baseada em design, com a participação de uma equipe interdisciplinar para investigar e propor princípios de design para autoria educacional de RA, buscamos identificar como os professores gostariam de criar experiências de RA com base em suas necessidades pedagógicas. Nosso estudo desenvolveu-se em quatro etapas: (1) análise dos problemas de RA a partir da literatura e práticos por pesquisadores e profissionais em colaboração, (2) desenvolvimento de soluções a partir de princípios de design existentes e inovações tecnológicas advindos da etapa 1, (3) ciclos iterativos de teste e refinamento das soluções identificadas na prática, e (4) desenvolvimento dos princípios de design para autoria docente de RA. Na etapa 1, realizamos entrevistas com 15 professores que usavam tecnologia; 7 professores e 2 coordenadores que utilizaram RA juntamente com uma pesquisa com 106 professores de contextos variados. Essa etapa também abrangeu a revisão da literatura. Embora os professores pareçam interessados e ávidos por aprender sobre RA, seu uso ainda não atingiu níveis mais elevados de maturidade nas escolas. Diferentes aspectos estão relacionados a isso, como falta de infraestrutura, ferramentas de autoria e tempo. Observamos a necessidade de ferramentas de RA para apoiar a colaboração, a criatividade por meio da criação de conteúdo e a capacidade de avaliar os alunos de maneiras mais flexíveis. A partir dos resultados iniciais, definimos um estudo de caso focado na aprendizagem de línguas para crianças e adolescentes. A etapa 2 consistiu em uma série de sessões interativas com um grupo interdisciplinar a fim de mapear os problemas, esboçar as soluções possíveis e decidir aquela a ser prototipada e testada. Na etapa 3, uma ferramenta de RA, Virtual Playground, que permite a criação de narrativas aumentadas de forma colaborativa, bem como sua ferramenta de autoria foi concebida, prototipada e testada com os usuários por meio de uma série de interações e ciclos iterativos de teste e refinamento de soluções. A primeira e a segunda rodada de testes foram realizadas com 5 e 6 professores de inglês com experiência prévia em RA, respectivamente. Os principais problemas relacionaram-se à limitada biblioteca 3D e à falta de possibilidades de criação. Os resultados foram usados para melhorar a UI e UX dos protótipos. Também analisamos ferramentas de autoria de RA que não exigem programação. Boa parte delas carecem de recursos importantes para os professores, especificamente os pedagógicos. Finalmente, na etapa 4, através da reflexão sobre os resultados das etapas anteriores, desenvolvemos princípios de design e aprimoramos a implementação da solução. O principal resultado deste estudo são 11 princípios de design identificados e divididos em três aspectos: infraestrutura, realidade aumentada e pedagogia. Esses princípios foram validados durante a segunda rodada de testes. O protótipo da ferramenta de autoria de RA foi baseado em sete dos princípios de design identificados e apresenta as seguintes características: é flexível e permite que os professores criem planos de aula diferentes, bem como trabalhem com diferentes habilidades e competências.

12
  • AMIRTON BEZERRA CHAGAS
  • A Recommender System to Support the Development of Context-Aware 
    Intelligent Transportation Systems

  • Leader : CARLOS ANDRE GUIMARAES FERRAZ
  • MEMBRES DE LA BANQUE :
  • THAIS VASCONCELOS BATISTA
  • ABEL GUILHERMINO DA SILVA FILHO
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • VANINHA VIEIRA DOS SANTOS
  • Data: 8 mars 2022


  • Afficher le Résumé
  • O desenvolvimento de Sistemas de Transporte Inteligentes (ITS, do inglês 
    Intelligent Transportation Systems) Sensíveis ao Contexto necessita de uma 
    cuidadosa análise para identificar quais Elementos Contextuais podem 
    contribuir na definição do Contexto da aplicação. Esta atividade é 
    complexa, principalmente no cenário de ITS, muito vasto e com centenas de 
    possibilidades. Há um conhecimento tácito em outros projetos da área e este 
    não é utilizado atualmente em todo seu potencial por projetistas de 
    sistemas. O objetivo desta pesquisa é analisar o uso de sensibilidade ao 
    contexto em ITS e propor alternativas de organização desta informação para 
    permitir a criação de ferramentas que contribuam para automatizar parte da 
    tarefa de identificação dos elementos contextuais úteis para o 
    desenvolvimento de uma nova aplicação. Uma revisão da literatura de 
    projetos de ITS serviu para mapear o uso de elementos contextuais. Foram 
    encontados 70 projetos acadêmicos, aos quais adicionou-se 3 projetos 
    comerciais, chegando a um total de 73 projetos. Com o mapeamento, 
    procedeu-se à definição de uma Taxonomia de Categorias de Elementos 
    Contextuais, para aumentar a granularidade da informação e facilitar seu 
    uso em um sistema automatizado. A taxonomia conta com 79 categorias no 
    total. Uma base de conhecimento foi construída relacionando os 73 projetos 
    às categorias da taxonomia. A partir da taxonomia e da base de 
    conhecimento, foi projetado um Sistema de Recomendação de Categorias de 
    Elementos Contextuais para ITS, que utilizando um subconjunto inicial de 
    Elementos Contextuais já identificados como necessários para uma nova 
    aplicação, é capaz de recomendar categorias de Elementos Contextuais para a 
    posterior análise do projetista da aplicação. A validação do sistema de 
    recomendação indicou sua capacidade de recomendar categorias que são 
    relevantes aos projetos. Ao utilizar um número n >= 8 de projetos similares 
    para identificar as categorias, mesmo limitando a quantidade de 
    recomendações em 15 itens, em mais de 75% das vezes o sistema recomendou 
    categorias sabidamente utilizadas para o subconjunto informado como 
    entrada. A criação de uma taxonomia associada ao desenvolvimento de um 
    sistema de recomendação utilizando uma base de conhecimento de projetos da 
    área de ITS apresentou potencial de contribuir positivamente no projeto e 
    desenvolvimento de aplicações deste domínio, permitindo a identificação e 
    consequente uso de mais elementos contextuais relevantes para a aplicação 
    em projeto.

13
  • SYLVIA EMMANUELLE CASTELO BRANCO DE HOLANDA VICTOR
  • Otimização de Aspectos do Aprendizado para Lidar com Fluxo de Dados

  • Leader : SILVIO DE BARROS MELO
  • MEMBRES DE LA BANQUE :
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • CLEBER ZANCHETTIN
  • EMERSON ALEXANDRE DE OLIVEIRA
  • FRANCISCO MADEIRO BERNARDINO JUNIOR
  • SERGIO DE CARVALHO BEZERRA
  • Data: 8 mars 2022


  • Afficher le Résumé
  • Muitos desafios de aplicações comerciais envolvem mineração de dados 
    aplicado a classificação em fluxo de dados. Onde os classificadores são 
    métodos incrementais de instâncias que aprendem com cada exemplo conforme 
    chegam e são capazes de lidar com um fluxo teoricamente infinito de 
    instâncias, suscetível a mudança de conceito, com severas restrições de 
    tempo de processamento e quantidade de memória, além disso, também precisam 
    ser capazes de predizer um padrão a qualquer momento. Assim sendo, 
    diferentes modelos de classificação foram adaptados para manipular fluxos 
    de dados nessas condições, destacando-se para este trabalho a estratégia de 
    aprendizado adaptativo aplicado a classificação com detecção, na qual a 
    adaptação do modelo de aprendizado leva em consideração sinais de detecção 
    do método de detecção de mudança de conceito. Normalmente, os trabalhos da 
    literatura de detecção de mudança de conceito escolhem essa estratégia. 
    Entretanto, é comum nas avaliações de desempenho entre métodos detectores 
    não fazer distinção entre métodos que consideram dos que não consideram, 
    sinais de detecção Warning. Neste trabalho, foram analisados os impactos do 
    sinal de detecção Warning na acurácia de modelos e para isso são fornecidas 
    evidências empíricas, referências e justificativas para descrever os 
    efeitos do Warning na acurácia. Deste modo, sendo possível concluir que os 
    sinais de detecção Warning na maioria das situações analisadas, quando são 
    omitidos degradam da acurácia Prequential, resultando em diferenças 
    estatísticas. Baseando-se nesses resultados, foram desenvolvidas duas 
    estratégias para melhor lidar com os efeitos do sinal de detecção Warning. 
    Elas possuem mecanismos capazes de garantir que novos modelos sejam 
    treinados antes de serem testados sem depender dos sinais de detecção 
    Warning do método de detecção de mudança de conceito. Assim sendo, foi 
    possível fornecer uma análise aprofundada comparando os impactos dos sinais 
    de detecção Warning na acurácia Prequential, incluindo um estudo empírico 
    para comparar várias versões diferentes de métodos de detecção de mudança 
    de conceito em cada estratégia. Por fim, os experimentos empíricos, tanto 
    com bases artificiais como reais e os novos algoritmos foram implementados 
    no framework Massive Online Analysis (MOA) e executados na ferramenta 
    MOAManager, alcançando resultados promissores nos novos algoritmos.

14
  • DAVI HIRAFUJI NEIVA
  • Tradução entre línguas de sinais utilizando Deep Learning

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • FRANCISCO CARLOS MONTEIRO SOUZA
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • LEANDRO MACIEL ALMEIDA
  • Data: 11 mars 2022


  • Afficher le Résumé
  • A linguagem de sinais é a forma de expressão usada por pessoas surdas para se comunicar. É com o movimento do corpo, especialmente as mãos, que uma pessoa surda consegue se expressar. Contudo, as línguas de sinais não são universais, isso quer dizer que uma pessoa surda Alemã não poderá se comunicar adequadamente com uma pessoa surda Brasileira, por exemplo. Soluções baseadas em software utilizam aprendizagem de máquina para reconhecer gestos e traduzir de língua falada e escrita para outra, mas trabalhos que combinem esses algoritmos visando uma tradução entre língua de sinais não são frequentes. Nesta pesquisa, propomos o sAIgns, uma plataforma colaborativa web e móvel para tradução entre línguas de sinais. Utilizando a câmera do celular para capturar vídeos de uma pessoa fazendo um gesto em uma língua de sinais, o usuário poderá visualizar o gesto correspondente na sua língua de sinais materna. Nós utilizamos uma combinação de algoritmos de Deep Learning, tais como Mask R-CNN, CNN e Transformers para realizar remoção de plano de fundo, extração de características, reconhecimento de sinais e tradução. Nós propomos ainda uma abordagem de reconhecimento de sentenças em língua de sinais utilizando um conjunto de dados de palavras. Além disso, propomos uma webpage para hospedar diferentes línguas de sinais, visualizar sinais individualmente ou em sentenças e criar máscaras customizadas para as mãos. Utilizando duas bases públicas de sinais (base alemã PHOENIX-14T e base Libras V-Librasil) nossa abordagem apresentou uma melhora de WER de 4% na base PHOENIX-14T e enquanto na V-Librasil, conseguimos um WER de 21.7% e 5% para palavras e sentenças respectivamente.

15
  • MARCOS ROCHA DE MORAES FALCÃO
  • RESOURCE ALLOCATION FOR URLLC IN NFV-MEC

  • Leader : KELVIN LOPES DIAS
  • MEMBRES DE LA BANQUE :
  • EDMUNDO ROBERTO MAURO MADEIRA
  • ANTONIO ALFREDO FERREIRA LOUREIRO
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • PAULO ROBERTO FREIRE CUNHA
  • RENATO MARIZ DE MORAES
  • Data: 14 mars 2022


  • Afficher le Résumé
  • As redes móveis 5G foram projetadas para atender a três casos de uso 
    principais: banda larga móvel aprimorada (eMBB), comunicação massiva do 
    tipo máquina (mMTC) e comunicação de baixa latência ultra confiável 
    (URLLC), sendo os requisitos conflitantes de latência e confiabilidade 
    definidos pelo URLLC considerados um problema desafiador. Nesse contexto, a 
    Computação de Borda Multiacesso (MEC) e a Virtualização de Funções de Rede 
    (NFV) surgem como paradigmas complementares que devem suportar URLLC, 
    oferecendo recursos distribuídos sob demanda e de maneira granular mais 
    próximos do Equipamento do Usuário (UE), mitigando assim problemas de 
    camada física. Por outro lado, a adoção do NFV-MEC inevitavelmente eleva os 
    custos de implantação e operação, muitos dos quais estão relacionados ao 
    consumo de energia. Neste trabalho, realizamos uma análise de desempenho 
    para a camada de virtualização da arquitetura NFV-MEC da perspectiva de um 
    Provedor de Serviços (SP), que inclui disponibilidade de nós e consumo de 
    energia, além dos requisitos conflitantes de URLLC. Projetamos um modelo 
    para representar um nó NFV-MEC baseado em Cadeias Contínuas de Markov 
    (CTMC) que contém um esquema de dimensionamento de recursos virtuais para 
    otimizar a alocação dinâmica de recursos (DRA), que visa permitir a análise 
    de como as solicitações críticas são processadas pelos recursos de 
    virtualização subjacentes de um nó NFV-MEC .Para tornar o modelo mais 
    realista, incorporamos falhas de recursos, tempos de configuração/reparo e 
    atrasos de sobrecarga de processamento em nossa formulação, pois esses 
    aspectos podem afetar a utilização de recursos no contexto de futuras 
    aplicações críticas. Além disso, o Veículo Aéreo Não Tripulado (UAV) 
    habilitado para MEC é uma opção para implantação de infraestrutura URLLC 
    sob o paradigma NFV-MEC, que pode fornecer Linha de Visada (LoS) entre o 
    UAV e os nós de transmissão terrestres, o que é uma vantagem desta 
    abordagem. No entanto, neste contexto, o compromisso entre os recursos 
    computacionais e o desempenho do URLLC torna-se ainda mais desafiador,uma 
    vez que, em geral, os veículos aéreos não tripulados são limitados devido 
    ao seu tamanho, peso e potência, o que impõe um ônus às funções de rede 
    (NFs) convencionais. Portanto, também formulamos um problema multiobjetivo 
    relacionado ao dimensionamento de nós de UAV habilitado para NFV-MEC e 
    projetamos uma abordagem baseada em Algoritmos Genéticos (GA) para 
    resolvê-lo.


16
  • FERNANDO KENJI KAMEI
  • Supporting the Use of Grey Literature in Software Engineering 
    Research

  • Leader : SERGIO CASTELO BRANCO SOARES
  • MEMBRES DE LA BANQUE :
  • TAYANA UCHÔA CONTE
  • KATIA ROMERO FELIZARDO SCANNAVINO
  • ANDRE LUIS DE MEDEIROS SANTOS
  • FABIO QUEDA BUENO DA SILVA
  • MARCOS KALINOWSKI
  • Data: 22 mars 2022


  • Afficher le Résumé
  • Recentemente, é crescente o interesse em explorar a Literatura Cinza (LC) na pesquisa de Engenharia de Software (ES). Apesar disso, estudos indicaram a necessidade de entender por que e como a LC pode apoiar a pesquisa em ES, pois alguns pesquisadores são céticos quanto à sua importância e credibilidade. Por isso, focamos em melhorar a compreensão da LC e propor um conjunto de recomendações para apoiar seu uso em Estudos Secundários, com base nas opiniões dos pesquisadores e de estudos anteriores. Para atingir nosso objetivo, realizamos um conjunto de estudos empíricos. Investigamos 76 pesquisadores brasileiros para entender suas percepções sobre os benefícios e desafios da LC. Identificamos blogs e sites da comunidade como fontes comumente usadas. Motivações para usar e para evitar, e benefícios e limitações também foram explorados. Como critério para avaliar a credibilidade da LC, identificamos que a reputação do produtor da LC na comunidade é importante. Em seguida, coletamos as percepções sobre os tipos de LC e como 34 pesquisadores brasileiros avaliam sua credibilidade. Embora tenhamos identificado entendimentos controversos, a maioria das fontes da LC tem controle e credibilidade de baixa a moderada. Com base em um estudo terciário, analisamos 126 estudos secundários para apresentar tendências, conceitos empregados, tipos de LC e métodos usados para selecionar e realizar a avaliação da qualidade da LC. Nossas descobertas mostram um crescimento no uso da LC nos últimos anos. Não identificamos uma definição comum da LC, e há diferentes interpretações sobre seus tipos entre os estudos. Curiosamente, apenas sete estudos empregaram critérios específicos para avaliar a qualidade do LC, e cerca de 1/4 da LC não estão mais disponíveis. Realizamos outro estudo terciário para avaliar como o uso de LC contribuiu para nove revisões multivocais da literatura. Identificamos evidências que não seriam encontradas se a LC não fosse considerada. Essas fontes forneceram principalmente recomendações e explicaram tópicos.
    Por fim, realizamos dois grupos focais com dez pesquisadores de ES para avaliar as diretrizes de Garousi. Em geral, as diretrizes são úteis, embora problemas tenham sido percebidos. Fornecemos recomendações para lidar com esses problemas e melhorar as diretrizes de Garousi. Nossas investigações mostram a importância do uso de LC na pesquisa de ES. No entanto, também identificamos desafios que os pesquisadores podem enfrentar. Nos esforçamos para mitigá-los, fornecendo critérios para avaliar a credibilidade e recomendações aos  pesquisadores para lidar melhor com a LC.

17
  • EDUARDO SANTOS SILVA
  • VioLED: instrumento musical aumentado + software como serviço para 
    adesão e engajamento do público no aprendizado musical

  • Leader : GIORDANO RIBEIRO EULALIO CABRAL
  • MEMBRES DE LA BANQUE :
  • JEAN-PIERRE MICHEL BRIOT
  • FLÁVIO LUIZ SCHIAVONI
  • ANDRE MENEZES MARQUES DAS NEVES
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • LUCAS SILVA FIGUEIREDO
  • Data: 25 mars 2022


  • Afficher le Résumé
  • Nos últimos anos, a área de computação musical tem presenciado o surgimento 
    de diversas tecnologias que permitem novas formas de interação com música, 
    variando desde novas formas de reprodução musical aos chamados Instrumentos 
    Musicais Digitais (DMIs) e smart instruments. Particularmente, os avanços 
    nas áreas de Internet das Coisas (IoT) e interfaces gestuais proporcionam a 
    criação instrumentos musicais aumentados, que utilizam estas tecnologias 
    para incorporar novas funcionalidades. No contexto de aprendizado musical, 
    surgem sistemas que utilizam LEDs para exibir o conteúdo musical 
    diretamente no corpo do instrumento – e.g. Fretlight, Fret Zealot e 
    populele –, os quais serão referenciados como instrumentos musicais 
    aumentados para estudo (AMIS, do inglês Augmented Musical Instruments for 
    Study). Isto gera novas oportunidades para auxiliar o aprendizado de 
    instrumentos musicais, que envolve a aquisição de habilidades cognitivas e 
    motoras para entendimento de conceitos musicais e tradução destes conceitos 
    para o instrumento. Desta forma, é possível que estas tecnologias possam 
    ser utilizadas para solucionar alguns dos obstáculos relacionados com este 
    aprendizado, e.g., guiar e motivar o estudante no aprendizado, auxiliar na 
    aquisição destas habilidades, etc. Entretanto, estes sistemas estão 
    inseridos em um contexto de design de interação que envolve demandas em 
    diferentes dimensões: sistemas interativos, design simultâneo de hardware e 
    software, sistemas de “tempo real” e o aprendizado musical. Isto demanda de 
    aspectos de engenharia (e.g. consumo de energia, latência, confiabilidade); 
    de usabilidade (e.g. legibilidade, antecipação e oclusão de informação); do 
    processo de design (e.g. exploração de ideias, prototipação, seleção dos 
    recursos, adaptabilidade a mudanças de sistema); do aprendizado musical 
    (e.g. motivação do usuário, diferentes formas de aprendizado, etc.); além 
    do fato de ser uma área relativamente nova, carente de métodos e diretrizes 
    de design estruturados. Assim, este projeto busca investigar se estes AMIS 
    podem ser utilizados para auxiliar o aprendizado, buscando atingir uma 
    parcela do público não coberta pelas soluções existentes para o aprendizado 
    de instrumentos, focando especialmente no processo de ativação e 
    engajamento dos estudantes no aprendizado. Desta forma, busca-se atender as 
    demandas dos usuários e possivelmente levantar insights que possam auxiliar 
    futuros designers de sistemas similares. Para isso, está sendo 
    desenvolvido, em parceria com a empresa Daccord Music Software, um violão 
    com LEDs capaz de exibir notas/acordes musicais na escala do instrumento, 
    focando principalmente no serviço para este AMIS. Foram realizados dois 
    ciclos de desenvolvimento para ambos o hardware e o aplicativo do sistema 
    além de testes com potenciais usuários. Identificou-se também obstáculos no 
    processo que apontam para decisões de design, como antecipação de conteúdo, 
    oclusão, consumo de energia, etc. que podem auxiliar futuros designers na 
    criação de sistemas similares.

18
  • FLÁVIA MÉRYLYN CARNEIRO FALCÃO
  • Safe and Constructive Design with UML Components

  • Leader : AUGUSTO CEZAR ALVES SAMPAIO
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE CABRAL MOTA
  • ANA CRISTINA VIEIRA DE MELO
  • JULIANO MANABU IYODA
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MARCIO LOPES CORNELIO
  • Data: 29 mars 2022


  • Afficher le Résumé
  • AAAA

19
  • MARCOS JOSÉ CANÊJO ESTEVÃO DE AZEVÊDO
  • Segmentação de Imagens de Cenas Naturais Baseada no \textit{Speed 
    Drawing Challenge} com Aplicação em Segmentação de Mapas e Plantas Baixas

  • Leader : CARLOS ALEXANDRE BARROS DE MELLO
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • FRANCISCO MADEIRO BERNARDINO JUNIOR
  • MARCELO WALTER
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • TSANG ING REN
  • Data: 30 mars 2022


  • Afficher le Résumé
  • O Speed Drawing Challenge consiste em um desafio em que artistas devem 
    representar um desenho em segundos sem perder as principais características 
    que o tornam fiel ao desenho original. À medida que o tempo é reduzido, o 
    artista se encaminha a produzir um desenho mais simples, se aproximando de 
    um desenho contendo apenas os traços mais representativos, focando nos 
    contornos. Para o problema de detecção de contorno, uma imagem de borda 
    representa um desenho produzido sem uma grande limitação de tempo. Assim, o 
    método proposto faz uso dos conceitos de superpixel, detecção de bordas e 
    mapas de saliência para produção de uma imagem, simulando a variação de 
    tempo do Speed Drawing Challenge: a modelagem do desafio em poucos segundos 
    expressa uma imagem com apenas os contorno mais relevantes detectados. 
    Diferente das técnicas do estado-da-arte, o método proposto gera uma imagem 
    de bordas já final, sem necessidade de posterior pós-processamento como 
    binarização. Mais do que um algoritmo apenas, propomos uma metodologia que 
    pode ser aplicada de formas diferentes, mas seguindo a mesma ideia, em 
    outros domínios, como na segmentação de mapas e plantas baixas. Os 
    resultados alcançados foram bastante promissores quando o método é aplicado 
    a imagens de cenas naturais e plantas baixas.

20
  • JÉFERSON KÉNEDY MORAIS VIEIRA
  •                 MPO: A Model for Projects Observatories

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • EDSON LUIZ RICCIO
  • DORZELI SALETE TRZECIAK
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • DANIEL CARVALHO DA CUNHA
  • JOSE ADSON OLIVEIRA GUEDES DA CUNHA
  • Data: 1 avr. 2022


  • Afficher le Résumé
  • Ao trigésimo dia do mês de setembro do ano de dois mil e vinte, às catorze horas e trinta minutos, no Centro de Informática da Universidade Federal de Pernambuco, teve início a defesa de Proposta de Tese de Doutorado em Ciência da Computação do aluno Jeferson Kenedy Morais Vieira intitulada MPO: A Model for Projects Observatories” elaborada sob a orientação do professor Hermano Perrelli de Moura. A Banca Examinadora, composta pelos professores Alexandre Marcos Lins de Vasconcelos, Daniel Carvalho da Cunha, ambos pertencentes ao Centro de Informática desta Universidade e Edson Luiz Riccio pertencente ao Departamento de Contabilidade Atuária da Universidade de São Paulo, sendo o primeiro presidente da Banca Examinadora decidiu: Aprovar o trabalho. E para constar lavrei a presente ata que vai por mim assinada e pela Banca Examinadora. Recife, 30 de setembro de 2020.

21
  • ANDREA MARIA NOGUEIRA CAVALCANTI RIBEIRO
  • Gerenciamento de energia elétrica de uma indústria de resinas termoplásticas

  • Leader : DJAMEL FAWZI HADJ SADOK
  • MEMBRES DE LA BANQUE :
  • ALUIZIO FAUSTO RIBEIRO ARAUJO
  • EDUARDO JAMES PEREIRA SOUTO
  • GLAUCO ESTACIO GONÇALVES
  • GUSTAVO MEDEIROS DE SOUZA AZEVEDO
  • NELSON SOUTO ROSA
  • Data: 1 avr. 2022


  • Afficher le Résumé
  • A eletricidade se tornou uma das principais fontes de calor e de força nas 
    indústrias, representando um percentual importante nos custos da produção.       
    É possível afirmar que no contexto mundial o setor industrial é o maior 
    consumidor de energia elétrica e a fabricação com uso de energia-intensiva 
    é o maior componente desse setor. No contexto nacional o consumo de energia 
    elétrica pelas indústrias atualmente representa 35% do consumo total de 
    energia consumida no país. A busca por uma melhor eficiência energética 
    pelo setor industrial, vem tornando, cada vez mais frequente. O uso de 
    dispositivos de Internet of Things (IoT), energias renováveis, 
    gerenciamento e monitoramento de energia, bem como Inteligência Artificial 
    (IA) são alternativas para alcançar a redução e o consumo consciente da 
    energia elétrica. Desta forma, esta pesquisa de doutorado teve como 
    objetivo o desenvolvimento de um framework de gerenciamento de energia 
    elétrica em uma indústria de resinas termoplásticas. O framework recebe 
    como entrada dados de variáveis elétricas e variáveis de processo da planta 
    industrial e produz como saída informações para auxiliar a tomada de 
    decisão: gráficos com a predição do identificador de desempenho energético; 
    alertas; faixas de vazão de produção e tempo de produção; retorno do 
    investimento de um dado equipamento ou material, entre outros. O 
    processamento desses dados é realizado através da integração entre três 
    modelos baseados em técnicas de IA, otimização linear e lei da afinidade - 
    modelo de predição do consumo de energia elétrica, escalonamento da vazão 
    de produção e viabilidade de materiais e equipamentos. Para validação do 
    framework um estudo de caso foi realizado e foi verificado uma economia de 
    9,74% oriunda da aplicação do modulo de escalonamento e uma economia mensal 
    de aproximadamente R$ 9.000 oriunda do módulo de viabilidade. Além disso, o 
    framework contribuiu para a manutenção do certificado da ISO 50001.

22
  • CECILIA CORDEIRO DA SILVA
  • Uma metodologia para construção de preditores de doenças baseada em 
    Aprendizado de Máquina, Computação Bioinspirada e Análise Espaço-Temporal

  • Leader : ABEL GUILHERMINO DA SILVA FILHO
  • MEMBRES DE LA BANQUE :
  • ANA LUCIA BEZERRA CANDEIAS
  • GISELLE MACHADO MAGALHAES MORENO
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • MANOEL EUSEBIO DE LIMA
  • TIAGO LIMA MASSONI
  • Data: 20 juin 2022


  • Afficher le Résumé
  • Em um mundo cada vez mais conectado por meio de vias físicas e virtuais, 
    pessoas e dados circulam com cada vez mais facilidade. As mudanças 
    demográficas e o intenso fluxo migratório das zonas rurais para as regiões 
    urbanas geraram um crescimento desordenado das cidades. Isso combinado à 
    ausência de boas condições de saneamento básico contribui para a 
    proliferação do vetor. A emergência de surtos epidêmicos, como a dengue, a 
    febre chikungunya, a zika e outras doenças tem contribuído para construir 
    um cenário cada vez mais desafiador. A recente pandemia de Covid-19 trouxe 
    grandes mudanças em escala mundial. Nesse cenário, cresceu fortemente o 
    interesse por técnicas para predição espacial e temporal da distribuição de 
    doenças a partir de tecnologias como a Internet das Coisas, aprendizado de 
    máquina e múltiplas bases de dados. Este trabalho tem como objetivo geral 
    propor uma metodologia para construção de preditores capazes de prever a 
    distribuição espaço-temporal de doenças e apontar os fatores mais 
    relevantes para a predição a partir de uma arquitetura baseada no acesso a 
    múltiplas bases de dados. Para validação da proposta, foi adotada como 
    estudo de caso a predição de casos de arboviroses por meio de séries 
    históricas georreferenciadas de informações climáticas e ambientais 
    utilizando técnicas de aprendizado de máquina. Essas informações são 
    coletadas de múltiplos bancos de dados georreferenciados, previamente 
    construídos a partir da coleta de informações por redes de sensores e do 
    Sistema Único de Saúde. Foram utilizadas informações da Cidade do Recife, 
    de casos de arboviroses (dengue, chikungunya e zika) de 2013 a 2016, e 
    informações climáticas e ambientais do mesmo período, da APAC e doINMET. 
    Os sistemas de predição de doenças construídos utilizando a metodologia 
    proposta neste trabalho também devem ser capazes de apontar os fatores mais 
    relevantes para a predição por meio do Comitê de Especialistas Artificiais, 
    proposto neste trabalho e composto de um conjunto de algoritmos de seleção 
    de atributos baseados em métodos de otimização por Computação 
    Evolucionária. O Comitê de Especialistas Artificiais decide por votação. Os 
    melhores resultados de predição de casos foram obtidos com regressão por 
    Random Forest. Os valores do coeficiente de correlação de Pearson foram 
    superiores a 0,99, enquanto o RMSE (%) se manteve inferior a 6%. Os índices 
    de Kendall e Spearman também se mantiveram altos: seus valores foram 
    superiores a 0,99 para Spearman e maiores que 0,90 para Kendall. O 
    desempenho superior da Random Forest mostra que o problema de regressão é 
    de difícil generalização, dado que a Random Forest é baseada em comitês de 
    árvores de decisão e a regressão é realizada por uma média ponderada dos 
    resultados das diferentes árvores de decisão que compõem o modelo.

23
  • DAVID LOPES DE MACÊDO
  • Towards Robust Deep Learning usingEntropic Losses

  • Leader : TERESA BERNARDA LUDERMIR
  • MEMBRES DE LA BANQUE :
  • RICARDO MATSUMURA DE ARAÚJO
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • BYRON LEITE DANTAS BEZERRA
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • TSANG ING REN
  • Data: 27 juin 2022


  • Afficher le Résumé
  • Apesar das conquistas teóricas e resultados práticos encorajadores, o aprendizado profundo ainda apresenta limitações em muitas áreas, como raciocínio, inferência causal, interpretabilidade e explicabilidade. Do ponto de vista da aplicação, uma das restrições mais impactantes está relacionada à robustez desses sistemas. De fato, as soluções atuais de aprendizado profundo são bem conhecidas por não informar se podem classificar um exemplo de maneira confiável durante a inferência. As redes neurais modernas geralmente são superconfiantes, mesmo quando estão erradas. Portanto, construir aplicativos robustos de aprendizado profundo é atualmente um tópico de pesquisa de ponta em visão computacional, processamento de linguagem natural e muitas outras áreas. Uma das maneiras mais eficazes de construir soluções de aprendizado profundo mais confiáveis é melhorar seu desempenho na chamada tarefa de detecção fora de distribuição, que consiste essencialmente em ``saber que você não sabe'' ou ``conhecer o desconhecido''. Em outras palavras, sistemas com capacidade de detecção fora de distribuição podem rejeitar a realização de uma classificação sem sentido quando submetidos a instâncias de classes nas quais a rede neural não foi treinada. Esta tese aborda a desafiadora tarefa de detecção fora da distribuição, propondo novas funções de perda e pontuações de detecção. A estimativa de incerteza também é uma tarefa auxiliar crucial na construção de sistemas de aprendizado profundo mais robustos. Portanto, tratamos também dessa tarefa relacionada à robustez, que avalia quão realistas são as probabilidades apresentadas pela rede neural profunda. Para demonstrar a eficácia de nossa abordagem, além de um conjunto substancial de experimentos, que incluí resultados estado-da-arte, utilizamos argumentos baseados no princípio da máxima entropia para estabelecer a fundamentação teórica das abordagens propostas. Ao contrário da maioria dos métodos atuais, além de apresentarem inferência rápida e eficiente, nossas perdas e pontuações são soluções baseadas em princípios e não produzem efeitos colaterais indesejados. Além disso, nossas abordagens podem ser incorporadas em projetos atuais e futuros simplesmente substituindo a perda usada para treinar a rede neural profunda e computando uma pontuação rápida para detecção.

24
  • RODRIGO GOMES DE SOUZA
  • Seleção automática de fatias em volumes de imagens tomográficas: 
    Estudo de caso no apoio ao diagnóstico da Doença de Alzheimer

  • Leader : MANOEL EUSEBIO DE LIMA
  • MEMBRES DE LA BANQUE :
  • ABEL GUILHERMINO DA SILVA FILHO
  • GISELLE MACHADO MAGALHAES MORENO
  • MARCELO CAIRRAO ARAUJO RODRIGUES
  • RICARDO EMMANUEL DE SOUZA
  • SIDNEY MARLON LOPES DE LIMA
  • Data: 30 juin 2022


  • Afficher le Résumé
  • Com o advento da Quarta Revolução Industrial, as tecnologias da Indústria 4.0 têm acele-
    rado o processo de transformação digital dos sistemas nacionais de saúde, tanto públicos
    quanto complementares, incorporando a Inteligência Artificial, a Internet das Coisas, a
    Robótica e a Biotecnologia à prática clínica, terapêutica e de gestão de recursos em saúde.
    Com a pandemia de Covid-19, também se intensificou o uso de técnicas avançadas de
    diagnóstico por imagem. Apesar da sofisticação do diagnóstico por imagem por conta da
    possibilidade de gerar laudos rápidos e precisos, esses exames exigem um alto conheci-
    mento especialista. Contudo, a dependência do conhecimento especialista humano pode
    acarretar em diagnósticos tardios e, por conseguinte, maus prognósticos. Esse problema é
    especialmente mais grave quando se consideram imagens volumétricas: estruturas associ-
    adas a determinadas doenças com bons prognósticos quando detectadas precocemente
    podem ser ignoradas até mesmo por especialistas com grande experiência, por razões
    diversas, incluindo aí a fadiga humana, dada a complexidade envolvida na análise humana
    de volumes. Devido ao potencial dos impactos à saude pública e à economia de forma geral, a Doença de Alzheimer, DA, tornou-se um dos maiores desafios à ciência na última década. Contudo, grande parte dos estudos que propõem métodos de suporte ao diagnóstico da doença apresentam dificuldades para sua adoção na prática clínica. Este trabalho tem como objetivo geral construir uma metodologia para selecionar planos de visualização e cortes ou fatias em imagens biomédicas volumétricas, de forma que se otimize o diagnóstico por meio da transformação de um problema tridimensional em bidimensional. A seleção da fatia e dos planos de visualização é feita com o auxílio de um algoritmo evolucionário guiado por um classificador. Como estudo de caso, foi escolhido o problema do apoio ao diagnóstico da doença de Alzheimer. Utilizando volumes MRI da base ADNI-3, este estudo apresenta um modelo baseado em computação evolucionária e aprendizado de máquina capaz de identificar e utilizar o conjunto de fatias 2D mais adequado para maximizar cada uma das métrica relacionadas ao diagnóstico da doença de Alzheimer. Por meio de uma seleção ótima de fatias os melhores resultados para especificidade, sensibilidade e acurácia obtidos em cada classe foram respectivamente: normal (94,58%, 81,08%, 86.64%), déficit cognitivo leve (94,83%, 89,32%, 89,89%) e Alzheimer (92,99%, 92,06%, 90,61%) para mulheres, e normal (91,93%, 93,42%, 91.30%), déficit cognitivo leve (98,17%, 80,53%, 86,29%) e Alzheimer (95,86%, 90,91%, 94,31%) para homens. Assim, este trabalho apresenta um modelo para apoiar o diagnóstico de doença de Alzheimer e déficit cognitivo leve, apresentando bom desempenho de classificação, considerando também as informações de gênero para produzir melhorias significativas no diagnóstico da doença de Alzheimer.

25
  • MICHAEL OLIVEIRA DA CRUZ
  • Applying Language Modeling to Detect Anomalies in Bus Trajectories

  • Leader : LUCIANO DE ANDRADE BARBOSA
  • MEMBRES DE LA BANQUE :
  • CLODOVEU AUGUSTO DAVIS JUNIOR
  • CLAUDIO DE SOUZA BAPTISTA
  • JOSE ANTONIO FERNANDES DE MACEDO
  • KIEV SANTOS DA GAMA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 1 juil. 2022


  • Afficher le Résumé
  • A descoberta de trajetórias anômalas de ônibus no tráfego urbano pode ajudar as agências de transporte a melhorar seus serviços, fornecendo um melhor planejamento para lidar com eventos inesperados, como fenômenos climáticos, desvios ou acidentes. Para ajudar a identificar a causa potencial da anomalia, podemos detectar trajetórias anômalas e também identificar onde a anomalia está localizada.
    No entanto, um grande desafio para realizar esta tarefa é a falta de dados de trajetória anômala rotulados. A falta desses dados rotulados dificulta a avaliação de modelos e a construção de abordagens de aprendizagem indutivas. Além disso, as abordagens anteriores dependem fortemente de tarefas de pré-processamento para segmentar trajetórias antes de detectar a anomalia. Essa estratégia não é apenas cara, mas também pode perder informações importantes porque os segmentos são analisados individualmente sem considerar o relacionamento entre os segmentos. Por fim, poucas estratégias na literatura propõem soluções online, o que restringe sua contribuição em tempo real. Com base nisso, esta tese tem como objetivo propor uma abordagem online
    baseado em aprendizado indutivo para detectar trajetórias anômalas de ônibus e identificar os segmentos anômalos. Para isso, inicialmente observamos que as trajetórias de ônibus são pré-definidas e bem formadas, e incluem a informação de rotas. Com base nisso, supomos que uma abordagem supervisionada poderia aprender a classificar essas trajetórias de ônibus de acordo com as rotas e detectar indiretamente quais delas são anômalas. Assim, propomos um classificador multiclasse chamado Spatial-Temporal Outlier Detection como nossa primeira solução para detectar trajetórias anômalas. Usamos a incerteza da classificação aplicando a função de entropia sobre a distribuição de classes para gerar um score de anomalia. Embora experimentos extensivos tenham mostrado resultados promissores, nossa primeira solução não pode identificar onde ocorrem os segmentos anômalos. Para superar essa restrição, nossa intuição é que as trajetórias podem ser representadas como uma sequência de tokens semelhantes a
    frases de palavras que nos permitem aplicar um modelo de linguagem. Consequentemente, propomos usar uma abordagem baseada na arquitetura generativa de redes neuronais profundas chamada encoder-decoder Transformer para aprender a relação entre pontos de trajetória sequenciais com base no mecanismo de autoatenção. Nossa solução final não requer nenhuma extração manual de recursos e pode ser facilmente adaptada a outros tipos de trajetórias (por exemplo, carro, pessoas e embarcações). Realizamos uma extensa avaliação experimental que mostra: (1) nossa abordagem é eficaz para detecção de anomalias de trajetória e subtrajetória; e (2) supera os métodos usados para comparação em alguns cenários e alcança estatisticamente resultados comparáveis em outros cenários.

26
  • MARCIO ALEXANDRE PEREIRA DA SILVA
  • Uma Arquitetura de Software Adaptativa baseada em Arquétipo OpenEHR 
    para Sistemas de Informação em Saúde

  • Leader : VALERIA CESARIO TIMES ALVES
  • MEMBRES DE LA BANQUE :
  • RICARDO JOÃO CRUZ CORREIA
  • CLAUDIA MARIA CABRAL MORO BARRA
  • GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • LUCIANO DE ANDRADE BARBOSA
  • VINICIUS CARDOSO GARCIA
  • Data: 28 juil. 2022


  • Afficher le Résumé
  • A adaptabilidade de software confere, aos sistemas de informação, a 
    capacidade de ajustar o seu comportamento ou estrutura, mediante mudanças 
    tanto em seu ambiente de execução, como em seus requisitos de software. É 
    uma abordagem eficaz para lidar com ambientes dinâmicos e mutáveis, como o 
    ambiente no qual estão inseridos os sistemas de informação em saúde (SIS) 
    que utilizam arquétipo, um padrão openEHR. Um arquétipo pode ser definido 
    como uma expressão computacional representada por restrições de domínio, 
    que modelam os atributos de dados e dão significado semântico aos registros 
    eletrônicos de saúde. Nesse contexto de ambientes mutáveis, os ajustes 
    manuais (na implementação, nos testes e na implantação), efetuados nos SIS 
    com o intuito de deixá-los em conformidade com novas demandas, significam 
    um prejuízo bilionário. Por outro lado, adicionar recurso de adaptabilidade 
    de software a esses SIS também complica significativamente a fase de 
    implementação e traz grandes desafios às práticas de Engenharia de 
    Software. Desta forma, esta tese apresenta uma solução que fornece um 
    mecanismo de adaptabilidade aos SIS que utilizam arquétipos. Essa solução é 
    uma arquitetura de software que adapta seus componentes, em tempo de 
    execução, conforme os arquétipos utilizados no SIS. Essa arquitetura tem 
    quatro camadas: modelo de dados, interface do usuário, adaptação em tempo 
    de execução e serviço CRUD. A camada modelo de dados contém o artefato 
    computacional utilizado para representar o RES, isto é, arquétipos. A 
    camada interface do usuário interage com o utilizador do software e possui 
    dois módulos: formulário com arquétipo e controlador. A camada adaptação em 
    tempo de execução tem dois módulos: sensor e adaptador, com os quais os 
    componentes da arquitetura são adaptados ao SIS, conforme os arquétipos 
    utilizados na interface do usuário. A camada serviço CRUD contém um 
    conjunto do módulo serviço CRUD de um arquétipo, o qual executa operações 
    de escrita, leitura, atualização e exclusão de dados. Além disso, a 
    ferramenta AdaptiveHIS foi desenvolvida para avaliação experimental da 
    adaptabilidade da solução proposta nessa tese. Essa ferramenta permite 
    construir uma aplicação de SIS com base na arquitetura proposta. Nessa 
    avaliação, comparou-se a arquitetura proposta com outras arquiteturas 
    construídas por cinco ferramentas do estado da arte: EhrScape, EhrBase, 
    MARCIA, Template4EHR e Microservice4EHR. Também, mensurou-se o quão 
    adaptável essas arquiteturas são em um ambiente mutável. Como resultado, a 
    arquitetura apresentada nesta tese aumenta em até 62% a adaptabilidade dos 
    SIS. Por fim, esta proposta permite que SIS sejam adaptáveis em ambientes 
    dinâmicos e mutáveis, tornando menos dispendiosa a manutenção desses 
    softwares, uma vez que não há necessidade de alocação de recursos manuais 
    para adequar o software às novas demandas.

27
  • JARBAS NUNES VIDAL FILHO
  • Infraestrutura de Dados Espaciais para Análise e Documentação de 
    Trajetórias Semânticas de Objetos Móveis

  • Leader : VALERIA CESARIO TIMES ALVES
  • MEMBRES DE LA BANQUE :
  • ANA CAROLINA BRANDAO SALGADO
  • CARLOS ANDRE GUIMARAES FERRAZ
  • CLAUDIO DE SOUZA BAPTISTA
  • CLODOVEU AUGUSTO DAVIS JUNIOR
  • RICARDO RODRIGUES CIFERRI
  • Data: 29 juil. 2022


  • Afficher le Résumé
  • Trajetórias Brutas de Objetos Móveis (TBOM) correspondem a uma sequência de 
    pontos coletados a partir de um objeto móvel que se desloca durante um 
    intervalo de tempo no espaço. Após coleta da TBOM, é preciso adicionar 
    vários tipos de informações semânticas às trajetórias coletadas como, por 
    exemplo, anotações sobre locais visitados pelo objeto móvel ou tipos de 
    transporte utilizados. Essas TBOM enriquecidas semanticamente são chamadas 
    aqui de Trajetórias Semânticas de Objetos Móveis (TSOM). A literatura 
    reporta diversos trabalhos sobre enriquecimento semântico de TBOM, 
    descrevendo diferentes tipos aplicações específicas para analisar 
    comportamento de objetos móveis. Entretanto, pouca atenção tem sido dada ao 
    uso de Infraestruturas de Dados Espaciais (IDE) para enriquecer, analisar e 
    documentar TSOM. No entanto, o crescimento de Big Data gerado pelos 
    usuários, como dados produzidos por redes sociais ou coletados por 
    equipamentos eletrônicos com sensores embarcados, faz com que o TSOM exija 
    serviços Web modernos e padrões de metadados atualizados para viabilizar a 
    documentação dos dados e garantir a qualidade das TSOM. Por outro lado, as 
    IDEs fornecem um ambiente interoperável e integrado compartilhado para 
    documentação de dados. O principal objetivo desta tese é como evoluir as 
    IDEs tradicionais para documentar TSOM, pois faltam padrões de metadados e 
    serviços de anotação semântica específicos no contexto das IDEs. Esta tese 
    apresenta um novo conceito de IDE para TSOM, denominado SDI4Trajectory, que 
    suporta a documentação de diferentes tipos de TSOM, por exemplo, 
    trajetórias holísticas. Por meio da SDI4Trajectory nós propomos: 1) um 
    conjunto mínimo de elementos baseado no padrão de metadados ISO 
    19115-1:2014 para documentar TSOM de forma semiautomática, 2) método para 
    identificação de pontos semânticos em TBOM e, 3) processos de 
    enriquecimento semântico semiautomático e manual, que são eficientes para 
    apoiar anotações semânticas e documentação de TSOMs. Esses processos 
    dificilmente são encontrados em IDEs tradicionais e têm sido desenvolvidos 
    por meio de microsserviços Web e semânticos. Para validar a SDI4Trajectory, 
    utilizamos um conjunto de dados coletados por usuários voluntários através 
    do aplicativo MyTracks com os seguintes objetivos: (i) comparar os 
    processos de enriquecimento semântico semiautomático e manual no 
    SDI4Trajectory; (ii) investigar a viabilidade das abordagens de 
    documentação realizadas pela SDI4Trajectory; (iii) validar os elementos de 
    metadados propostos para documentar TSOM. Utilizamos também os dados do 
    projeto Geolife para realizar experimentos com os métodos de identificação 
    de pontos semânticos e na documentação de conjunto de TSOMs na 
    SDI4Trajectory. Como resultados, nós validamos o novo conceito de IDE para 
    TSOM, pois a partir dos experimentos foi possível concluir que a 
    SDI4Trajectory possibilita o enriquecimento, análise e documentação de 
    trajetórias de objetos móveis.

28
  • FELIPE COSTA FARIAS
  • Embarrassingly Parallel Autoconstructive Multilayer Perceptron 
    Neural Networks

  • Leader : TERESA BERNARDA LUDERMIR
  • MEMBRES DE LA BANQUE :
  • BYRON LEITE DANTAS BEZERRA
  • CLEBER ZANCHETTIN
  • GUILHERME DE ALENCAR BARRETO
  • JOSE ALFREDO FERREIRA COSTA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 5 août 2022


  • Afficher le Résumé
  • Nesta tese foi desenvolvido um método para a construção automática de Redes 
    Neurais Multilayer Perceptron (MLPs). Para isso, propomos um algoritmo de 
    splitting de dados (Similarity Based Stratified Splitting) que procura 
    manter as características estatísticas entre os splits gerados de forma a 
    treinar melhores modelos. Estes splits são utilizados para o treinamento de 
    diversas MLPs com diferentes arquiteturas de forma paralela e independente 
    (ParallelMLPs), utilizando uma multiplicação matricial modificada, que 
    aproveita o princípio da localidade para acelerar o treinamento destas 
    redes entre 1 e 4 ordens de grandeza, quando comparamos com o treinamento 
    sequencial dos modelos. Além disso, discutimos diferentes políticas de 
    seleção dessas MLPs dado um pool de modelos complexos de tamanho 
    considerável.

29
  • WANESSA WERIDIANA DA LUZ FREITAS
  • Análise Exploratória e Regressão Espacial para Dados Simbólicos Intervalares

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • FERNANDA DE BASTIANI
  • MARCUS COSTA DE ARAUJO
  • NIVAN ROBERTO FERREIRA JUNIOR
  • ROBERTA ANDRADE DE ARAÚJO FAGUNDES
  • RONEI MARCOS DE MORAES
  • Data: 15 août 2022


  • Afficher le Résumé
  • A Análise de Dados Espaciais é uma área que busca identificar padrões 
    existentes em uma
    determinada região através de metodologias próprias. A compreensão da 
    dependência espacial de um fenômeno em uma dada região pode ser mensurada 
    através de abordagens envolvendo a noção de autocorrelação espacial. Essas 
    técnicas são usualmente  empregadas no contexto de variáveis clássicas 
    (pontuais). Por outro lado, a Análise de Dados Simbólicos é uma área de 
    pesquisa e aplicação relacionada às áreas de aprendizagem de máquina e 
    estatística, que fornecem ferramentas para descrever unidades (objetos), 
    permitindo lidar com diversos tipos de variáveis, inclusive variáveis do 
    tipo intervalar. Uma questão relevante consiste em tentar obter uma 
    descrição da autocorrelação espacial para variáveis do tipo intervalar. 
    Assim, neste trabalho buscamos conciliar a análise de dados simbólicos 
    (variáveis intervalares) com a análise de dados espaciais. Mais 
    especificamente, o presente estudo tem o intuito de identificar o
    comportamento de informações georreferenciadas para dados intervalares na 
    Análise de Dados Simbólicos. Os objetivos principais são: i) estender o 
    índice de autocorrelação espacial de Moran da Análise Exploratória Espacial 
    para o caso de dados intervalares e ii) avaliar esses dados por meios de 
    modelos de regressão. Para analisarmos os índices de autocorrelação 
    espacial intervalar propostos, realizamos experimentos com conjuntos de 
    dados sintéticos do tipo intervalo. Além disso, analisamos duas aplicações 
    para dados reais. A primeira utiliza dados de notificações de casos de 
    COVID-19 para o nordeste brasileiro e a segunda está relacionada ao preço 
    de aluguel de imóveis na cidade de Munich. No contexto de regressão, 
    utilizamos o modelo de regressão linear para dados do tipo intervalar e um 
    modelo de regressão espacial, que leva em consideração a conectividade 
    existente entre as regiões. Para avaliarmos o desempenho dessas abordagens, 
    realizamos simulações de Monte Carlo em que calculamos a média e
    o desvio padrão da magnitude relativa do erro da estimativa dos modelos 
    analisados.

30
  • ROGÉRIO CESAR PEIXOTO FRAGOSO
  • Clustering-based Dynamic Ensemble Selection for One-Class 
    Decomposition

  • Leader : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBRES DE LA BANQUE :
  • YANDRE MALDONADO E GOMES DA COSTA
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • GEORGE GOMES CABRAL
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • RENATO VIMIEIRO
  • Data: 24 août 2022


  • Afficher le Résumé
  • Uma solução natural para lidar com problemas multiclasse é empregar classificadores multiclasse. No entanto, em situações específicas, como dados desbalanceados ou grande número de classes, é mais eficaz decompor o problema multiclasse em vários problemas mais fáceis de resolver. A decomposição em uma classe é uma alternativa, onde classificadores de uma classe (OCCs) são treinados para cada classe separadamente. No entanto, ajustar os dados de forma otimizada é um desafio para OCCs, principalmente quando os dados apresentam uma distribuição intraclasse complexa. A literatura mostra que sistemas de múltiplos classificadores são inerentemente robustos em tais casos. Assim, a adoção de múltiplos OCCs para cada classe pode levar a uma melhoria na decomposição de uma classe. Com isso em mente, neste trabalho apresentamos dois métodos para classificação de problemas multiclasse através ensembles de OCCs. One-class Classifier Dynamic Ensemble Selection for Multi-class problems (MODES, para abreviar) e Density-Based Dynamic Ensemble Selection (DBDES) fornecem classificadores competentes para cada região do espaço de características, decompondo o problema multiclasse original em vários problemas de uma classe. Assim, cada classe é segmentada e um OCC é treinado para cada cluster. MODES utiliza o algoritmo K-means e um conjunto de índices de validação de cluster enquanto DBDES utiliza o algoritmo OPTICS para a segmentação dos dados. A lógica é reduzir a complexidade da tarefa de classificação definindo uma região do espaço de características onde o classificador deve ser um especialista. A classificação de um exemplo de teste é realizada selecionando dinamicamente um conjunto de OCCs competentes e a decisão final é dada pela reconstrução do problema multiclasse original. Experimentos realizados com 25 bancos de dados, 4 modelos OCC e 3 métodos de agregação mostraram que as técnicas propostas superam a literatura. Quando comparado com o estado da arte, MODES e DBDES obtiveram melhores resultados, principalmente para bancos de dados com regiões de decisão complexas.

31
  • CARLOS GOMES ARAUJO
  • Uma abordagem para análise do impacto da consistência no desempenho 
    e disponibilidade em SGBDs NoSQL

  • Leader : EDUARDO ANTONIO GUIMARAES TAVARES
  • MEMBRES DE LA BANQUE :
  • AIDA ARAUJO FERREIRA
  • EDMUNDO ROBERTO MAURO MADEIRA
  • PAULO HUGO ESPIRITO SANTO LIMA
  • PAULO ROMERO MARTINS MACIEL
  • ROBSON DO NASCIMENTO FIDALGO
  • Data: 31 août 2022


  • Afficher le Résumé
  • Na última década, o volume de dados gerado e armazenado por computador 
    aumentou notavelmente. Estes dados vêm de várias fontes, como educação, 
    governo, saúde, segurança e manufatura. Os dados, que podem ou não ser   
    estruturados, podem ser gerados, por exemplo, por sistemas operados por 
    usuários ou máquinas autônomas. Para atender à demanda do gerenciamento 
    destes dados, as tecnologias de banco de dados convencionais apresentam 
    limitações devido à rigidez de suas arquiteturas. Adjacente a essa 
    necessidade de crescimento dos dados, populariza-se o desenvolvimento dos 
    sistemas gerenciadores de banco de dados (SGBD) NoSQL, (Not Only SQL). 
    NoSQL é uma tecnologia de banco de dados concebida principalmente para 
    ultrapassar a escala, desempenho, disponibilidade e as limitações dos SGBDs 
    relacionais. Para melhorar seu desempenho e disponibilidade, o NoSQL 
    oferece a consistência eventual, a qual permite, temporariamente uma 
    inconsistência entre os servidores redundantes. Importantes SGBDs NoSQL 
    dispõem da possibilidade da configuração da consistência baseada em quórum, 
    que representa o número de servidores que devem confirmar uma operação para 
    que a mesma seja concluída. Neste contexto, um grande desafio é quantificar 
    e avaliar o impacto no desempenho, na disponibilidade, na probabilidade de 
    acessar os dados mais recentes e no consumo de energia das operações no 
    NoSQL baseado em quórum. Diversos trabalhos avaliam SGBDs NoSQL, mas a 
    estimativa do impacto da escolha da consistência nessas métricas ainda é 
    pouco representada na literatura. As  possibilidades da escolha de diversas 
    arquiteturas e configurações em SGBDs NoSQL baseado em quórum requerem 
    ferramentas e técnicas de avaliação para que um projetista possa selecionar 
    a melhor abordagem na implementação de sistemas. Esta tese de doutorado 
    apresenta e avalia um conjunto de modelos formais que permitem quantificar 
    o impacto da configuração da consistência. A proposta utiliza rede de Petri 
    estocástica e Diagrama de blocos de confiabilidade para modelar sistemas de 
    armazenamento de dados NoSQL baseados em quórum. Os modelos permitem 
    estimar o desempenho, a disponibilidade, a probabilidade de acesso ao dado 
    mais recente e o consumo de energia. Um estudo de caso, verificou que 
    elevar o nível de consistência melhorou a probabilidade de acesso ao dado 
    mais recente em 21%. No entanto, aumentou o tempo das operações, a 
    disponibilidade do sistema foi elevada de 3 segundos para 3 horas.

32
  • LEANDRO MARQUES QUEIROS
  • Designing Groupware for Collaborative Lesson Planning for Basic 
    Education Teachers

  • Leader : ALEX SANDRO GOMES
  • MEMBRES DE LA BANQUE :
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • FRANCISCO KELSEN DE OLIVEIRA
  • JORGE DA SILVA CORREIA NETO
  • JOSE AIRES DE CASTRO FILHO
  • Data: 31 août 2022


  • Afficher le Résumé
  • O planejamento colaborativo de aulas entre professores da educação básica permite o compartilhamento de experiências e recursos educacionais. Essas práticas estão distribuídas no tempo e no espaço e variam à medida que os profissionais evoluem suas experiências profissionais. Os professores improvisam criativamente as funções de artefatos mundanos e digitais para atingir objetivos circunstanciais que emergem na prática profissional colaborativa. Nesta tese, usamos uma abordagem de etnografia digital para entender profundamente a experiência social do planejamento colaborativo de aulas e construir conhecimento sobre esses fenômenos. Adotamos as noções antropológicas de improvisação e contingência para entender como os professores da educação colaboram criativamente no planejamento das aulas. Realizamos sequências de entrevistas não estruturadas no local de trabalho (escolas e residências) e virtualmente reencenamos observações. Todos os dados coletados foram analisados para evidenciar os significados situados dos materiais, relações e circunstâncias desses procedimentos idiossincráticos entre os profissionais. Os principais resultados evidenciam alguns improvisos e contingências no compartilhamento de experiências e como os artefatos estruturam diretamente práticas e experiências, levando à frustração, insatisfação e, consequentemente, desamparo. Revelamos recomendações específicas para o design de sistemas de apoio ao planejamento de aulas colaborativas de professores. Assim, realizamos um design participativo situado que permitiu que os professores se visualizassem em possíveis cenários futuros, usando sistema colaborativo para apoiar suas práticas colaborativas de preparação em sala de aula. Os resultados indicam que a realização de atividades colaborativas de planejamento de aula em um colaborativo de planejamento de aula elaborado a partir de um design participativo com professores do ensino fundamental é uma abordagem bem-sucedida, pois permite o design de artefatos artificiais significativos para os professores e promove o bem-estar relacionado aos domínios de afeto, comunidade e trabalho.

33
  • ISRAEL FERRAZ DE ARAUJO
  • Otimização de Circuitos para a Inicialização de Estados Quânticos

  • Leader : ADENILTON JOSÉ DA SILVA
  • MEMBRES DE LA BANQUE :
  • SAMURAÍ GOMES DE AGUIAR BRITO
  • ANTONIO MURILO SANTOS MACEDO
  • LEON DENIS DA SILVA
  • STEFAN MICHAEL BLAWID
  • WILSON ROSA DE OLIVEIRA JUNIOR
  • Data: 1 sept. 2022


  • Afficher le Résumé
  • O carregamento de informações em um dispositivo computacional é uma tarefa comum em aplicações de informática. Nos dispositivos clássicos, as informações carregadas podem ser usadas várias vezes enquanto não apagadas. Isso não é possível nos dispositivos quânticos devido ao teorema da não-clonagem, às operações quânticas ruidosas e à decoerência. O desenvolvimento de computadores quânticos pode reduzir drasticamente o tempo para resolver certas tarefas computacionais. Entretanto, em aplicações práticas, o custo para carregar a informação clássica em um dispositivo quântico pode dominar o custo computacional assimptótico do algoritmo. O carregamento de dados clássicos em dispositivos quânticos é chamado de preparação de estados quânticos. Algoritmos conhecidos para preparar estados quânticos arbitrários requerem circuitos com profundidade O(N) para carregar um vetor N-dimensional. Este trabalho tem como objetivo principal reduzir a complexidade dos circuitos para a inicialização de estados quânticos. Quatro algoritmos são apresentados, explorando estratégias que permutam complexidade temporal por espacial ou transferem complexidade computacional para um computador clássico. Partindo de métodos algébricos existentes para a decomposição de estados, é demonstrada uma interpretação equivalente fundamentada em árvore binária. Dois dos algoritmos apresentados são baseados em caminhadas ao longo dessa árvore. Eles permitem ganho exponencial na profundidade do circuito O(log2(N)) usando O(N) qubits. Também é proposto utilizar o entrelaçamento quântico como um recurso computacional. Os dois algoritmos restantes otimizam a construção do circuito explorando o grau de entrelaçamento entre bipartições do estado geradas através da decomposição de Schmidt. Estados exatos podem ser inicializados com complexidade temporal O(2^{m+n_B}), onde m é a medida de Schmidt e n_B é o número de qubits da partição de referência. Maiores reduções de complexidade podem ser alcançadas aplicando recursivamente o mesmo algoritmo às bipartições. A manipulação do grau de entrelaçamento habilita a busca por estados aproximados. Há duas estratégias para a aproximação, complexidade fixa com erro de aproximação variável e complexidade variável com erro limitado. Experimentos mostram que a aproximação produz melhor resultado em dispositivos quânticos ruidosos do que a inicialização do estado exato. A perspectiva é que o resultado desta tese auxilie os profissionais da computação quântica durante a era NISQ.

34
  • WALTER FELIPE DOS SANTOS
  • Planejando Sistematicamente a Comunicação em Projetos de 
    Arquitetura Corporativa no Setor Público: A proposta do Método CommitEA.

  • Leader : SIMONE CRISTIANE DOS SANTOS LIMA
  • MEMBRES DE LA BANQUE :
  • ALIXANDRE THIAGO FERREIRA DE SANTANA
  • CARINA FROTA ALVES
  • FLAVIA MARIA SANTORO
  • HERMANO PERRELLI DE MOURA
  • JOSE GILSON DE ALMEIDA TEIXEIRA FILHO
  • WYLLIAMS BARBOSA SANTOS
  • Data: 2 sept. 2022


  • Afficher le Résumé
  • Em projetos de Arquitetura Corporativa (AC) nas Organizações do setor Público (OP), a necessidade de comunicar as informações oportunamente (no tempo certo) entre as principais pessoas interessadas no projeto (stakeholders) em vários níveis organizacionais, assim como a correta compreensão do conteúdo dessa comunicação, é um fator de extrema importância para o seu planejamento. Nessas organizações altamente hierarquizadas, tendo em vista os riscos associados ao tempo, canais e meios utilizados para divulgação dessas informações, a comunicação nesses projetos torna-se ainda mais complexa. Nesse contexto, é preciso considerar a necessidade de uma visão holística sobre o planejamento e gerenciamento de projetos de AC, fazendo da comunicação à chave para o sucesso (GROUP et al., 2018).
    A comunicação é considerada um dos principais desafios para os projetos de Arquitetura Corporativa (AC). O esforço despendido para conciliar as descontinuidades semânticas e superar as complexidades da comunicação para os arquitetos corporativos e outros stakeholders costuma ser alto, fazendo do não entendimento das informações um causador de conflitos e desmotivações. Esses desafios são visíveis, inicialmente, quando é necessário traduzir os objetivos da arquitetura aos envolvidos nos processos em todos os níveis da arquitetura, em geral, associados a estratégia, processos de negócios, sistemas de informação e infraestrutura tecnológica. O esforço para comunicar com clareza, consistência e abrangência as vantagens e os benefícios da AC, bem como os riscos associados, aumenta o desafio para os envolvidos. No âmbito das Organizações do setor Público (OP), ainda existem os agravantes das constantes mudanças nas lideranças, processos, regras e direcionamentos, dificultando ainda mais a implementação e desenvolvimento da arquitetura.
    Buscando a superação desses desafios, a presente pesquisa propõe um método orientado e prescritivo, baseado na captura do conhecimento sobre como planejar a comunicação para os stakeholders dos projetos de arquitetura corporativa nas organizações do setor público. A proposta se traduz em uma referência, a qual orienta o planejamento e execução de tarefas em situações específicas em projetos de AC, voltados para melhoria do processo de comunicação. Assim, por meio deste, é possível definir um fluxo de trabalho, descritos em uma linguagem de modelagem padrão, apoiada por artefatos, dando suporte ao processo de planejamento da comunicação em projetos de AC. Para concepção e construção da proposta, foi adaptado o método Design Science Research (DSR) (WIERINGA, 2014), executado em 3 (três) etapas, cada uma delas contemplando as atividades referentes ao entendimento e análise do problema em questão, design das propostas de
    solução e consequente avaliação dos artefatos desenvolvidos. Como principais resultados obtidos, destacam-se: um Mapeamento Sistemático (MS) sobre o uso de AC no setor público, visando identificar os benefícios, desafios, principais autores, frameworks, origem dos estudos, conceitos e definições; Pesquisa de opinião, para identificar nas organizações públicas do Brasil o perfil dos profissionais que atuam nos projetos da AC, quais são os frameworks, ferramentas, benefícios e desafios encontrados nestes projetos; Proposta de um método para o planejamento da comunicação em projetos de AC; Avaliações de utilidade e usabilidade do método com 45 participantes por meio de um instrumento baseado em modelos reconhecidos, obtendo uma alta aceitação das características avaliadas, um resultado positivo para a pesquisa, justificando sua execução e continuidade por meio dos trabalhos futuros sugeridos.

35
  • GIBSON BELARMINO NUNES BARBOSA
  • ARQUITETURA COGNITIVA COM MECANISMO DE ATENÇÃO PARA PREVENÇÃO DE RISCOS NA INDÚSTRIA.

  • Leader : DJAMEL FAWZI HADJ SADOK
  • MEMBRES DE LA BANQUE :
  • ADRIEN JOAN SYLVAIN DURAND PETITEVILLE
  • ALUIZIO FAUSTO RIBEIRO ARAUJO
  • ANDRE LUIS CAVALCANTI MOREIRA
  • GLAUCO ESTACIO GONÇALVES
  • NELSON SOUTO ROSA
  • Data: 6 sept. 2022


  • Afficher le Résumé
  • AAAA

36
  • BRUNNO WAGNER LEMOS DE SOUZA
  • UM MODELO TAXONÔMICO DAS MÁQUINAS SOCIAIS BASEADO NA TEORIA DA CLASSIFICAÇÃO FACETADA

  • Leader : SILVIO ROMERO DE LEMOS MEIRA
  • MEMBRES DE LA BANQUE :
  • HERMANO PERRELLI DE MOURA
  • DORGIVAL PEREIRA DA SILVA NETTO
  • HIGOR RICARDO MONTEIRO SANTOS
  • IVALDIR HONORIO DE FARIAS JUNIOR
  • JÉFERSON KÉNEDY MORAIS VIEIRA
  • Data: 12 sept. 2022


  • Afficher le Résumé
  • Com o crescente interesse em Sistemas de Informação (SI) baseados na Web, 
    começou-se a investigar uma classe específica: as Máquinas Sociais (do 
    inglês, Social Machines, SM). As Máquinas Sociais representam sistemas 
    sociotécnicos que estabelecem ligações através de determinadas restrições 
    para lidar com a complexidade de serviços e operações. Analogamente, com a 
    disseminação da Web como uma plataforma de desenvolvimento de software, 
    juntamente com o aumento da interatividade e conectividade de aplicativos, 
    modificou-se a compreensão da natureza da computação. A incorporação da 
    computação na sociedade através de dispositivos pessoais tem conduzido à 
    discussão de Computação Social e Máquinas Sociais. Além disso, representam 
    o desenvolvimento tecnológico que concatena o comportamento humano (e, 
    portanto, social) com sistemas computacionais, guiando a existência ainda 
    maior de relacionamentos entre pessoas e máquinas para solução de 
    problemas. Ainda que estes problemas sejam no âmbito governamental, na 
    saúde, na segurança ou no combate a violência, na educação, dentre outras 
    áreas relevantes, fazendo com que as gerações de software elevassem o nível 
    de relacionamento e conectividade que antes era desconhecido. Contudo, as 
    tendências e desafios de pesquisas relacionadas às Máquinas Sociais iniciam 
    desde a dificuldade nas definições da área, por não serem padronizadas, 
    dificultando a compreensão e consolidação dos conceitos relacionados, 
    minando a criação de novas pesquisas nesta temática. O objetivo desta 
    pesquisa é, portanto, definir um esquema taxonômico sobre as máquinas 
    sociais, utilizando uma abordagem facetada. Para tanto, utilizou-se de uma 
    metodologia baseada em: revisão exploratória da literatura, mapeamento 
    sistemático, métodos de prospecção e um método taxonômico. A pesquisa 
    aborda a classificação dos conceitos, das tecnologias utilizadas, do 
    comportamento (como funciona/como é?), das funcionalidades (a 
    finalidade/para que?), da evolução (análise comportamental) e das 
    perspectivas (tendências) das Máquinas Sociais. A principal contribuição 
    deste estudo é a elaboração de um instrumento para representar o 
    conhecimento na área das Máquinas Sociais permitindo a tradução desse 
    domínio através de um modelo de classificação. Foram observados nos 
    trabalhos levantados que há a falta de uma taxonomia (classificação) 
    referentes às pesquisas relacionadas às Máquinas Sociais. Inclusive, além 
    de ser importante a construção de uma taxonomia, em que trabalhos mencionam 
    poder existir, também é interessante caracterizar as Máquinas Sociais, 
    podendo estes ser tratados como um modelo taxonômico ou modelo 
    classificatório. Isso inclui um estudo comportamental e evolutivo das 
    Máquinas Sociais e suas perspectivas, focando a atenção em problemas e 
    soluções de maneira mais pontuais. Ao mesmo tempo que o resultado deve 
    permitir um aprofundamento na compreensão da natureza dos fenômenos 
    relacionados ao tema, dando existência à construção de uma Teoria da 
    Classificação Facetada (TCF) das Máquinas Sociais. O resultado alcançado é 
    um primeiro passo em direção à consolidação e formalização da temática, o 
    que abrirá espaços para a construção de novos modelos (por exemplo, 
    representações semanticamente anotadas) que possam servir de suporte 
    inclusive à tomada de decisões em um ambiente cada vez mais socialmente 
    conectado.

37
  • JAIR GALVÃO DE ARAUJO
  • Sequências de Baixa Discrepância na Aceleração da Avaliação da 
    Qualidade de Imagem Digital

  • Leader : TSANG ING REN
  • MEMBRES DE LA BANQUE :
  • RICARDO DA SILVA TORRES
  • CARLOS ALEXANDRE BARROS DE MELLO
  • CLEBER ZANCHETTIN
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • Data: 12 sept. 2022


  • Afficher le Résumé
  • O aumento no uso de aplicações que manipulam imagem e vídeo digital é 
    crescente. Neste cenário, a Avaliação da Qualidade de Imagem (IQA) 
    desempenha um papel importante na qualidade e experiência dos usuários no 
    processamento de imagens digitais. A Avaliação da Qualidade de Imagem pode 
    ser dividida em avaliação subjetiva e objetiva. A IQA subjetiva obtém o 
    julgamento através da apresentação das imagens ao Sistema Visual Humano 
    (HSV), já a IQA objetiva busca desenvolver algoritmos para reproduzir a 
    avaliação subjetiva do HSV. No entanto, os algoritmos IQA objetivos podem 
    exigir grande número de operações matemáticas  para realizar a avaliação. 
    Além disso, os algoritmos IQA baseados em Redes Neurais Convolucionais 
    exigem longo tempo de treinamento de aprendizagem. Baseado no alto custo 
    computacional e tempo gasto no processo da avaliação da qualidade, é 
    proposta a estratégia de amostragem com sequências de baixa discrepância no 
    processo de IQA. Primeiramente, a estratégia utiliza  sequências Van der 
    Corput-Halton, Sobol e  amostragem Uniforme para coletar pixels ao redor da 
    imagem e formar uma representação reduzida. As imagens amostradas foram 
    comparadas com as transformações \emph{Resize} e \emph{Cropped} com mesma 
    quantidade de pixel amostrado. Em seguida, essas imagens foram avaliadas 
    por métodos de IQA com e sem a presença da imagem de referência. Os 
    resultados dos experimentos revelam que a estratégia de amostragem  foi 
    suficiente para obter as mesmas correlações SROCC e LCC de qualidade ao 
    utilizar aproximadamente $8\%$ dos pixels das imagens da base Live e $7\%$ 
    da TID2013 quando comparado com as correlações obtidas com as imagens 
    integrais pelos métodos PSNR e SSIM. Outrossim, o método Learned Perceptual 
    Image Patch Similarity (LPIPS), treinado a partir de imagens amostradas com 
    sequência VDH, obtém $68,30\%$ de taxa de acerto sobre a base 
    Berkeley-Adobe Perceptual Patch Similarity (BAPPS). A economia de tempo no 
    treinamento do método \emph{Deep Image Quality Measure for FR} (DIQaM-FR) 
    foi de $220\%$ e $136\%$ para as bases Live e TID2013, respectivamente.

38
  • ROSIBERTO DOS SANTOS GONÇALVES
  • REFlex WATER – UM FRAMEWORK DE IOT PARA GERENCIAMENTO INTELIGENTE DE SISTEMAS DE ABASTECIMENTO DE ÁGUA

  • Leader : RICARDO MASSA FERREIRA LIMA
  • MEMBRES DE LA BANQUE :
  • FÁBIO HENRIQUE CABRINI
  • FERNANDO ANTONIO AIRES LINS
  • MARCIO LOPES CORNELIO
  • SERGIO CASTELO BRANCO SOARES
  • THAIS VASCONCELOS BATISTA
  • Data: 14 sept. 2022


  • Afficher le Résumé
  • O crescimento da população mundial e as mudanças climáticas aumentam a 
    demanda por água de alta qualidade. Este fato força a humanidade a criar 
    novas estratégias de gestão da água. As cidades inteligentes aplicaram com 
    sucesso a tecnologia da Internet das Coisas (Intert of Things (IoT)) em 
    muitos setores. Além disso, o processamento de eventos complexos (Complex 
    Event Processing (CEP)) pode analisar e processar grandes conjuntos de 
    dados produzidos por sensores IoT em tempo real. Os processos de negócios 
    tradicionais são muito rígidos para expressar o comportamento dinâmico dos 
    sistemas de abastecimento de água. Cada caminho de execução deve ser 
    especificado explicitamente. Por outro lado, os processos de negócio 
    declarativos permitem caminhos de execução que não são proibidos pelas 
    regras, proporcionando mais flexibilidade aos gestores de abastecimento de 
    água. Esta tese reúne IoT, CEP e processos declarativos para criar uma 
    arquitetura poderosa, eficiente e flexível (REFlex Water) para gerenciar 
    sistemas de abastecimento de água. Para o conhecimento do autor, REFlex 
    Water é a primeira solução que combina estas tecnologias no contexto de 
    sistemas de abastecimento de água. O trabalho descreve a arquitetura REFlex 
    Water e demonstra sua aplicação através de uma Prova de Conceito (PoC). A 
    experimentação é realizada através da ferramenta computacional de simulação 
    hidráulica de sistemas de abastecimento de água, a EPANET. Largamente 
    aplicada no campo do planejamento, projeto e do diagnóstico de 
    funcionamento de sistemas de abastecimento, é um complemento na tomada de 
    decisão do projetista e gestores. O EPANET permite o desenvolvimento de 
    modelos de simulação confiáveis. A utilidade do modelo de simulação EPANET 
    é indiscutível, seja para a exploração e diagnóstico desses sistemas, 
    melhoria no planejamento de expansões hidráulicas e/ou outras intervenções 
    nas redes de abastecimento. EPANET na sua forma original não dispõe de 
    integração com infraestrutura de IoT. Neste trabalho, foi desenvolvida a 
    extensão EPANET-RWX para EPANET que permite integrá-lo ao REFlex Water,   e 
    possibilita a validação em laboratório da arquitetura proposta antes de 
    implantar no sistema real. A validação do framework se deu junto aos 
    especialistas do setor de água, foram realizadas por meio de entrevistas 
    individuais. Na discussão dos resultados, demonstra-se que o REFlex Water 
    se mostra promissor para ser aplicado a sistemas de abastecimento de água, 
    segundo análise dos especialistas que apresentaram percepção positiva na 
    sua utilização, corroborando, assim, com o estado da arte desses sistemas.

39
  • OZONIAS DE OLIVEIRA BRITO JUNIOR
  • TAXONOMIA PARA AVALIAÇÃO PLURIDIMENSIONAL DE RECURSOS DIGITAIS DE APRENDIZAGEM

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • ALIXANDRE THIAGO FERREIRA DE SANTANA
  • DORGIVAL PEREIRA DA SILVA NETTO
  • PASQUELINE DANTAS SCAICO
  • TACIANA PONTUAL DA ROCHA FALCAO
  • Data: 16 sept. 2022


  • Afficher le Résumé
  • Recursos Digitais de Aprendizagem (RDAs) são projetados para implantar 
    pedagogias baseadas no uso do computador e contribuir para o processo de 
    ensino e aprendizagem. Diante da importância de garantir a qualidade desses 
    recursos, a proposição de abordagens para sua avaliação é abundante na 
    literatura nacional e internacional. A diversidade de abordagens para 
    avaliação de RDAs e sua caracterização heterogênea dificultam a verificação 
    da qualidade destes recursos. A inexistência de um consenso sobre os 
    critérios a serem adotados, assim como da relação explícita entre estes e 
    os arcabouços de qualidade, são barreiras para o processo de avaliação em 
    si. Diante disso, o presente trabalho tem como objetivo favorecer a 
    avaliação de Recursos Digitais de Aprendizagem a partir de uma 
    metaorganização de dimensões, categorias e critérios em uma taxonomia que 
    contempla a qualidade de software, de uso, pedagógica e híbrida. O processo 
    de desenvolvimento da Taxonomia para Avaliação de Recursos Digitais de 
    Aprendizagem (TaRDa) pautou-se no estudo e caracterização de 26 abordagens 
    para avaliação de RDAs, selecionadas a partir de uma Revisão Exploratória e 
    Sistemática de Literatura. Foram extraídos e analisados um total de 724 
    critérios a partir do corpus de 172 publicações nacionais e internacionais 
    contempladas no estudo. TaRDa foi concebida a partir de um processo 
    iterativo e incremental, com validações cíclicas conduzidas com 
    especialistas das áreas de Qualidade de Software, de Usabilidade e 
    Educadores. A verificação da adequação de TaRDa considerou a opinião de um 
    total de 102 especialistas com a aplicação de surveys on-line e grupos 
    focais. Como resultado, TaRDa consiste em um instrumento para facilitar a 
    avaliação de RDAs, sendo composta por 49 critérios e suas respectivas 
    descrições, alocados em 17 categorias em consonância com 4 dimensões de 
    qualidade (de uso, de software, pedagógica e híbrida).

40
  • ANTÔNIO CORREIA DE SÁ BARRETO NETO
  • Otimização do consumos energético de smartphones baseado em modelos de Perfil de uso

  • Leader : PAULO ROMERO MARTINS MACIEL
  • MEMBRES DE LA BANQUE :
  • EDUARDO ANTONIO GUIMARAES TAVARES
  • GERMANO CRISPIM VASCONCELOS
  • JOSE NEUMAN DE SOUZA
  • NELSON SOUTO ROSA
  • PATRICIA TAKAKO ENDO
  • Data: 16 sept. 2022


  • Afficher le Résumé
  • O uso crescente de smartphones nas tarefas diárias tem motivado muitos estudos a respeito da caracterização do consumo energético desses dispositivos objetivando aumentar a efetividade e aumentar a disponibilidade deles. Nesse cenário é essencial estudar mecanismos capazes de caracterizar o perfil de usos dos usuários de tal modo que os smartphones possam ser adaptados para promover a melhor experiência de uso com o menor consumo energético.
    O principal objetivo desse trabalho é construir um modelo de consumo energético para os smartphones baseados no perfil de uso dos usuários objetivando prover o mais acurado modelo que possa ser usado pelos desenvolvedores e pelos mecanismos de otimização automáticos que irão ser desenvolvidos baseados neles.
    Para desenvolver os modelos de consumo energético estabelecemos um método para identificar os componentes com maior influência no consumo energético dos smartphones e identificar os estados de cada dispositivo influente durante o uso do usuário. Além disso, estabelecemos um método para provar a robustez dos modelos construídos usando equipamentos imprecisos para fornecer dados para treinar os modelos e uma estratégia para mensurar a acurácia do modelo construído.
    Após realizar o treinamento e teste dos modelos energéticos baseados no perfil de uso dos usuários em cada estratégia escolhida e realizar o teste de Nemenyi, demonstramos que é possível obter um Erro Médio Absoluto de 158,57 mW quando a média potência instantânea é de 1970mW.
    Alguns estudos mostram que a principal carga de trabalho dos smartphones é o usuário. Baseado nesse fato desenvolvemos um modelo de consumo energético que considera o perfil de uso do usuário. Com os modelos desenvolvidos, podemos adotar estratégias para minimizar o uso de componentes que possuem um alto consumo energético.

41
  • FILIPE MARQUES CHAVES DE ARRUDA
  • Pragmatic and Semi-Formal Black-Box Test Automation

  • Leader : AUGUSTO CEZAR ALVES SAMPAIO
  • MEMBRES DE LA BANQUE :
  • JULIANO MANABU IYODA
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • LEOPOLDO MOTTA TEIXEIRA
  • MARCIO EDUARDO DELAMARO
  • TIAGO LIMA MASSONI
  • Data: 26 sept. 2022


  • Afficher le Résumé
  • We show here a pragmatic and semi-formal testing strategy that receives as input any testing artifacts (requirements, use cases or test cases) in natural language, and outputs executable test scripts. This strategy relies on adaptation of the language into a controlled one (CNL) to provide a unified and accessible language across the testing process. The domain models built using the CNL support different abstraction levels by means of steps composition. The language and semi-formal semantics were envisioned to address open issues in the traditional testing process, such as traceability, reuse, dependency resolution and maintenance of testing artifacts, mainly automated scripts for black-box tests. We also show opportunities for pluggable white-box tools to aid the models maintenance. There is also a round-trip aspect, fulfilled by either generating concrete artifacts from abstract ones (e.g. from use cases to test scripts) or the other way around by reverse engineering. We discuss the process, language semantics, implementation, and user feedback regarding the industrial applicability and usability of our strategy. The practical context of our work is mobile device testing, involving a partnership with Motorola Mobility, a Lenovo company.

42
  • JUAN ISIDRO GONZÁLEZ HIDALGO
  • Ajuste Dinâmico de Parâmetros: Enfoques, Estratégias e Experimentações Aplicadas na Aprendizagem em Fluxos de Dados com Mudanças de Conceitos

  • Leader : ROBERTO SOUTO MAIOR DE BARROS
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • FRANCISCO MADEIRO BERNARDINO JUNIOR
  • GERMANO CRISPIM VASCONCELOS
  • JOÃO ROBERTO BERTINI JUNIOR
  • PAULO MAURICIO GONÇALVES JUNIOR
  • Data: 28 sept. 2022


  • Afficher le Résumé
  • O processo de trabalho com fluxos de dados exige novas demandas e tarefas 
    desafiadoras na área de mineração de dados e aprendizagem de máquina. Esse 
    fluxo pode ser categorizado como um sistema que gera muitos dados ao longo 
    do tempo.
    Dessa forma, quando a distribuição de probabilidade dentro desse fluxo 
    varia, estamos com um problema comumente conhecido como mudança de conceito 
    (Concept Drift).
    O processo de implementação de novos métodos para lidar com fluxos de dados 
    contendo mudanças de conceito requer algoritmos que sejam capazes de se 
    adaptar a diferentes situações para, assim, melhorar sua performance.
    Nesse sentido, o ajuste dinâmico de parâmetros é um contexto pouco 
    aprofundado nas implementações e experimentações das pesquisas da área, 
    requerendo uma especial atenção, sobretudo para que estes métodos consigam 
    se adaptar melhor aos diferentes ambientes onde são aplicados.
    Nesta pesquisa são propostos vários enfoques e estratégias para ajustar 
    parâmetros de forma dinâmica em vários algoritmos de classificação 
    existentes. Desse modo, primeiramente são apresentadas várias versões do 
    Paired k-NN Learners with Dynamically Adjusted Number of Neighbors (PLKNN, 
    PLKNN2, PLKNN3 e PLKNN4), um novo método de classificação em par que 
    utiliza diferentes procedimentos para ajustar de forma dinâmica e 
    incremental o número de vizinhos k. Todas as versões são aplicados ao 
    processo de aprendizagem online em fluxo de dados com mudanças de conceitos.
    A outra proposta desta tese é o Parameter Estimation Procedure (PEP), um 
    método genérico para o ajuste dinâmico de parâmetros que é aplicado ao 
    parâmetro de diversidade 𝜆 (lambda), comum a vários comitês de 
    classificadores utilizados na área. Com essa finalidade, o método de 
    estimação proposto (PEP) foi utilizado para criar versões alternativas de 
    três comitês já existentes: Boosting-like Online Learning Ensemble with 
    Parameter Estimation (BOLE-PE), Online AdaBoost-based M1 with Parameter 
    Estimation (OABM1-PE) e Oza and Russell's Online Bagging with Parameter 
    Estimation (OzaBag-PE).
    Para validá-los, foram realizados experimentos com conjuntos de dados 
    artificiais e reais e os resultados foram avaliados usando a métrica de 
    acurácia e o teste de Friedman com o pós-teste Nemenyi.
    Os resultados relacionados com PL-kNN e suas versões mostram que estas 
    contribuições melhoraram o desempenho do K-Nearest Neighbors (k-NN) com 
    valores fixos de $k$ na maior parte dos cenários testados.
    Já os resultados das versões BOLE-PE, OABM1-PE e OzaBag-PE evidenciaram que 
    a estimação dinâmica do 𝜆 é capaz de produzir bons resultados na maioria 
    dos ambientes experimentados.

43
  • LUCAS FERNANDO DA SILVA CAMBUIM
  • Uma abordagem para proteção de múltiplos pedestres em tempo real baseada em previsão de colisão aplicada a sistemas de assistência ao motorista

     

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • CESAR ALBENES ZEFERINO
  • ABEL GUILHERMINO DA SILVA FILHO
  • CARLOS ALEXANDRE BARROS DE MELLO
  • FILIPE ROLIM CORDEIRO
  • STEFAN MICHAEL BLAWID
  • Data: 31 oct. 2022


  • Afficher le Résumé
  • Pedestres são sem dúvida os elementos mais vulneráveis no trânsito. Muitos pedestres morrem como vítimas de acidentes de trânsito, onde na maioria das vezes o motorista não foi capaz de prever uma situação de risco. Abordagens para proteção de pedestres baseados em câmera tem se mostrado bastante promissoras uma vez que imagens fornecem grande quantidade de informações do ambiente em forma de pixels. Tais informações permitem extrair dados espaciais e temporais do pedestre para compreensão de sua dinâmica e assim é possível prever com antecedência situações de colisão. Dado que os automóveis estão se tornando cada vez mais rápidos e dado a grande quantidade de pessoas em ambientes urbanos, sistemas de proteção ao pedestre precisam lidar com situações em que envolvam mais de um pedestre na cena e que sejam capazes de processar várias previsões de colisão em tempo real. Desta forma, essa tese de doutorado propõem um sistema de tempo real para previsão de colisão com suporte à múltiplos pedestres. Os componentes envolvidos neste sistema são detecção e rastreamento de pedestres, visão estéreo, estimação de localização, previsão de trajetória e colisão. Tal sistema lidará com situações existentes em cenários de múltiplos pedestres tais como oclusão e pedestres similares e utilizará plataformas de FPGA e GPU para aceleração dos componentes que possuem um custo computacional elevado. Resultados preliminares foram obtidos utilizando o bando de dados real público e um banco de dados sintético criado a partir do simulador CARLA. O banco de dados real permitiu obter resultados de qualidade dos componentes de detecção, rastreamento e previsão de trajetória e o banco de dados sintético permitiu visualizar a capacidade do sistema completo de realizar a previsão de colisão. Os resultados preliminares mostram que já é possível alcançar altas taxas de processamento dos componentes de detecção e visão estéreo tendo uma taxa de, respectivamente, 59 e 173 FPS. Tais componentes possuem os maiores custos computacionais de todo o sistema. Resultados de qualidade do componente de previsão de trajetória mostram a capacidade do filtro de Kalman estendido de capturar com mais antecedência a mudança de dinâmica do pedestre. Os resultados de qualidade do rastreamento mostraram que melhorias precisam ser feitas para reduzir o número de trocas de rótulos e dar suporte a múltiplos pedestres e resultados de qualidade do componente de detecção mostraram que ainda é necessário reduzir a quantidade de falsos positivos e falsos negativos. Além disso, uma abordagem para realização da tomada de decisão será implementada para validar o sistema previsão de colisão proposto. Dessa forma, com essas melhorias e com novos cenários reais de avaliação de colisão será possível garantir a eficiência do sistema proposto.

44
  • JOSÉ THIAGO HOLANDA DE ALCÂNTARA CABRAL
  • Um Framework para Seleção Dinâmica de Múltiplos Modelos de Regressão Heterogêneos: aplicações em estimativa de esforço de software

  • Leader : ADRIANO LORENA INACIO DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • FABIO QUEDA BUENO DA SILVA
  • GEORGE GOMES CABRAL
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • ROBERTA ANDRADE DE ARAÚJO FAGUNDES
  • TELMO DE MENEZES E SILVA FILHO
  • Data: 17 nov. 2022


  • Afficher le Résumé
  • A utilização de algoritmos de Aprendizagem de Máquina (AM) tem sido cada 
    vez mais comum em diversas áreas do conhecimento. Na Engenharia de Software 
    (ES), a estimativa de esforço é uma tarefa difícil e normalmente requer 
    bastante conhecimento técnico dos gestores. Vários estudos da literatura 
    têm abordado o processo de Estimativa de Esforço de Software (EES) de 
    diferentes maneiras. Os métodos usados vão desde os tradicionais, que não 
    utilizam aprendizagem, até os sistemas de múltiplos modelos de AM. As 
    estratégias usadas nessas combinações têm sido um importante tópico de 
    pesquisa em AM, visto que o uso de múltiplos modelos tem melhorado a 
    acurácia das previsões em relação aos modelos usados individualmente. Este 
    trabalho propõe um framework para seleção dinâmica de múltiplos modelos de 
    regressão heterogêneos. Inicialmente, os dados são separados em conjuntos 
    de treinamento, validação e teste. Um amplo conjunto de algoritmos de 
    regressão é treinado e validado. De acordo com os resultados, três 
    diferentes modelos são selecionados a partir do desempenho individual de 
    cada um e da diversidade existente entre eles (Conjunto Básico). Em 
    seguida, diferentes classificadores são avaliados, consequentemente, um 
    conjunto de modelos de classificação é definido como meio para selecionar 
    um grupo de regressores para cada instância avaliada. Desta forma, um grupo 
    de classificadores também é selecionado para o conjunto de dados. Ao fim da 
    fase de treinamento e validação, na fase de teste, os melhores 
    classificadores avaliados são usados para selecionar dinamicamente modelos 
    de regressão a partir do Conjunto Básico de regressores. A previsão final é 
    dada pela combinação das previsões dos modelos de regressão selecionados 
    pelos classificadores. Análises experimentais considerando dois 
    repositórios relevantes em problemas de EES são apresentadas. Além desses 
    repositórios, seis bases de dados educacionais também foram investigadas 
    com o propósito de analisar o comportamento do método proposto com dados de 
    um contexto diferente, e com metas-características distintas das bases de 
    EES. Os experimentos utilizaram cinco métricas para análise dos resultados, 
    sendo a média do erro absoluto usada para fins de testes estatísticos. Os 
    resultados demonstraram que os métodos gerados a partir do framework 
    proposto superaram, na maioria das vezes, os modelos individuais, assim 
    como diferentes estratégias de combinações desses modelos. Tais estratégias 
    utilizaram combinações com seleção estática e dinâmica.

45
  • FELIPE ZIMMERLE DA NÓBREGA COSTA
  • Distributed Repository for Software Packages Using Blockchain

  • Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • MEMBRES DE LA BANQUE :
  • CARLOS ALBERTO KAMIENSKI
  • CARLOS ANDRE GUIMARAES FERRAZ
  • JOÃO JOSÉ COSTA GONDIM
  • KIEV SANTOS DA GAMA
  • RODRIGO ELIA ASSAD
  • Data: 9 déc. 2022


  • Afficher le Résumé
  • Repositórios de pacotes se posicionam como intermediários entre publicadores e consumidores de pacotes. É também responsabilidade do repositório atestar, dado suas próprias regras, os pacotes fazendo com que o repositório articule como um concentrador. Consequentemente, o repositório detém os dados que pertencem outrora aos usuários. Para endereçar este problema, sugerimos a utilização de uma Blockchain com Consenso Distribuído para garantir a publicação de pacotes dado a um conjunto de regras pré-definidas, mantendo assim os dados de posse da comunidade. A Blockchain proposta neste trabalho usa redes peer-to-peer para comunicação e download de pacotes, facilitando a contribuição de doadores de recursos desconhecidos. Somado a Blockchain, também é apresentado neste trabalho uma busca em cima da rede peer-to-peer, usando computação de nós desconhecidos, cujo resultado é garantido de ser confiável. Finalmente apresentamos uma Blockchain funcional que apresenta de maneira assertiva os pacotes do catálogo PyPi.

46
  • MILTON VINICIUS MORAIS DE LIMA
  • Beholder: Um Sistema de Detecção e Prevenção Contra Intrusão em 
    Ambientes da Internet das Coisas Baseado em Processamento de Eventos 
    Complexos

  • Leader : RICARDO MASSA FERREIRA LIMA
  • MEMBRES DE LA BANQUE :
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • EDUARDO LUZEIRO FEITOSA
  • MICHEL SALES BONFIM
  • NELSON SOUTO ROSA
  • OBIONOR DE OLIVEIRA NÓBREGA
  • Data: 13 déc. 2022


  • Afficher le Résumé
  • A Internet das Coisas (Internet of Things - IoT) caracteriza-se por um 
    conjunto de objetos inteligentes que se comunicam entre sí. Na IoT, os 
    protocolos da camada de aplicação formam a base das comunicações entre 
    aplicativos e serviços. A segurança nos dispositivos e comunicações é 
    cosiderado um aspecto de design opcional nos protocolos da camada de 
    aplicação, levando os desenvolvedores a negligenciar configurações de 
    segurança disponíveis, ou podem mesmo não ter mecanismos de segurança em 
    sua configuração padrão. Os Sistemas de Detecção e Prevenção de Intrusões 
    (IDPS) podem melhorar a segurança da IoT, identificando possíveis problemas 
    de segurança, alertando administradores ou agindo automaticamente para 
    proteger o ambiente contra ameaças. Entretanto, as técnicas de IDPS não são 
    projetadas para dispositivos com recursos limitados e precisam ser 
    adaptadas para esse tipo de dispositivo. Esta tese apresenta o Beholder, um 
    Sistema de Detecção e Prevenção de Intrusão (IDPS) para prevenir ataques 
    aos protocolos da camada de aplicação da IoT. O Beholder inova ao ser o 
    primeiro IDPS que explora a tecnologia Complex Event Processing (CEP) para 
    detectar ataques da camada de aplicação da IoT. Este trabalho apresenta um 
    cenário real para o processo de avaliação, realizando ataques em uma casa 
    inteligente. Inicialmente, avaliamos a qualidade do nosso IDPS, 
    comparando-o com o conhecido Snort IDS. Os resultados demonstraram que 
    Snort atingiu três 9s de precisão, enquanto Beholder atingiu uma precisão 
    de quatro 9s. Adicionalmente, o experimento para avaliar a precisão de 
    Beholder para os protocolos MQTT, CoAP e AMQP revelou que Beholder obteve 
    100\% de precisão para High QoS Flood (MQTT), Error Flood (CoAP) e três 9s 
    para o AMQP.

47
  • ANDERSON PINHEIRO CAVALCANTI
  • Análise Automática de Feedback em Ambientes Virtuais de Aprendizagem

  • Leader : FREDERICO LUIZ GONCALVES DE FREITAS
  • MEMBRES DE LA BANQUE :
  • EVANDRO DE BARROS COSTA
  • ISABEL DILLMANN NUNES
  • ELYDA LAISA SOARES XAVIER FREITAS
  • HILÁRIO TOMAZ ALVES DE OLIVEIRA
  • LUCIANO DE ANDRADE BARBOSA
  • Data: 14 déc. 2022


  • Afficher le Résumé
  • O feedback é um componente muito importante no processo de 
    ensino-aprendizagem, pois ajuda o aluno a identificar as lacunas e avaliar 
    o seu progresso no aprendizado. Em cursos a distância o feedback se torna 
    ainda mais importante, pois é um dos recursos mais utilizados na interação 
    entre professor e aluno, já que ambos estão separados fisicamente. No 
    entanto, devido ao crescimento significativo da quantidade de alunos em 
    cursos a distância, é difícil para os instrutores fornecerum feedback de 
    alta qualidade. Nesse contexto, este trabalho tem como objetivo propor uma 
    abordagem para analisar automaticamente os feedbacks fornecidos por 
    professores em cursos online. Para isso, foram utilizados recursos 
    linguísticos para extrair as características dos textos e algoritmos de 
    aprendizagem de máquina para classificação. Foram realizados experimentos 
    com base em duas teorias educacionais de feedback propostas na literatura 
    utilizando diferentes classificadores. Os resultados demostram uma boa 
    acurácia e os modelos gerados podem ser utilizados para ajudar o professor 
    a fornecer um bom feedback ao aluno.

48
  • DANIEL ORLANDO MARTINEZ RIVILLAS
  • TOWARDS A HOMOTOPY DOMAIN THEORY

  • Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • MEMBRES DE LA BANQUE :
  • ALEJANDRA MARTINS DA SILVA
  • ANTÓNIO MÁRIO SILVA MARCOS FLORIDO
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • EDWARD HERMANN HAEUSLER
  • HUGO LUIZ MARIANO
  • Data: 15 déc. 2022


  • Afficher le Résumé
  • AAAA

2021
Thèses
1
  • JOAO VICTOR CAMPOS MORAES
  • Γ-IRT: An Item Response Theory Model for Evaluating Regression  Algorithms

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • TELMO DE MENEZES E SILVA FILHO
  • GISELE LOBO PAPPA
  • Data: 9 mars 2021


  • Afficher le Résumé
  • A Teoria de Resposta ao Item (IRT) é usada para medir as habilidades latentes de humanos

    entrevistados com base em suas respostas a itens com diferentes dificuldades

    níveis. Recentemente, o IRT foi aplicado à avaliação de algoritmos em

    Inteligência Artificial (IA), tratando os algoritmos como respondentes e

    as tarefas de IA como itens. Os modelos mais comuns em IRT lidam apenas com

    respostas dicotômicas (ou seja, uma resposta deve ser correta ou

    incorreta). Portanto, eles não são adequados em contextos de aplicação onde

    as respostas são registradas em escala contínua. Neste artigo, propomos o

    Modelo Γ-IRT, especialmente projetado para lidar com positivo ilimitado

    respostas, que modelamos usando uma distribuição Gamma, parametrizada

    de acordo com a habilidade do respondente e dificuldade e discriminação do item

    parâmetros. A parametrização proposta resulta na característica do item

    curvas com formas mais flexíveis em comparação com a logística tradicional

    curvas adotadas no IRT. Aplicamos o modelo proposto para avaliar a regressão

    habilidades do modelo, em que as respostas são os erros absolutos nas instâncias de teste.

    Este novo aplicativo representa uma alternativa para avaliar a regressão

    desempenho e para identificar regiões em um conjunto de dados de regressão que

    apresentam diferentes níveis de dificuldade e discriminação.

2
  • JOSÉ CORREIA LINS NETO
  • Audita-NFSE: Sistema Auxiliar de Auditoria em Notas Fiscais de Serviços Eletrônicas 

  • Leader : FLAVIA DE ALMEIDA BARROS
  • MEMBRES DE LA BANQUE :
  • FLAVIA DE ALMEIDA BARROS
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • Data: 22 avr. 2021


  • Afficher le Résumé
  • Os governos estabelecem leis que regulamentam a prestação de serviços definindo elementos como alíquotas e tipos de serviços, importantes para cobrança do imposto. Periodicamente também são estabelecidas leis de 
    isenções, incentivos ou tratamentos fiscais especiais de impostos em determinados serviços. Apesar das regulamentações existentes, os contribuintes cometem fraudes ao emitir Notas Fiscais em desacordo com a 
    legislação, com o objetivo de pagar menos impostos. Essas fraudes também são praticadas na emissão de Notas Fiscais de Serviço Eletrônicas(NFS-e). 
    Apesar de as NFS-e estarem disponíveis em formato eletrônico, a análise dessas notas é um processo demorado, pois, em municípios que não possuem sistemas auxiliares de auditoria, é realizada de forma manual pelos auditores. Além disso, sabe-se que no Brasil, a quantidade de Auditores fiscais vem diminuindo ao longo dos anos e, por outro lado, temos um crescente número de empresas e de NFS-e emitidas em todo território 
    nacional.
    Nesse cenário, este projeto de mestrado teve como objetivo principal a criação de um sistema para auxiliar os Auditores Fiscais Tributários durante o processo de análise e identificação de possíveis fraudes nas 
    NFS-e emitidas pelos contribuintes. O sistema implementado, nomeado de Audita-NFSe, extrai das NFS-e os dados relevantes para auditoria, apresentando essas informações de forma organizada através da interface do 
    usuário. Além disso, o sistema também informa se encontrou indícios de fraudes nas NFS-e sendo analisadas, a fim de facilitar o trabalho dos auditores fiscais. Assim, o sistema executa duas tarefas distintas e complementares: a Extração de Informação e a Classificação dos documentos.
    Este trabalho foi desenvolvido no âmbito da Prefeitura do município do Ipojuca (PE) para auxiliar auditores em suas ações de fiscalização do Imposto sobre Serviços (ISS). As regras de extração e de classificação foram criadas com base nas leis que regulamentam o ISS, bem como a partir do conhecimento de auditores fiscais. A construção das regras baseou-se também em um corpus com 3.080 registros de NFS-e de empresas do setor de Construção Civil do município do Ipojuca, emitidas entre os exercícios de 2010 a 2013. O desempenho do sistema foi avaliado utilizando-se um novo corpus com 300 registros de NFS-e dos exercícios de 2014 e 2015. A versão atual do sistema obteve uma média de 90% de Precisão, 86% de Cobertura, 88% de F-measure na Extração de Informação, e 100% de Acurácia na classificação dos dados no corpus de teste. Além dessa avaliação quantitativa, também foram realizadas entrevistas com os auditores, a fim de avaliarmos a sua 
    satisfação com o sistema. Os resultados obtidos demostram que a iniciativa é válida, e que contribui para o aumento da acurácia e para a redução do tempo gasto nas análises e detecção de possíveis fraudes em NFS-e.

3
  • ESAU BERMUDEZ SANCHEZ
  • UM ESTUDO DE CONSUMO DE ENERGIA DE LoRaWAN

  • Leader : DJAMEL FAWZI HADJ SADOK
  • MEMBRES DE LA BANQUE :
  • NELSON SOUTO ROSA
  • DJAMEL FAWZI HADJ SADOK
  • GLAUCO ESTACIO GONÇALVES
  • Data: 10 juin 2021


  • Afficher le Résumé
  • No universo da Internet das Coisas (UIoT), LoRa e seu protocolo LoRaWAN tornaram tecnologias representativas em Redes de baixa potência e longa distância (LPWAN). Neste dissertação se discute o protocolo LoRaWAN, que funciona no espectro que está abaixo de um Giga Hertz. A análise começa com uma visão geral de seu alcance, desempenho, tempo útil para carga e comparações de alguns de seus processos e desempenho. Por outro lado, o conceito de consumo de energia em LPWANs é abordado também, já que é um dos tópicos mais comentados e ganhou interesse especial neste tipo de tecnologia. O consumo de energia em LPWANs, como em LoRaWAN, desempenha um papel importante na determinação da vida útil em redes de sensores sem fio. A dissertação, examina o uso de diferentes tecnologias de baterias e o impacto das camadas de controle de acesso ao meio (MAC) e física (PHY). Examinamos o impacto de parâmetros como fator de propagação, detecção de atividade de canal, Taxa de código e frequências de canal no consumo de energia. Entre as métricas que monitoramos neste cenário, a eficiência energética e seu impacto na vida útil da bateria para um melhor desempenho. Nós descobrimos que ambas as tecnologias descarregam de maneiras semelhantes, enquanto as baterias de lítio duram mais tempo e são mais econômicas. A análise é realizada com a plataforma CupCarbon, uma vez que possui um ambiente gráfico muito amigável e seu resultado final está de acordo com o que é necessário para este tipo de tecnologia.

4
  • JOHN JAIRO DOMINGUEZ
  • RELAÇÃO ENTRE O GÊNERO TEXTUAL DIGITAL E O PENSAMENTO CRÍTICO

  • Leader : ALEX SANDRO GOMES
  • MEMBRES DE LA BANQUE :
  • ROSSANA VIANA GAIA
  • ALEX SANDRO GOMES
  • RICARDO MASSA FERREIRA LIMA
  • Data: 28 juin 2021


  • Afficher le Résumé
  • Uma das competências específicas necessárias para enfrentar desafios 
    globais complexos é, sem dúvida, o pensamento crítico, razão pela qual nos 
    princípios dos projetos de programas de aprendizagem em rede há uma 
    motivação para desenvolver esse tipo de habilidade. No entanto, ela não foi 
    desenvolvida totalmente devido, entre outros fatores, ao fato de os modelos 
    pedagógicos dos cursos on-line tenderem a ser excessivamente homogêneos, 
    descontextualizados, despersonalizados e individualistas. Verifica-se, 
    ainda, que muitos desses cursos apresentam, frequentemente, uma sequência 
    rígida de conteúdos, com ferramentas de socialização muito limitadas e 
    processos de avaliação altamente estruturados. Desse modo, o presente 
    estudo tem como objetivo identificar as relações entre as estratégias 
    utilizadas durante as discussões assíncronas baseadas em texto, por meio de 
    Ambiente Virtual de Aprendizagem (AVA) e sua relação com o pensamento 
    crítico de estudantes do ensino médio. A partir do método de triangulação, 
    foram observados dados com diferentes naturezas para identificar relações 
    entre estratégias de comunicação na rede educacional Redu. Assim, o 
    propósito da análise foi verificar de que modo as interações assíncronas, 
    eventualmente, deram suporte à estruturação de situações para promover o 
    desenvolvimento do pensamento crítico, bem como identificar as limitações 
    da plataforma para apoiar o progresso dessa habilidade. Os resultados 
    evidenciaram que existe uma dissociação entre o desenho dos Ambientes 
    Virtuais de Aprendizagem e as metodologias usadas pelos professores para 
    estimular o desenvolvimento do pensamento crítico. Verificou-se, também, 
    que os ritmos e estilos de aprendizagem são outra variável desconsiderada 
    nos ambientes de aprendizagem. Isto ocorre porque tais ambientes favorecem 
    somente a um tipo de estudante, com determinadas características. 
    Finalmente, os resultados obtidos destacam que um dos métodos de maior 
    contribuição para desenvolver competências do raciocínio de alto nível é a 
    pergunta.

5
  • THIAGO MOURA DA ROCHA BASTOS
  • Avaliação de Filmes Metalizados Por Algoritmos de Aprendizagem de Máquina Através de Dados Operacionais de Processo Industrial e de Qualidade

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • LEANDRO MACIEL ALMEIDA
  • CLEBER ZANCHETTIN
  • FREDERICO DUARTE DE MENEZES
  • Data: 30 juin 2021


  • Afficher le Résumé
  • Os processos industriais de manufatura são parte importante do revolução 
    tecnológica vivida na atualidade, e o uso da Inteligência Artificial se 
    mostra como alternativa para superar dificuldades enfrentadas por modelos 
    tradicionais de monitoramento e controle destas operações. Esse trabalho 
    objetiva utilizar sistemas baseados em Aprendizagem de Máquina na 
    interpretação e predição de variáveis de processo e qualidade presentes na 
    produção de filmes metalizados por deposição à vácuo. Comparamos diferentes 
    classificadores associados a diversas condições de preprocessamento de 
    dados e hiperparâmetros na predição da qualidade do produto, tendo o modelo 
    Random Forest apresentado o melhor desempenho com 85,4% de acurácia. 
    Utilizando ferramentas de visualização de dados, foram construídos gráficos 
    e visualizações que permitem a interpretação da predição realizada pelos 
    modelos para complementar as métricas de performance. Por outro lado, 
    através da segmentação semântica dos perfis de densidade  ótica dos 
    produtos plásticos, foi possível a identificação de falhas, e o 
    monitoramento da qualidade final dos filmes produzidos através de um modelo 
    de rede neural com 86,67% de acurácia. Além disso, a aplicação das 
    visualizações fornecem auxílio no entendimento e validação dos produtos 
    obtidos no processo de metalização e do impacto de diferentes condições 
    operacionais sobre os produtos manufaturados. Este estudo de caso demostra 
    o potencial de suporte que pode ser oferecido a analistas e operadores na 
    interpretação de variáveis operacionais, uma vez que apresentam informações 
    relevantes para monitoramento e manutenção do processo de metalização de 
    filme por deposição à vácuo.

6
  • ALUISIO JOSÉ PEREIRA
  • ESPECIFICAÇÃO DE SISTEMA DE RECOMENDAÇÃO A PARTIR DE ANÁLISE DE INTERAÇÕES EM REDE SOCIAL EDUCACIONAL

  • Leader : ALEX SANDRO GOMES
  • MEMBRES DE LA BANQUE :
  • RICARDO MASSA FERREIRA LIMA
  • ALEX SANDRO GOMES
  • ELISEO BERNI REATEGUI
  • Data: 9 août 2021


  • Afficher le Résumé
  • A especificação de Sistemas de Recomendação Educacional (SRE), atualmente, 
    centra esforços no estudo dos dados relacionais, nas técnicas de 
    aprendizagem de máquina, recuperação e filtragem da informação e nos 
    algoritmos para realizar as recomendações. Esses mecanismos por si só podem 
    não fornecer insumos suficientes para construção de um modelo preciso de 
    recomendação diante de uma heterogeneidade de fatores humanos nas 
    interações dos atores envolvidos no contexto educacional. Sendo assim, o 
    objetivo deste trabalho é especificar uma abordagem de SRE com potenciais 
    mecanismos para estimular a dinâmica de interação entre estudante-professor 
    e conteúdos escolares na Rede Social Educacional (Redu). Para tanto, a 
    pesquisa tem como caráter uma abordagem projetiva a qual adota técnicas 
    quali-quantitativas para analisar o contexto de aplicação e dados gerados 
    por estudantes e professores na utilização do Redu no contexto do 
    aprendizado remoto em uma instituição pública de educação básica do Recife. 
    Foram conduzidas observações presenciais e on-line. Um questionário foi 
    aplicado a 187 estudantes e 62 professores. Foram realizadas análises de 
    agrupamento por uma abordagem não-supervisionada para identificar os níveis 
    de interação a partir de dados educacionais de 963 estudantes que usaram o 
    ambiente virtual no letivo de 2020. Foram conduzidas entrevistas 
    semiestruturadas com 13 estudantes e 10 professores para coletar 
    informações sobre as estratégias e dificuldades de interação. Os estudos 
    conduzidos possibilitaram identificar os principais assuntos tratados nas 
    interações no ambiente Redu. Formar clusters e caracterizar os padrões 
    (mais interagem, interagem esporadicamente ou raramente) dos estudantes. 
    Categorizar as respostas das entrevistas e identificar as estratégias de 
    interação dos estudantes e professores no uso do ambiente virtual, as 
    improvisações realizadas fora do ambiente virtual e um conjunto de 
    dificuldades para interagirem. Os resultados permitiram especificar uma 
    abordagem de SRE para atender a necessidades essenciais na dinâmica de 
    interação e possibilitaram chegar a elementos nos quais estratégias de 
    especificação centradas nos algoritmos não seriam decisivas em alcançar 
    para definir em quais pontos a abordagem poderia atuar.

7
  • DANIEL CIRNE VILAS-BOAS DOS SANTOS
  • Estudo comparativo entre abordagens estilométricas e textuais para atribuição de autoria em trabalhos escolares

  • Leader : CLEBER ZANCHETTIN
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • FLAVIA DE ALMEIDA BARROS
  • GEORGE GOMES CABRAL
  • Data: 13 août 2021


  • Afficher le Résumé
  • O aumento no volume de documentos digitais associado ao seu uso em várias 
    áreas de conhecimento demandam recursos computacionais para sua compreensão 
    e análise. Em casos de verificação ou atribuição de autoria, é necessário 
    confirmar ou identificar os autores do texto. A literatura propõe 
    promissoras abordagens que associam aprendizagem de máquina e processamento 
    de linguagem natural para distinguir os autores pelo seu estilo de escrita. 
    Estes trabalhos envolvem majoritariamente contextos literários ou 
    jornalísticos e textos em inglês. Por outro lado, no contexto educacional, 
    poucos trabalhos exploram a análise de autoria como ferramenta de apoio à 
    verificação de aprendizagem dentro da língua portuguesa. Tal cenário é 
    desafiador, pois apresenta um baixo volume de documentos por autor, um 
    conjunto de autores mais homogêneos e restrições de formato, tema e idioma. 
    Este trabalho explora técnicas e abordagens reconhecidas na literatura, 
    como modelos de aprendizagem de máquina, técnicas para representação de 
    documentos e extração de características estilométricas, com propósito de 
    apoiar a análise de autoria em uma base de dados composta por atividades 
    pedagógicas de estudantes de graduação. Devido ao volume de exemplos, 
    utilizamos bases de dados jornalísticas mais robustas como referência. Por 
    meio dos experimentos, foi verificado que em domínios restritos, 
    representações baseadas em características de estilo são superiores à 
    abordagens meramente textuais, que sofrem maior influência do tópico em 
    corpora mais abrangente. Este trabalho revelou que o modelo Extremelly 
    Randomized Trees foi superior aos demais modelos, como Naive Bayes, SVM, 
    Random Forest, Regressão logística, Redes neurais em todas as bases 
    utilizadas, alcançando uma média de 0.70 na taxa de acerto e AUC 0.81. Além 
    disso, o trabalho detalha sua metodologia para extração de características 
    de estilo por meio do processamento de linguem natural e quais destas mais 
    se destacaram durante os experimentos de acordo com seus valores Shapley.

8
  • GRENNDA GUERRA
  • GOED: Framework para Governança em Ecossistemas de Dados

  • Leader : BERNADETTE FARIAS LOSCIO
  • MEMBRES DE LA BANQUE :
  • EVELINE RUSSO SACRAMENTO FERREIRA
  • BERNADETTE FARIAS LOSCIO
  • VINICIUS CARDOSO GARCIA
  • Data: 13 août 2021


  • Afficher le Résumé
  • Ecossistemas de Dados (EDs) são ambientes compostos por redes de atores 
    autônomos que consomem, produzem ou fornecem direta ou indiretamente dados 
    e outros recursos relacionados a dados (software, serviços e 
    infraestrutura). Os relacionamentos em um ED podem influenciar diretamente 
    em sua sustentabilidade e no alcance de sua finalidade.  No entanto, há uma 
    escassez no desenvolvimento de tecnologias que os auxiliem na coordenação 
    dos diferentes atores e relacionamentos, bem como que promovam estímulo ao 
    desenvolvimento e uso/reúso de recursos. Por isso, muitas iniciativas de 
    ecossistemas têm falhado em estabelecer um gerenciamento efetivo de seus 
    recursos e dos atores.  Nesse contexto, torna-se cada vez mais relevante 
    estudos e iniciativas que possam promover uma estrutura organizada para o 
    desenvolvimento desses ecossistemas. Nessa perspectiva, a Governança de TI 
    propõe um conjunto de processos que visam promover o melhor direcionamento 
    dos recursos de TI, de forma que eles estejam alinhados às partes 
    interessadas aos objetivos da organização. É implementada através da 
    definição de estratégias, atividades, métricas, políticas operacionais, 
    entre outros. Por isso, sua aplicação permite um melhor monitoramento sobre 
    todo o funcionamento das atividades relacionadas aos recursos de TI. É 
    nessa perspectiva que este trabalho buscou estudar modelos, frameworks e 
    práticas já consolidadas no âmbito de Governança que pudessem servir de 
    referência para promover uma estrutura de governança no contexto de EDs. 
    Dessa maneira, este trabalho teve como objetivo a criação de um framework, 
    denominado FRAGED, que visa propor um conjunto de processos e atividades 
    que auxiliem na criação, coordenação e manutenção de um ED. A partir desse 
    estudo, espera-se compreender como a governança em ecossistemas de dados 
    pode ser abordada para melhorar a dinâmica entre os atores, otimizar suas 
    interações e contribuir para sua sustentabilidade. Para o desenvolvimento 
    dessa pesquisa, as principais etapas realizadas foram: (1) Revisão de 
    literatura; (2) Identificação de um conjunto de conhecimentos que poderiam 
    ser aplicados na construção do framework; (4) Construção do Framework e (5) 
    Avaliação.

9
  • PEDRO JORGE AMÉRICO ISHIMARU
  • DESENVOLVIMENTO DE MÓDULO PARA  SEGMENTAÇÃO DE ESPAÇO LIVRE EM IMAGENS ESTÉREO COM PROTOTIPAÇÃO EM FPGA

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • ADRIANO AUGUSTO DE MORAES SARMENTO
  • EDNA NATIVIDADE DA SILVA BARROS
  • VICTOR WANDERLEY COSTA DE MEDEIROS
  • Data: 13 août 2021


  • Afficher le Résumé
  • No contexto da robótica e de veículos autônomos terrestres, a segmentação 
    de chão e espaço livre é uma questão de suma importância para o bom 
    funcionamento dos sistemas. Este problema, relacionado à área de percepção 
    de espaço, é amplamente discutido na literatura, havendo diversas técnicas 
    implementadas, tais como Redes Neurais, grafos e processamento de imagem, 
    para diferentes tipos de sinais de entrada como, por exemplo, imagem, som, 
    LIDAR, imagens estéreo, etc. Todavia, geralmente os métodos propostos para 
    solucionar este problema são computacionalmente custosos, envolvendo 
    manipulação de matrizes e operações de convolução e são implementados em 
    plataformas complexas, isto diverge da natureza das aplicações nas quais, 
    frequentemente, os dispositivos finais estão inseridos em cenários de 
    sistemas embarcados, nos quais há restrições de capacidade de 
    processamento, memória, consumo de potência, custo, e desempenho.
    Diante deste cenário, este trabalho propõe uma arquitetura em FPGA para 
    segmentação de chão com técnicas de visão computacional estéreo, partindo 
    de mapas de disparidade gerados a partir de duas imagens captadas de locais 
    ligeiramente distintos. A arquitetura foi baseada no desenvolvimento de um 
    algoritmo que adapta para a implementação em FPGA técnicas algébricas que 
    exploram informações de tridimensionalidade para detectar na imagem regiões 
    de obstáculos, regiões livres e detecção de horizonte, a partir da extração 
    algébrica dos perfis destas. O algoritmo adaptado e a arquitetura foram 
    validados utilizando o Dataset do KITTI para segmentação de pista, que 
    utilizam imagens de cenário automotivo rodoviário real, e obtiveram baixa 
    perda de desempenho em termos de precisão e revocação em comparação com o 
    modelo de referência, com grandes ganhos em performance na taxa de frames 
    por segundo, consolidando um módulo de grande utilidade para aplicações 
    envolvendo robótica e visão computacional estéreo.

10
  • MIRELLA SANTOS PESSOA DE MELO
  • MAPEAMENTO DE REGIÃO NAVEGÁVEL A PARTIR DE UM SISTEMA SLAM E SEGMENTAÇÃO DE IMAGEM

  • Leader : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBRES DE LA BANQUE :
  • EDNA NATIVIDADE DA SILVA BARROS
  • FRANCISCO PAULO MAGALHAES SIMOES
  • HANSENCLEVER DE FRANCA BASSANI
  • Data: 13 août 2021


  • Afficher le Résumé
  • Agentes robóticos que se utilizam de algoritmos de localização e mapeamento 
    simultâneos - SLAM, realizam a construção incremental do mapa de um 
    ambiente desconhecido enquanto, simultaneamente, determinam sua localização 
    dentro desse mapa. Estes são chamados de sistemas SLAM visual (vSLAM) 
    quando se utilizam de dados proveniente de uma câmera e, pela forma com que 
    as imagens são interpretadas, são categorizados em método direto ou 
    indireto. O vSLAM de método indireto é eficiente, rápido e pode oferecer um 
    sistema de localização preciso; por outro lado, representa o ambiente 
    mapeado através de uma nuvem de pontos esparsa, sendo esta imprópria para o 
    planejamento de rotas. Portanto, nosso trabalho tem como objetivo 
    desenvolver um elo entre esses algoritmos e atividades de navegação, tendo 
    como prioridade o baixo custo computacional, fazendo uso apenas de um 
    sensor de câmera estéreo. A representação adotada para modelar o ambiente é 
    um mapa de grade de ocupação 2D - OGM 2D, uma das opções predominantemente 
    utilizadas na robótica. Para criar o OGM, associamos o estágio de 
    mapeamento do vSLAM com uma técnica de segmentação de chão. A proposta 
    representa um módulo complementar que além de transformar a nuvem de pontos 
    esparsa em um OGM 2D, também resulta numa nuvem de pontos segmentada entre 
    chão e não-chão. Avaliações sobre o mapa gerado foram feitas em ambientes 
    sintéticos e reais, considerando algoritmos de planejamento de rota, 
    sobreposição de mapas e métricas computacionais. Resultados revelam mapas 
    com alta precisão enquanto exigem baixíssimo acréscimo do consumo de 
    memória, e tempo de processamento que permite que a aplicação seja 
    executada junto ao SLAM em tempo real. O mapa gerado permite um elo entre 
    um algoritmo SLAM de mapeamento esparso e atividades de navegação.

11
  • EDUARDO FELIPE FONSÊCA DE FREITAS
  • Experimental Evaluation on Packet Processing Frameworks under Virtual Environments

  • Leader : DJAMEL FAWZI HADJ SADOK
  • MEMBRES DE LA BANQUE :
  • DJAMEL FAWZI HADJ SADOK
  • GLAUCO ESTACIO GONÇALVES
  • NELSON SOUTO ROSA
  • Data: 26 août 2021


  • Afficher le Résumé
  • O kernel Linux é um componente central das aplicações de rede, estando presente
    na maioria dos servidores em data centers. Com o tempo, à medida que servidores
    e placas de rede evoluíram para atender tecnologias de rede com demandas de alto
    throughput e baixa latência, o kernel tornou-se um gargalo, impedindo as
    aplicações de rede de utilizarem a capacidade máxima do hardware. Nesse cenário,
    diferentes frameworks de processamento de pacotes surgiram para solucionar esse
    gargalo. Os dois principais são o DPDK e XDP, com propostas diferentes para
    atingir altas taxas de processamento. DPDK adota o bypass do kernel, excluindo-o
    do processamento e levando os pacotes para o user-space. Já o XDP, por outro lado,
    processa os pacotes dentro do kernel, de forma antecipada comparada ao
    processamento padrão. Em conjunto com isso, o paradigma de computação em nuvem,
    atualmente disponível na maioria dos data centers, traz a virtualização como
    tecnologia fundamental. Com múltiplas aplicações e sistemas sendo executados no
    mesmo host, surge outro problema, o de competição de recursos. Assim, essa
    dissertação executa experimentos que buscam avaliar como a presença de um
    ambiente virtual de computação em nuvem pode interferir no desempenho de ambos
    DPDK e XDP. Os resultados mostram que embora o processamento “dentro do kernel”
    traga mais segurança e integração com sistema, essas exatas medidas de segurança
    causam perda de desempenho ao XDP. Além disso, o XDP também demonstra ser o mais
    afetado pela presença do ambiente virtual, considerando a taxa de throughput e
    também a perda de pacotes. Por outro lado, existe um dilema ao utilizar o XDP,
    que não somente é possível alcançar maior segurança, mas também em relação ao uso
    de recursos, já que o DPDK aloca um núcleo de CPU completo para utilizar no
    processamento de pacotes. Também, dependendo do processamento sendo feito pelo
    framework, como quando depende de uso intenso de CPU, o DPDK oferece uma perda
    considerável de desempenho do throughput.

12
  • CLAUDIO LUIS ALVES MONTEIRO
  • Quantum Neurons with Real Weights For Diabetes Prediction

  • Leader : FERNANDO MACIANO DE PAULA NETO
  • MEMBRES DE LA BANQUE :
  • FERNANDO MACIANO DE PAULA NETO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • WILSON ROSA DE OLIVEIRA JUNIOR
  • Data: 1 sept. 2021


  • Afficher le Résumé
  • Este trabalho apresenta resultados preliminares relevantes da aplicação de 
    algoritmos de aprendizagem de máquina quântica no setor de saúde. 
    Desenvolvemos e testamos um modelo de neurônio quântico capaz de armazenar 
    pesos reais e também comparamos dois outros algoritmos para construir 
    neurônios quânticos que podem transportar uma quantidade exponencial de 
    informação para um número linear de unidades de informação quântica 
    (qubits) usando a propriedade quântica de superposição. Comparamos o 
    desempenho desses modelos nos seguintes problemas: simular o operador XOR, 
    resolver um problema não linear genérico e previsão de diabetes em 
    pacientes. Os resultados dos experimentos mostraram que um único modelo de 
    neurônio quântico é capaz de atingir uma taxa de precisão de 100% no 
    problema XOR e uma taxa de 100% em um conjunto de dados não linear, 
    demonstrando a plausibilidade de modelos quânticos com pesos reais na 
    modelagem de problemas não linearmente separáveis. No problema de 
    diagnóstico de diabetes, os neurônios quânticos alcançaram uma taxa de 
    precisão de 72% . Esses resultados indicam que um único modelo de neurônio 
    quântico tem boa capacidade de generalização, demonstrando potencial para 
    uso em aplicações para o setor de saúde em um futuro próximo. É também uma 
    contribuição crucial para o desenvolvimento de redes neurais quânticas 
    avançadas com melhores desempenhos.

13
  • PABLO PHILIPE PESSOA
  • Uma Metodologia para Selecionar Contadores de Desempenho de Hardware para dar Suporte ao Diagnóstico não Invasivo e a Classificação de Ataques DDoS de Inundação em Servidores Web

  • Leader : PAULO ROMERO MARTINS MACIEL
  • MEMBRES DE LA BANQUE :
  • ALMIR PEREIRA GUIMARAES
  • JAMILSON RAMALHO DANTAS
  • PAULO ROMERO MARTINS MACIEL
  • Data: 6 sept. 2021


  • Afficher le Résumé
  • As interrupções do servidor web causadas por Denial of Service (DOS) e 
    Distributed Denial of Service (DDOS), Ataques de Negação de Serviço e 
    Ataques de Negação de Serviço Distribuído aumentaram consideravelmente ao 
    longo dos anos. Os Intrusion Detection System (IDS) Sistemas de Detecção de 
    Intrusão não são suficientes para detectar ameaças no sistema, mesmo quando 
    usados em conjunto com Intrusion Prevention System (IPS) Sistemas de 
    Prevenção de Intrusão e mesmo considerando o uso de conjuntos de dados 
    contendo informações sobre situações típicas e ataques ao serviço do 
    sistema. A realização de análises com uma quantidade muito densa de 
    variáveis observadas pode custar uma quantidade significativa de recursos 
    do host. Além disso, esses conjuntos de dados correm o risco de não 
    representar o comportamento do sistema de forma adequada e nem sempre podem 
    ser compartilhados, pois podem conter informações confidenciais nos dados 
    de diagnóstico. Este trabalho apresenta uma metodologia de diagnóstico não 
    intrusiva para selecionar Hardware Performance Counters (HPC) Contadores de 
    Desempenho de Hardware em ataques DOS/DDOS de inundação HTTP em servidores 
    web de nível corporativo, combinando métodos e técnicas de diferentes 
    segmentos. A abordagem proposta usa dispositivos de recursos de baixo 
    nível, como os contadores de desempenho para diagnóstico, criando perfis 
    comportamentais em frente a ataques e ao uso comum do serviço. A estratégia 
    proposta oferece suporte ao fornecimento de diagnósticos confiáveis com 
    caracterização precisa, sem conjuntos de dados de terceiros. Com a 
    metodologia proposta, conseguimos reduzir os HPC em 26%, em comparação com 
    o grupo inicial.

14
  • GABRIEL WANDERLEY ALBUQUERQUE SILVA
  • Redução de Dimensionalidade Aplicada a Sistemas de Radiolocalização por Regressão Direta em Regiões com Diferentes Níveis de Urbanização

  • Leader : DANIEL CARVALHO DA CUNHA
  • MEMBRES DE LA BANQUE :
  • DANIEL CARVALHO DA CUNHA
  • GERMANO CRISPIM VASCONCELOS
  • WASLON TERLLIZZIE ARAUJO LOPES
  • Data: 10 sept. 2021


  • Afficher le Résumé
  • A difusão do uso de dispositivos móveis (DMs) tem estimulado a adoção de inúmeros serviços baseados em localização, que, por sua vez, dependem de técnicas de localização em redes sem fio. Apesar do sistema de posicionamento global ser uma das principais técnicas usadas para fornecer a localização do DM, sua acurácia depende fortemente da existência de linha de visada entre transmissor e receptor. Para evitar tal desvantagem, técnicas de radiolocalização baseadas nos níveis de potência do sinal de rádio frequência (RF) recebidos são amplamente utilizadas. Uma dessas técnicas, chamada de método de localização por regressão direta (LRD), emprega algoritmos de aprendizado de máquina para fazer a predição das coordenadas geográficas do DM. Face ao exposto, este trabalho analisou a aplicação do método LRD em duas regiões com diferentes níveis de urbanização. Nas regiões consideradas, bases de dados contendo níveis de sinal de RF de três gerações de redes celulares foram construídas, de forma unificada, assim como segmentada por rede, a partir de coleta via crowdsourcing. O primeiro aspecto da análise foi a robustez do método de localização em função do nível de urbanização das regiões consideradas. O método LRD se mostrou mais estável (diminuição do erro médio de predição em função do aumento do conjunto de treinamento) na região com maior nível de urbanização e mais
    eficiente quando aplicado à rede 3G em ambas as regiões. Além de fatores relacionados aos diferentes níveis de urbanização das regiões investigadas, o aumento esperado da quantidade de estações rádio base com a implantação de redes de próxima geração também é relevante para a aplicabilidade do método LRD. Assim, o segundo aspecto analisado foi o efeito da redução de dimensionalidade na acurácia e nos tempos de execução do método LRD. Para isso, cinco algoritmos de extração de features (AEFs), três lineares e dois não-lineares, foram considerados. Resultados experimentais mostraram que os AEFs não-lineares obtiveram melhores resultados que os AEFs lineares. Dentre os AEFs não-lineares, o algoritmo KPCA-Sigmoide diminuiu o erro médio do método LRD em até 15% quando comparado ao erro do método LRD sem o uso de AEFs. Além disso, o algoritmo KPCA-Sigmoide causou uma diminuição aproximada de sete vezes no tempo de treinamento e de aproximadamente quatro vezes no tempo de predição do método LRD, sem prejudicar a acurácia da localização.

15
  • IÚRI BATISTA TELES
  • Modelo auto-ajustável para predição de aumento de número de 
    casos de doenças infectocontagiosas

  • Leader : PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • MEMBRES DE LA BANQUE :
  • SERGIO CRESPO COELHO DA SILVA PINTO
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • Data: 13 sept. 2021


  • Afficher le Résumé
  • Doenças infectocontagiosa possuem um potencial devastador de transmissão do agente hospedeiro a seus pares, a exemplo da sars-cov-2 e vírus da influenza, o uso de modelos computacionais conhecidos, tais como ARIMA, LSTM e Prophet,  podem contribuir de forma significativa para o controle de sua disseminação. Modelos de aprendizagem de máquina vêm se provando muito eficazes no auxílio de gestores da saúd, amenizando as consequências da proliferação do contágio destas infecções, visto que auxiliam a construção de ações antecipadas às ocorrências de doenças. A classificação de tais doença se dá pela Classificação Internacional de doenças (CIDs) e Classificação Internacional de Assistência Primária (CIAPs) utilizadas hoje na cidade do Recife, para classificação de doenças infecciosas. No âmbito da pesquisa desenvolvemos o MAPDI (Modelo Auto-ajustável para Predição de Aumento de Número de Casos de Doenças Infectocontagiosas) com intuito de integrar análise preditiva no âmbito do gerenciamento epidemiológica de forma proativa. Utilizamos dados coletados de unidade de saúde proveniente da solução Atende APS. O MAPDI é composto de 5 etapas principais: 1 - Coleta e pré processamento dos dados; 2- Identificação CIDs/CIAPs anômalos; 3 -Ajuste automático dos algoritmos de séries temporais; 4 - Execução das previsões; e 5 - Indexação e apresentação dos resultados. O MAPDI inicialmente irá obter os dados epidemiológicos para análise proveniente do sistema Atende APS, o qual irá executar rotinas semanais para ajuste do 
    modelo e projeção futura da possível quantidade de ocorrência para os próximos 7 dias.  Os dados serão indexados no existe Elastic, através da própria API disponível, já utilizado pela prefeitura de Recife e governo de Pernambuco. Dessa forma, a apresentação dos dados irá se dá através do Kibana, o que possibilitará também a personalização da melhor apresentação. Dessa forma, é apresentado uma metodologia e integração aplicada a cidade do Recife; bem como a possibilidade de integração em outras localidades, para auxiliares atuantes do gerenciamento da saúde a análise de ocorrência de CIDs/CIAPs de forma proativa.

16
  • CARLOS ANDRÉ BARROS LOPES
  • Geração de cargas de trabalho virtuais realísticas para simulação de redes.

  • Leader : PAULO ROMERO MARTINS MACIEL
  • MEMBRES DE LA BANQUE :
  • EDUARDO ANTONIO GUIMARAES TAVARES
  • JAMILSON RAMALHO DANTAS
  • KADNA MARIA ALVES CAMBOIM VALE
  • Data: 15 sept. 2021


  • Afficher le Résumé
  • O aumento na quantidade de serviços na Internet proporciona o aumento da complexidade dos tráfegos. Devido a isso a representação das cargas de trabalho em redes de computadores requer a caracterização específica de parâmetros devido à variedade de aplicações existentes. Este trabalho apresenta um framework útil para a representação de tráfego de redes a nível de simulação. O framework desenvolvido captura tráfegos de redes existentes e gera traces virtuais simulados idênticos aos traces reais por meio de três métodos que contemplam a identificação e aplicação de variáveis aleatórias. A pesquisa envolveu testes com os principais tipos de fluxos de Internet. Como resultado, é realizada a comparação entre os tracesvirtuais simulados com os traces reais através do método de Goodness Fitness definido como Kolmogorov-Smirnov. Por fim, nos cenários contemplados um dos métodos possíveis o framework gerou os dados virtuais compatíveis com os reais em todos os experimentos com 95% de confiança realizados, comprovando a eficácia da ferramenta.

17
  • EDMILSON RODRIGUES DO NASCIMENTO JÚNIOR
  • A Disciplina “Projetão”: História, papel e relevância para o Ecossistema de Tecnologia de Informação e Comunicação De Recife.

  • Leader : GEBER LISBOA RAMALHO
  • MEMBRES DE LA BANQUE :
  • GEBER LISBOA RAMALHO
  • PIERRE LUCENA RABONI
  • SERGIO CASTELO BRANCO SOARES
  • Data: 26 oct. 2021


  • Afficher le Résumé
  • A Universidade ser de excelência no ensino e pesquisa é condição  necessária, mas não suficiente para a criação de uma cultura de inovação e  empreendedorismo entre os seus membros e a sociedade. Dessa forma, expandir  a cultura universitária para ser um Locus de ensino e prática sobre  inovação, empreendedorismo e transferência de tecnologia faz-se necessário,  pois a inovação traduz-se em competitividade para empresas e melhoria na  qualidade de vida para os indivíduos.  Nesse contexto, nos últimos 18 anos  desenvolveu-se no Centro de Informática da UFPE a disciplina conhecida  popularmente como “Projetão”. A disciplina é reconhecida pelo ecossistema  de TIC de Recife como um sucesso em função de seu  papel de fomento à  cultura e aprendizado prático de inovação e empreendedorismo de base  tecnológica, tendo inclusive ajudado a criar diversas startups. Contudo,  até o início desse trabalho, ninguém havia documentado a história ou estudado a percepção do papel e relevância de Projetão. A presente  dissertação objetiva preencher essas lacunas, analisando o  papel e a  relevância de Projetão junto aos ex-alunos e ao ecossistema de TIC de  Recife, e documentando e organizando o histórico de Projetão. Para tanto,  foram aplicados métodos mistos de levantamento de dados: pesquisa  documental, entrevistas com os professores que ensinaram Projetão, surveys  com ex-alunos e entrevistas semi-estruturadas com líderes do ecossistema.  Levantamos que Projetão educou 2135 estudantes, que criaram 22 startups,  dentre as quais destacam-se InLoco, Eventik, Capyba,  Prepi e Lovecrypto.  Também, pode-se constatar que a maioria dos respondentes à pesquisa  trabalham com inovação após formados e 16.6% deles tornaram-se  empreendedores profissionais, o dobro da média nacional segundo o  benchmarking da pesquisa da Endeavour (2012). Por fim, essa pesquisa também  contribui, como efeito colateral, com uma reflexão crítica sobre a  disciplina de Projetão, que poderá contribuir com sua  melhoria no futuro.  É o caso de algumas observações dos líderes do ecossistema que entendem que  os alunos de Projetão ainda resolvem problemas pouco relevantes e que  poderia haver um foco maior em criar startups com mais maturidade de  mercado, com perfil de fundadores diversos e com um maior diferencial  inovador.

18
  • MAILTON FERNANDES DE CARVALHO
  • Um processo para construção de Tesauros de Domínio Específico no Contexto de uma Empresa de Teste de Software.

  • Leader : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBRES DE LA BANQUE :
  • ALEXANDRE CABRAL MOTA
  • FLAVIA DE ALMEIDA BARROS
  • RAFAEL FERREIRA LEITE DE MELLO
  • Data: 25 nov. 2021


  • Afficher le Résumé
  • Grandes empresas de software geralmente mantêm repositórios com milhares de documentos textuais (e.g., documentos de requisitos, casos de teste, solicitações de mudança de código). Contudo, devido à falta de um vocabulário padrão, muitas vezes esses documentos utilizam palavras distintas para se referir à mesma entidade no domínio da aplicação. Isso dificulta o processamento automático dos textos, principalmente em sistemas de indexação e recuperação de informação através de palavras-chaves. Devido a essas variações de terminologia, os termos usados nas consultas nem sempre estão presentes nos documentos relevantes (por exemplo, "foto" x "imagem"). Assim, a consulta não irá recuperar todos os documentos relevantes existentes, a fim de garantir a finalização adequada da atividade em curso.
    Uma solução frequentemente adotada para melhorar o desempenho de sistemas de processamento de texto é a utilização de um dicionário de sinônimos (um tesauro). Esses dicionários associam termos sinônimos ou relacionados em conjuntos de termos equivalentes. Tesauros são frequentemente usados para melhorar o desempenho de sistemas de recuperação de documentos, geralmente através da expansão automática das consultas construídas pelo usuário. Essa operação adiciona termos correlacionados à consulta original, ampliando as chances do sistema recuperar documentos relevantes. Vale ressaltar que tesauros têm outros usos importantes no processamento de texto, como por exemplo melhorar o desempenho de classificadores de texto ou prover um vocabulário padrão, entre outros.
    Nesse contexto, este trabalho propõe um processo para a construção automática de tesauros de domínio específico com base em documentos disponíveis em repositórios locais de empresas SW. O objetivo é evitar termos ambíguos ou não correlacionados no domínio, encontrados em tesauros genéricos (como o WordNet). O sistema implementado foi usado para gerar um tesauro de domínio específico a partir de documentos de uma empresa de teste de software. O sistema recebe como entrada documentos da empresa, como Solicitações de Mudança de código e descrições de Casos de Teste, e extrai desses documentos os termos relevantes para esse domínio específico. Em seguida, os termos relacionados são agregados em conjuntos. A seguir, o sistema usa técnicas de Processamento de Linguagem Natural, como PoS-tagging, RegEx e n-grams, para enriquecer o tesauro com termos compostos (e.g., "finger print"), acrônimos (e.g., "FP") e abreviações (e.g., "cam" para "câmera"). Finalmente, os conjuntos de palavras / termos relacionados são indexados e disponibilizados para consulta manual ou automática. O tesauro criado foi usado na expansão automática de consultas para melhorar o desempenho de dois sistemas de recuperação de documentos, apresentando resultados bastante satisfatórios. Os resultados obtidos foram relatados em um artigo científico publicado pelo SBES 2021. Este trabalho foi realizado no contexto de um projeto de cooperação em pesquisa entre a Motorola Mobility (uma empresa Lenovo) e o Centro de Informática (CIn-UFPE).

19
  • DELMIRO DALADIER SAMPAIO NETO
  • New Histogram-Based User and Item Profiles for Recommendation Systems.

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • YURI DE ALMEIDA MALHEIROS BARBOSA
  • Data: 7 déc. 2021


  • Afficher le Résumé
  • Os sistemas de recomendação desempenham um papel importante em negócios como e-commerce, entretenimento digital e educação online. A maioria dos sistemas de recomendação são implementados usando dados numéricos ou categóricos, ou seja, dados tradicionais. Este tipo de dados pode ser um fator limitante quando usado para modelar conceitos complexos onde há variabilidade interna ou estrutura interna nos dados. Para superar essas limitações, são utilizados dados simbólicos, onde os valores podem ser intervalos, distribuições de probabilidade ou listas de valores. Dados simbólicos podem beneficiar sistemas de recomendação e este trabalho apresenta uma metodologia para construir sistemas de recomendação usando descrições simbólicas para usuários e itens.

    A metodologia proposta pode ser aplicada na implementação de sistemas de recomendação baseados em conteúdo ou baseados em filtragem colaborativa. Na abordagem baseada em conteúdo, perfis de usuário e perfis de itens são criados a partir de descrições simbólicas de seus recursos e uma lista de itens é comparada a um perfil de usuário. Na abordagem baseada na filtragem colaborativa, são construídos perfis de usuários e os usuários são agrupados em um bairro, os produtos avaliados pelos usuários desse bairro são recomendados com base na semelhança entre o vizinho e o usuário que receberá a recomendação. Experimentos são realizados para avaliar a eficácia da metodologia proposta neste trabalho em relação às metodologias existentes na literatura para as duas abordagens do sistema de recomendações. Um conjunto de dados de domínio de filme é usado nestes experimentos e seus resultados mostram a utilidade da metodologia proposta.

20
  • JULIANA BARCELLOS MATTOS
  • A SUPERVISED DESCRIPTIVE LOCAL PATTERN MINING APPROACH TO THE DISCOVERY OF SUBGROUPS WITH EXCEPTIONAL SURVIVAL BEHAVIOUR.

  • Leader : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBRES DE LA BANQUE :
  • GISELE LOBO PAPPA
  • RENATO VIMIEIRO
  • TERESA BERNARDA LUDERMIR
  • Data: 10 déc. 2021


  • Afficher le Résumé
  • Há vários trabalhos na literatura dedicados a descobrir fatores associados a comportamentos de sobrevivência. No entanto, as ferramentas computacionais utilizadas para tal são modelos globais projetados para estimar se e quando um dado evento de sobrevivência ocorrerá. Em se tratando do problema de explicar diferentes respostas de sobrevivência (não usuais), tais abordagens recorrem a suposições a respeito de variáveis preditivas e a análises estratificadas. Em outras palavras, as abordagens existentes não possuem a capacidade de descobrir excepcionalidades locais nos dados nem prover novos conhecimentos a respeito de fatores associados à sobrevivência. Este trabalho tem por objetivo apresentar uma nova ferramenta computacional para identificação e caracterização (de forma simples e objetiva) das diferentes respostas de sobrevivência existentes em uma população de indivíduos.
    Neste trabalho, o problema enunciado é abordado através da perspectiva da mineração supervisionada de padrões descritivos (em inglês, superviseddescriptivepattern mining) com o intuito de descobrir padrões locais associados a diferentes comportamentos de sobrevivência. Para tal, é empregada a técnica de mineração de modelos excepcionais (do inglês, Exceptional Model Mining) com o objetivo de descrever – de forma simples e concisa – subgrupos que apresentem modelos de sobrevivência (Kaplan-Meier) não usuais. Em contraste às heurísticas ‘gulosas’ prevalentes na literatura de mineração de modelos excepcionais, a abordagem introduzida neste trabalho explora o uso da meta-heurística de otimizaçãoAnt-ColonyOptimisation na busca por subgrupos. O problema de redundância de padrões também é considerado, objetivando a descoberta de um conjunto de subgrupos que sejam diversos com relação às suas descrições, coberturas e modelos.
    O desempenho da abordagem apresentada é avaliada em quatorze conjuntos de dados reais. Os resultados mostram que o algoritmo proposto é capaz de descobrir padrões representativos que apresentam modelos precisos e caracterizações de simples compreensão. Adicionalmente, os subgrupos descobertos potencialmente capturam comportamentos de sobrevivência existentes nos dados. A redundância de padrões é abordada de forma bem-sucedida, tal que os resultados retornados apresentam conjuntos de subgrupos que são diversos (únicos) e excepcionais. Quando comparado a outras abordagens existentes na literatura que fornecem caracterizações de comportamentos incomuns de sobrevivência, O algoritmo apresentado se sobressai aos demais tanto em relação ao aspecto descritivo de seus resultados e quanto à diversidade de suas descobertas.

21
  • RODRIGO EMERSON VALENTIM DA SILVA
  • Contagem automática de ovos do mosquito Aedes aegypti utilizando métodos de aprendizagem profunda e dispositivo de baixo custo.

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • LEANDRO MACIEL ALMEIDA
  • ROSÂNGELA MARIA RODRIGUES BARBOSA
  • Data: 17 déc. 2021


  • Afficher le Résumé
  • O mosquito Aedes aegypti causa grandes transtornos ao sistema público de  saúde, por ser o principal vetor de transmissão de arboviroses como:  Dengue, Febre Amarela, Zika e Chikungunya que infectam mais de 400 milhões  de pessoas a cada ano. Uma forma eficiente de evitar o crescimento no  número de casos das arboviroses citadas é com programas de vigilância  vetorial que ajuda no monitoramento de propagação de doenças causadas pelo  Aedes aegypti. Entre os indicadores que a vigilância vetorial utiliza, os  dispositivos utilizados para coleta de ovos do Aedes aegypti (Ovitrampas),  é um dos métodos mais eficientes na capacidade de detecção da presença de  mosquitos mesmo em situação de baixa infestação. As ovitrampas consistem em 
    recipientes escuros com entradas largas preenchidas parcialmente com água e  uma palheta áspera de madeira instalada verticalmente em seu interior. Elas  são colocadas em pontos estratégicos e depois de um tempo, a palheta é  retirada do recipiente e levada para laboratório para ser possível fazer a  contagem de ovos. Esta contagem é extremamente importante, pois as  ovitrampas de regiões que apresentam o maior número de ovos recebem atenção  especial de órgãos públicos em campanhas de combate ao mosquito.  Entretanto, a contagem desses ovos em palhetas é feita manualmente, sendo  uma atividade exaustiva e repetitiva para os técnicos que precisam realizar  esta tarefa. Dado o contexto, neste trabalho foi construído um dispositivo  que auxilia a contagem de ovos do Aedes aegypti com menos intervenção  humana. Este dispositivo capta imagens da palheta, essas imagens são dadas  como entrada para algoritmos de reconhecimento automatizado possibilitando  o reconhecimento de ovos e consequentemente a sua contagem. Para alcançar  os objetivos da automatização desta tarefa de contagem de ovos, foi  utilizado o conceito de aprendizagem profunda com Redes Neurais  Convolucionais (CNNs) que configuram o estado da arte em problemas de visão  computacional. Para a utilização de CNNs, foi realizado um estudo de quais  modelos poderiam ser adaptados ao problema de contagem de ovos. Após  escolhidos os modelos foi aplicado o processo de Transferência de  Aprendizado destes modelos, visto que, os melhores modelos na literatura  são treinados em grandes bases de dados e o que eles aprendem nessas bases  pode ser reaproveitado em outras tarefas, de modo que se consegue  treiná-los em outros conjuntos de dados, tornando o processo de  treinamento  mais rápido e mais efetivo em outros dados.  Para treinar  esses modelos foi construída uma base de dados própria com imagens de ovos  do Aedes aegypti, visto que, uma das dificuldades encontradas em trabalhos  da literatura que abordam a contagem automática de ovos é falta de dados  para treinar algoritmos para realizar esta tarefa. Os modelos de CNNs  utilizados nesta dissertação apresentaram uma acurácia média no  reconhecimento de ovos de 92\%. Por fim, o estudo realizado servirá como  base para construir uma ferramenta completa que auxilie todo o processo de  contagem e tomada de decisão dos técnicos.

22
  • MARIANA DA SILVA BARROS
  • Development of a Deep-Learning based System for Disease Symptoms Detection over Crop Leaves Images.

  • Leader : STEFAN MICHAEL BLAWID
  • MEMBRES DE LA BANQUE :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • STEFAN MICHAEL BLAWID
  • Data: 22 déc. 2021


  • Afficher le Résumé
  • Agricultura familiar representa um segmento crítico da agricultura brasileira, envolvendo mais de 5 milhões de propriedades e gerando 74% dos empregos rurais no país. As perdas de rendimento causadas por pragas e  doenças na colheita podem ser devastadoras para os pequenos produtores. No entanto, o controle de doenças bem-sucedido requer uma classificação correta, o que desafia os pequenos proprietários, que muitas vezes carecem de assistência técnica. O presente trabalho propõe um sistema que alerta pequenos produtores e especialistas em fitopatologia sobre possíveis surtos de doenças em plantas, permitindo um diagnóstico e intervenção mais rápidos. Nesse sentido, nós detectamos sintomas de doenças em imagens de folhas de plantas tiradas diretamente por agricultores no campo usando um aplicativo de celular desenvolvido com esse propósito. O módulo implementado é parte de uma plataforma de serviços que conecta produtores e especialistas, projetado em parceria com profissionais de fitopatologia da Universidade Federal Rural de Pernambuco (UFRPE). O trabalho usa aprendizagem profunda (“deep learning”) e redes neurais convolucionais (CNNs) para realizar a classificação das imagens. Os experimentos de classificação foram aplicados sobre um conjunto de dados composto por imagens de folhas de videira cultivadas no estado de Pernambuco, cuja coleta também foi parte do presente trabalho. Portanto, algumas imagens coletadas sob as condições do campo apresentam baixa qualidade, o que diminui o desempenho da classificação. Assim, nós também classificamos as imagens com relação à sua qualidade, para excluir imagens desafiadoras da detecção de doenças e reduzir o número de fotos classificadas erroneamente entrando na base de dados. A técnica de “multi-label” é aplicada neste cenário, permitindo a um único modelo classificar se as imagens mostram sintomas e se elas apresentam qualidade suficiente para que isso seja feito de maneira confiável. O mecanismo “multi-label” também é uma abordagem promissora para incluir futuramente propriedades adicionais da imagem, como agentes causadores de doenças. O sistema de classificação desenvolvido alcança um valor de “recall” de 95% para detecção de sintomas e um valor de precisão de 92% para classificação de qualidade das imagens.

Thèses
1
  • MARCELO GOMES PEREIRA DE LACERDA
  • Métodos Gerais de Controle Paramétrico Eficiente eAuto-Adaptativo para Algoritmos Evolucionários e Baseadosem Enxames

  • Leader : TERESA BERNARDA LUDERMIR
  • MEMBRES DE LA BANQUE :
  • ADENILTON JOSÉ DA SILVA
  • HERBERT KUCHEN
  • CARMELO JOSÉ ALBANEZ BASTOS FILHO
  • GUILHERME DE ALENCAR BARRETO
  • LUCIANO DEMETRIO SANTOS PACIFICO
  • Data: 19 mars 2021


  • Afficher le Résumé
  • Algoritmos evolucionários e baseados em enxames são métodos de otimização aproximada com inspirações em teorias sobre a evolução das espécies e no comportamento de coletivos animais, respectivamente. Cada algoritmo destas famílias possui um conjunto de parâmetros que ditam o seu comportamento durante o processo de otimização. Uma das maiores dificuldades na utilização destes algoritmos por não-especialistas encontra-se na definição dos valores ótimos destes parâmetros para cada problema, pois é sabido não existir um único conjunto de valores que provoque o melhor comportamento possível do algoritmo em todos os problemas existentes. Os métodos de ajuste paramétrico para algoritmos evolucionários e baseados em enxames podem ser divididos em dois grupos: métodos de tuning, onde os valores dos parâmetros são definidos previamente e permanecem constantes até o fim da execução do algoritmo, normalmente definidos a partir de diversas execuções prévias do algoritmo no problema em mãos (i.e. métodos offline); métodos de controle, onde os valores são variados durante a execução do algoritmo (i.e. métodos online). Ambos os grupos possuem técnicas que removem ou reduzem a necessidade de interferência do usuário na configuração de tais parâmetros. Porém, os algoritmos de controle apresentam a vantagem de poderem definir valores ótimos para cada momento do processo de otimização, o que é sabido ser potencialmente mais eficaz do que definir um valor inicial que permanece constante até o final de sua execução. Apesar dos algoritmos de tuning apresentarem resultados bastante sólidos, o problema de controle paramétrico ainda está longe de ser satisfatoriamente resolvido. Na literatura, costuma-se encontrar muitos métodos que fazem controle de parâmetros específicos para algoritmos específicos. Pouquíssimos são os trabalhos que apresentam métodos gerais, i.e. aplicáveis a qualquer parâmetro ou algoritmo, e ainda assim estes são desenvolvidos através de metodologias que permitem questionar a generalidade da proposta. Um ponto em comum entre estes métodos é a necessidade de um mecanismo robusto para se adaptar a qualquer cenário, demanda normalmente suprida por algoritmos de aprendizagem de máquina. Entre estas abordagens, os resultados mais promissores foram obtidos a partir de algoritmos de aprendizagem por reforço. Porém, a depender do algoritmo utilizado, a adição desta camada de controle pode elevar dramaticamente o custo computacional do sistema como um todo. Portanto, esta pesquisa busca explorar métodos gerais de controle paramétrico eficiente e auto-adaptativo para algoritmos evolucionários e baseados em enxames, através de aprendizagem por reforço com múltiplos agentes. Os múltiplos agentes devem explorar em paralelo o espaço de parâmetros do algoritmo de otimização, abrindo mão ou solicitando recursos computacionais quando necessário. Portanto, o sistema de controle deve ser capaz de escalar automaticamente, de maneira a usar eficientemente os recursos computacionais disponíveis em cada momento do processo de otimização. Além da evidente vantagem da exploração paralela do espaço de busca paramétrico, a troca de informações entre agentes deve permitir que o sistema aprenda melhor e mais rapidamente a controlar de maneira ótima os parâmetros do algoritmo em mãos, aumentando ainda mais o seu poder de otimização.

2
  • ANNA PRISCILLA DE ALBUQUERQUE
  • Toy User Interfaces

  • Leader : JUDITH KELNER
  • MEMBRES DE LA BANQUE :
  • JAELSON FREIRE BRELAZ DE CASTRO
  • MARCELO FANTINATO
  • BILL KAPRALOS
  • ANTHONY JOSÉ DA CUNHA CARNEIRO LINS
  • MIGUEL VARGAS MARTIN
  • Data: 1 juin 2021


  • Afficher le Résumé
  • Toys are play products primarily designed for leisure and social play activities. With the miniaturization and lower costs of processing circuits, toys have become capable of collecting and processing data in real-time (i.e., personal data and non-personal data). The entertainment industry refers to these play products as “smart toys.” Here we propose the idea of Toy-User-Interfaces (ToyUI) as a computing device or peripheral that leverage interactivity and connectivity with other gadgets to promote physical and social play. ToyUI is a new design trend that faces many practical challenges for both researchers and entrepreneurs. Practical challenges include how to understand hardware and software integration (to create efficient solutions), and how to assure privacy and security of data collection (to make these solutions safer). This Ph.D. thesis proposes a design method that aggregates a collection of theoretical and practical tools. The goals here are to support designers, developers, and engineers in creating ToyUI solutions backed by efficient and safer data collection. Development tools intervene since idea generation to idea selection, data modeling, rapid prototyping, and digital manufacture. Admittedly, these tools may benefit from being integrated into oriented methodological approaches. The first step of the research method consisted of performing both a systematic mapping and an industrial mapping. It allowed identifying six design and technology trends for ToyUI, to propose nine data patterns for data collection, and to elicit requirements for the development of rapid prototyping tools. A new design method was outlined to include the proposed tools, and then, to demonstrate their effectiveness, the method was assessed by 27 post-graduate students with background on Computer Science, Engineering, Design, and other related areas. Despite, little presence of smart toys in sub-developed countries, the proposed tools assisted them to design five ToyUI prototypes that were positively evaluated by end-users. Next steps include interviewing the students to perform improvements in the method and assuring data privacy and security models for the rapid prototyping tool. Ultimately, the current research findings may guide the future of ToyUI projects for both researchers and professionals.

3
  • NELSON GALVAO DE SA LEITAO JUNIOR
  • A Theory of Communication in Distributed Software Development Teams

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • SABRINA DOS SANTOS MARCZAK
  • ADRIANO BESSA ALBUQUERQUE
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • WYLLIAMS BARBOSA SANTOS
  • Data: 13 juil. 2021


  • Afficher le Résumé
  • A comunicação efetiva é um desafio significativo e persistente nas equipes 
    de Desenvolvimento Distribuído de Software. Pensando nisso, pesquisadores 
    têm dedicado tempo e esforço na construção de ferramentas e metodologias 
    que auxiliem na maior eficácia da comunicação nessas equipes. Ainda assim, 
    esse esforço não tem sido amparado por nenhuma teoria científica criada 
    para descrever o Fenômeno da Comunicação nesse contexto, apesar da 
    importância da comunicação nessas equipes. Teorias são importantes para os 
    pesquisadores, pois oferecem uma estrutura conceitual comum para apoiar 
    fatos e conhecimento, e pesquisadores da Ciência da Computação têm usado 
    teorias para apoiar suas intervenções, achados, hipóteses e procedimentos 
    metodológicos. Este estudo tem como objetivo descrever o fenômeno da 
    comunicação em equipes de Desenvolvimento Distribuído de Software por meio 
    da construção de uma teoria de comunicação. Ao atingir esse objetivo, este 
    estudo também visa estabelecer uma base teórica para estudos futuros na 
    academia e uma referência para a indústria e, assim, ajudar a mitigar o 
    caráter desafiador persistente da comunicação nas equipes de 
    Desenvolvimento Distribuído de Software. Este estudo está estruturado em um 
    delineamento metodológico de três etapas, a saber: Etapa 1 - a Consolidação 
    da Lacuna do Estudo, a partir de uma revisão exploratória e não extensa da 
    literatura; Etapa 2 - a Construção da Teoria, via Teoria Fundamentada por 
    completo, incluindo um extenso processo analítico; Etapa 3 - a Consolidação 
    da Teoria, com base em um Mapeamento Sistemático da Literatura, uma 
    atividade de posicionamento e um processo de avaliação. Os achados incluem 
    a teoria emergente que descreve o fenômeno da comunicação em equipes 
    distribuídas, denominada Teoria das Dimensões da Comunicação Distribuída. 
    Os achados também incluem os resultados do Mapeamento Sistemático e 
    considerações sobre o processo de posicionamento da teoria emergida na 
    literatura contemporânea. Além disso, os achados incluem os resultados da 
    avaliação da teoria, com base nos resultados de uma sessão de Grupo Focal e 
    considerações sobre três conjuntos de critérios de credibilidade. Nossa 
    principal conclusão é que o Fenômeno da Comunicação em Equipes de 
    Desenvolvimento Distribuído de Software é descrito por ações e construtos 
    multidisciplinares, representados por sete dimensões de comunicação e 34 
    componentes teóricos. Incluindo cultura, idioma, fusos horários, práticas, 
    reuniões, mídia, assim como construtos comportamentais e sociais.

4
  • FRANCISCO FERREIRA DE MENDONÇA JÚNIOR
  • Fogwise: gerenciamento de recursos computacionais em Redes Fog Veiculares através de leilões

  • Leader : KELVIN LOPES DIAS
  • MEMBRES DE LA BANQUE :
  • JO UEYAMA
  • ANTONIO ALFREDO FERREIRA LOUREIRO
  • CARLOS ANDRE GUIMARAES FERRAZ
  • JOSE AUGUSTO SURUAGY MONTEIRO
  • RENATO MARIZ DE MORAES
  • Data: 28 juil. 2021


  • Afficher le Résumé
  • Os dispositivos e aplicações da Internet das Coisas - Internet of Things 
    (IoT) - estão se proliferando e aumentando a necessidade de infraestruturas 
    de comunicação e de nuvem para lidar com o tráfego e com novas demandas por 
    serviços. Além disso, os veículos apresentam cada vez mais aplicações de 
    suporte à segurança dos usuários e entretenimento. Neste contexto, 
    identificamos um aumento na quantidade de infraestruturas, algoritmos e 
    mecanismos necessários para lidar com o avanço e integração das 
    tecnologias. Assim, esta tese propõe uma metodologia de gerenciamento de 
    recursos computacionais e de rede na Computação Fog Veicular - VEHICULAR 
    FOG COMPUTING (VFC) - através de Leilão Aberto de Primeiro Preço - ONE SHOT 
    OPEN FIRST PRICE AUCTION (OSOFPA). A análise e avaliação nos permitiram 
    identificar que existem condições de rede e computação específicas que 
    permitem o funcionamento da Fog Veicular com suporte à baixa latência. Tal 
    modelo de gerenciamento de recursos permite a integração dos dispositivos 
    de alta mobilidade, no caso veículos, à cadeia de computação que dá suporte 
    a aplicações de baixa latência. Além disso, propomos uma metodologia de 
    análise e investigação do funcionamento de veículos como servidores na VFC. 
    O algoritmo proposto se adequa especialmente àquelas que possuem um 
    funcionamento de acordo com um modelo de 
    Requisição-Processamento-Resposta-Atuação (RPRA). Para isso, desenvolvemos 
    e aperfeiçoamos modelos do funcionamento interno de dispositivos Edge/Fog, 
    identificando relações capacidade/carga; simulamos protocolos e mecanismos 
    de comunicação; além de determinar mecanismos e protocolos para o 
    gerenciamento de recursos, especialmente nos quesitos de gerenciamento de 
    aplicações e gerenciamento de descoberta. Por fim, estendemos e propomos 
    requisitos que devem ser atendidos pelas aplicações, e mecanismos de 
    decisão, tanto os existentes, quanto os propostos. Resultados apontam que 
    dois parâmetros são muito relevantes para que veículos participem como 
    servidores em VFC: densidade de veículos e taxa de mensagens da aplicação.

5
  • ERAYLSON GALDINO DA SILVA
  • Uma abordagem de seleção dinâmica de preditores baseada nas janelas temporais mais recentes

  • Leader : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBRES DE LA BANQUE :
  • HUGO VALADARES SIQUEIRA
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • PAULO RENATO ALVES FIRMINO
  • TIAGO ALESSANDRO ESPINOLA FERREIRA
  • TSANG ING REN
  • Data: 16 août 2021


  • Afficher le Résumé
  • O desenvolvimento de sistemas de previsão acurados para modelagem de séries 
    temporais do mundo real é uma tarefa desafiadora. Devido à presença de 
    padrões temporais que mudam ao longo do tempo, a adoção de um modelo único 
    pode levar a previsões de baixa acurácia. Nesse cenário, Sistemas de 
    Múltiplo Preditores (SMP) surgem como uma alternativa promissora. A seleção 
    dinâmica de preditores é um caso especial de SMP, onde cada modelo é um 
    especialista em padrões específicos da série temporal. Na seleção dinâmica 
    os modelos mais competentes são selecionados para cada novo padrão de 
    teste. Um critério frequentemente utilizado é avaliar o desempenho dos 
    modelos na região de competência, formada pelos padrões (presentes nos 
    conjuntos de treinamento ou validação) mais similares ao padrão de teste. A 
    qualidade da região de competência é um fator chave na precisão do SMP. 
    Porém, definir adequadamente a medida de similaridade e o tamanho da região 
    de competência é um desafio. Além disso, não há garantia de que existam 
    padrões similares no conjunto de treinamento ou validação. Esta tese propõe 
    uma abordagem de seleção dinâmica intitulada Dynamic Selection based on the 
    Nearest Windows (DSNAW) que escolhe um ou mais modelos de acordo com seu 
    desempenho na região de competência composta pelas janelas que antecedem à 
    nova janela da observação de teste. Essa estratégia assume que as janelas 
    temporais mais próximas do novo padrão de teste têm um comportamento mais 
    similar à observação a ser predita do que os dados de treinamento. O estudo 
    experimental utilizando dez séries temporais mostrou que a abordagem 
    proposta supera as abordagens da literatura, consolidando-a como uma nova 
    abordagem para seleção dinâmica de preditores.

6
  • TERCIO DE MORAIS SAMPAIO SILVA
  • Multi-Cloud Aware Middleware.

  • Leader : NELSON SOUTO ROSA
  • MEMBRES DE LA BANQUE :
  • FERNANDO ANTONIO AIRES LINS
  • KIEV SANTOS DA GAMA
  • NABOR DAS CHAGAS MENDONCA
  • PAULO ROMERO MARTINS MACIEL
  • VINICIUS CARDOSO GARCIA
  • Data: 23 août 2021


  • Afficher le Résumé
  • A ideia de colaboração entre nuvens surgiu para tratar de limitações relacionadas à adoção de uma única nuvem. Do ponto de vista do desenvolvedor, aplicações distribuídas podem tirar proveito de ambientes multi-cloud para criar, estender e integrar seus componentes em várias nuvens de forma dinâmica, automática e transparente, além de melhorar a qualidade no suporte a requisitos de qualidade, como disponibilidade, desempenho e escalabilidade.

     

    No entanto, a complexidade do gerenciamento aumenta substancialmente neste cenário, cuja responsabilidade é do desenvolvedor. Apesar dos esforços de padronização dos serviços, a maioria dos aplicativos não exploram os benefícios de várias nuvens (por exemplo, elasticidade). Problemas como interoperabilidade, limites administrativos e escalabilidade concentram-se em nível IaaS, ignorando aplicações que rodam acima da camada de infraestrutura.

     

    Middleware pode beneficiar significativamente o desenvolvimento e gerenciamento de aplicações distribuídas em ambientes multi-cloud de forma transparente, tirando proveito de serviços de nuvens como elasticidade. Middleware fornece flexibilidade de desenvolvimento, implantação e gerenciamento de aplicações. Porém, plataformas tradicionais de middleware não são desenvolvidas para ambientes dinâmicos como computação em nuvens.

     

    Este trabalho apresenta uma arquitetura de middleware para aplicações distribuídas em ambientes multi-cloud – Multi-Cloud Aware Middleware (M-CaMid). A arquitetura combina funcionalidades de middleware com serviços de IaaS para o gerenciamento de aplicações distribuídas em ambientes multi-cloud. M-CaMid tira proveito da elasticidade para o gerenciamento transversal que integra camadas de infraestrutura e software (vertical) e múltiplas nuvens (horizontal), permitindo uma visão holística do sistema distribuído e proporcionando melhor desempenho e maior precisão no uso racional de recursos das nuvens.

     

    Experimentos realizados avaliaram o ganho de desempenho de aplicações distribuídas,bem como o uso racional de recursos de infraestrutura, demonstrando os benefícios do uso da elasticidade de múltiplas nuvens.

     

    As contribuições desta tese são: (i) arquitetura de middleware para o gerenciamento de aplicações distribuídas em ambientes de múltiplas nuvens; (ii) gerenciamento transversal, integrando as várias camadas de um sistema distribuído e integrando várias nuvens; e(iii) o uso da elasticidade em um ambiente multi-cloud.

7
  • ROHGI TOSHIO MENESES CHIKUSHI
  • Aplicando ferramentas de análise de séries temporais não lineares para a detecção de mudanças de conceito no contexto do aprendizado adaptativo supervisionado

  • Leader : ROBERTO SOUTO MAIOR DE BARROS
  • MEMBRES DE LA BANQUE :
  • JEAN PAUL BARDDAL
  • JOÃO ROBERTO BERTINI JUNIOR
  • GERMANO CRISPIM VASCONCELOS
  • PAULO MAURICIO GONÇALVES JUNIOR
  • WILSON ROSA DE OLIVEIRA JUNIOR
  • Data: 25 août 2021


  • Afficher le Résumé
  • Atualmente, algoritmos de Aprendizado de Máquina são aplicados em diversos 
    domínios para a extração de informação em grandes volumes de dados. Apesar 
    de modelos consolidados lidarem de forma efetiva com dados identicamente e 
    independentemente distribuídos (i.i.d.), algoritmos aplicados a fluxos de 
    dados devem lidar com distribuições não estacionárias. O desafio é manter 
    um modelo de decisão atualizado, preciso e consistente, mesmo sujeito a 
    mudanças nas distribuições de probabilidade dos dados, um fenômeno 
    conhecido como mudança de conceito. Neste contexto, os algoritmos combinam 
    um classificador e um detector para identificar mudanças na distribuição do 
    erro das predições a fim de adaptar ou substituir rapidamente o modelo 
    preditivo. Diversas propostas têm sido apresentadas na literatura para a 
    detecção de mudanças de conceito com base na taxa de erro dos modelos 
    preditivos. Em geral, a distribuição da taxa de erro fundamenta a maioria 
    das abordagens baseadas em metodologias como a análise sequencial, o 
    controle estatístico do processo, ou pelo monitoramento das distribuições 
    por meio de janelas deslizantes, as quais assumem que os erros de predição 
    são gerados de forma independente. Apesar da vasta aplicação desses 
    detectores, estudos empíricos têm mostrado que a taxa de erro pode ser 
    influenciada pela dependência temporal. Além disso, abordagens 
    supervisionadas requerem dados rotulados, os quais podem ser difíceis de 
    obter em muitas aplicações do mundo real. Nesta tese, ferramentas da 
    Análise Não Linear de Séries Temporais foram utilizadas com o objetivo de 
    prover detectores não restritos ao pressuposto de observações i.i.d., e 
    mais apropriados para lidar com fluxos de dados sujeitos à dependência 
    temporal.
    Neste sentido, foram propostos três detectores: Spectral Entropy Drift 
    Detector (SEDD), Permutation Entropy Drift Detector (PEDD), e Recurrence 
    Quantification Analysis Drift Detector (RQADD). Também foi proposta uma 
    abordagem de rotulação simbólica (Symbolic Labeling Adapter (SLA)) com o 
    intuito de expandir a aplicação de modelos adaptativos supervisionados a 
    domínios onde fluxos de dados não são rotulados, visando a detecção de 
    mudanças de conceito. Diversos experimentos computacionais usando bases de 
    dados reais e artificiais mostram que os detectores propostos foram 
    competitivos na maioria dos cenários, e que a abordagem de rotulação é uma 
    ferramenta promissora.

8
  • ANY CAROLINY DUARTE BATISTA
  • QUALIDADE DO TRABALHO EM EQUIPE NO DESENVOLVIMENTO DE SOFTWARE: UMA ABORDAGEM MULTIMÉTODO

  • Leader : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBRES DE LA BANQUE :
  • MARCOS KALINOWSKI
  • ANDRE LUIS DE MEDEIROS SANTOS
  • GEORGE MARSICANO CORRÊA
  • HERMANO PERRELLI DE MOURA
  • ROBERTA ANDRADE DE ARAÚJO FAGUNDES
  • Data: 25 août 2021


  • Afficher le Résumé
  • Contexto: Nas organizações, o desenvolvimento de software integra duas 
    formas complementares de design do trabalho. Por um lado, indivíduos 
    desenvolvem tarefas que cobrem as necessidades técnicas do desenvolvimento: 
    requisitos, especificação, codificação, teste, documentação, etc. Por outro 
    lado, membros das equipes de software precisam desenvolver atividades 
    sociais necessárias para que atividades individuais sejam integradas com 
    efetividade: comunicação, coordenação, resolução de conflitos, etc. Então, 
    efetividade com que equipes conseguem desenvolver estas atividades sociais 
    podem impactar na produtividade e refletir na qualidade do software 
    produzido. Apesar da efetividade do trabalho em equipe ter uma extensa 
    literatura em outras áreas e até mesmo na engenharia de software, estes 
    estudos têm produzido pouco impacto prático no gerenciamento de equipes em 
    organizações. Diversos problemas teórico-metodológicos particularmente 
    associados à natureza do trabalho de software resumido acima podem explicar 
    este baixo impacto.
    Objetivos: Este estudo foi desenvolvido a partir de uma teoria sobre a 
    qualidade do trabalho em equipe no desenvolvimento de software existente na 
    literatura (doravante denominada TWQ). Neste processo, foram conduzidas 
    duas replicações diferenciadas de estudos anteriores sobre TWQ com o 
    objetivo de expandir os contextos em que o TWQ foi aplicado e construindo 
    discussões inovadoras sobre o método de coleta e a análise dos resultados 
    quantitativos em estudos sobre equipes. Apresentamos um desenho de pesquisa 
    diferenciado dos demais estudo sobre TWQ encontrados na literatura e também 
    buscamos contribuir a validação do instrumento de medição de TWQ, com base 
    em técnicas validadas na literatura. Além disso, objetivamos apresentar os 
    resultados de um estudo de natureza qualitativa, realizado para investigar 
    como equipes que trabalham dentro de um mesmo contexto organizacional 
    constroem visões heterogêneas sobre o seu trabalho colaborativo.
    Método: O estudo se desenvolveu a partir de três estudos; dois 
    quantitativos e um qualitativo. Os quais ocorreram ao longo dois anos e 
    meio. Participaram do estudo 18 equipes de desenvolvimento de software de 
    uma empresa localizada em Recife, PE. O estudo completo contou com diversas 
    características inovadoras de design, tais como: foram coletados dados de 
    todos os membros de cada equipe participante, o que é inovador em estudo 
    sobre TWQ; o estudo foi realizado em uma única empresa, o que ajuda a 
    bloquear as possíveis influências de fatores de nível organizacional nas 
    medidas de nível de equipe; as hipóteses foram testadas tanto no nível 
    individual quanto no nível da equipe, o que também é inovador no campo de 
    estudos sobre TWQ; este foi o primeiro estudo utilizando TWQ com uma versão 
    traduzida do instrumento e no contexto brasileiro. Por fim, completamos 
    nosso estudo com a apresentação de uma pesquisa qualitativa, realizada por 
    meio de observações e entrevistas semi-estruturadas, as quais foram 
    analisados com base em técnicas de codificação da ground theory.
    Resultados: Esta tese permitiu ampliar o estado da arte sobre estudos sobre 
    TWQ utilizando equipes de software como unidade de análise. Neste processo, 
    construímos uma discussão que melhora a compreensão sobre análise 
    multinível de equipes através da utilização de métodos estatísticos. Também 
    contribuímos com a revisão do instrumento de TWQ, que foi refinado a partir 
    do uso de técnicas validadas na literatura. Por fim, fornecemos um conjunto 
    de fatores relacionados a três dimensões (práticas e processos, 
    relacionamentos interno e relacionamentos externos) que contribuem, de 
    diferentes formas, para a construção de percepções com efeitos positivos ou 
    negativos na TWQ de desenvolvimento de software.
    Conclusões: Nesta tese, foram levantadas discussões importantes sobre a 
    validade da agregação de dados individuais às medidas de nível de equipe em 
    relação aos construtos estudados. Nossos resultados apoiaram parcialmente 
    estudos anteriores, mas levantaram questões sobre a validade da agregação 
    de dados individuais às medidas de nível de equipe dos construtos 
    estudados. Também revisamos a estrutura do instrumento de TWQ e 
    apresentamos um desenho de pesquisa inovador para estudos que utilizam 
    equipes como unidades de análise que podem ser utilizados em pesquisas 
    futuras. Além disso, identificamos um conjunto de situações que podem ser 
    estimuladas ou minimizadas por gerentes de projetos, enquanto agentes 
    moderadores, da gestão de práticas que podem impactar na TWQ na engenharia 
    de software.

9
  • ALEXANDRE CARDOSO FONTINELE
  • Algoritmos RMLSA cientes de Imperfeições de Camada Física em Redes Ópticas Elásticas.

  • Leader : DIVANILSON RODRIGO DE SOUSA CAMPELO
  • MEMBRES DE LA BANQUE :
  • PAULO ROMERO MARTINS MACIEL
  • NELSON SOUTO ROSA
  • RAUL CAMELO DE ANDRADE ALMEIDA JUNIOR
  • ANDRÉ COSTA DRUMMOND
  • GUSTAVO BITTENCOURT FIGUEIREDO
  • Data: 31 août 2021


  • Afficher le Résumé
  • Redes ópticas elásticas são uma tecnologia promissora para o futuro das redes de transporte de alta capacidade. Suas características proporcionam flexibilidade e escalabilidade na alocação de espectro, acompanhando a demanda crescente do tráfego de Internet. Para este tipo de rede é necessário prover mecanismos que garantam a sua disponibilidade mesmo após a ocorrência de uma falha. É importante também garantir a qualidade do sinal óptico, que tende a se degradar pelos efeitos de camada física. Esta tese aborda o problema de roteamento, seleção de formato de modulação e alocação de espectro (RMLSA - Routing, Modulation Level, and Spectrum Assignment) em redes ópticas elásticas considerando capacidade de sobrevivência, limitações de camada física e consumo de energia nestas redes. Nesta tese, são propostos três algoritmos que levam em consideração imperfeições de camada física (IA-RMLSA - Impairment-Aware RMLSA) em redes ópticas elásticas. O primeiro deles, Spectrum Assignment with Interference Minimization (SAIM), consiste em um novo algoritmo de alocação de espectro, que busca selecionar faixas de espectro livre que causem menos interferências nos outros circuitos já ativos na rede. O segundo algoritmo, Energy Aware Modulation Dedicated Path Protection (EAMDPP), consiste em uma proposta de um novo algoritmo de proteção dedicada ciente do consumo de energia. O algoritmo busca selecionar os formatos de modulação que deixam os circuitos mais resistentes à interferência de outros circuitos e que consomem menos energia. O terceiro algoritmo proposto, Power Assignment by Binary Search (PABS), baseia-se no método de busca binária para realizar a atribuição de potência por circuito. Foram realizadas avaliações de desempenho mediante simulação computacional para comparar os algoritmos propostos nesta tese com outros algoritmos presentes na literatura. Os resultados da avaliação de desempenho mostram que os três algoritmos propostos nesta tese alcançaram desempenho superior em relação aos outros algoritmos presentes na literatura em termos de probabilidade de bloqueio de banda. O algoritmo SAIM levou a uma redução na probabilidade de bloqueio de banda em relação aos outros algoritmos que varia de 2% a 55%. O algoritmo EAMDPP alcançou uma redução que varia de 12% a 46%. A redução alcançada pelo PABS varia de 39% a 83%.

10
  • CLEBER MATOS DE MORAIS
  • Trigramas - Concepção de Infográficos de domínio específico para auxiliar atomada de decisão no contexto de saúde pública no Brasil: uma pesquisa-ação.

  • Leader : JUDITH KELNER
  • MEMBRES DE LA BANQUE :
  • VANDERSON DE SOUZA SAMPAIO
  • WUELTON MARCELO MONTEIRO
  • CARMEN SIMONE GRILO DINIZ
  • ALUIZIO FAUSTO RIBEIRO ARAUJO
  • JAELSON FREIRE BRELAZ DE CASTRO
  • Data: 31 août 2021


  • Afficher le Résumé
  • Esta tese de doutorado apresenta uma pesquisa-ação sobre desenvolvimento de 
    sistemas de visualização para o universo do Sistema Único de Saúde (SUS) do 
    Brasil. A pesquisa-ação foi escolhida como método devido a complexidade e 
    inter-relação do SUS. A inter-relação das entidades do SUS é bem complexa, 
    incluindo esferas municipais, estaduais e federais. Essa pesquisa criou as 
    condições reais para realização de uma pesquisa-ação, com stakeholders e 
    contribuições reais ao longo do processo de desenvolvimento. A pesquisa 
    inicial foi concentrada em sífilis gestacional e sífilis congênita. Mas 
    durante operíodo de investigação, uma oportunidade de parceira ampliou o 
    escopo das visualizações para malária também. Todas as instituições 
    envolvidas possuem sistemas de registro de notificações das condições 
    abordadas. Assim, a premissa inicial é a produção de informações sob base 
    de dados pré-existentes, sem a necessidade de alteração no processode 
    registro de dados e formulários dessas instituições. O processo de 
    desenvolvimento foi realizado usando ciclos iterativos de desenvolvimento 
    (CHECKLAND, 1999). Cada contexto teve um desenvolvimento específico e 
    nuances. Mas, como esse desenvolvimento tem um domínio em comum e os ciclos 
    aconteceram em paralelo, houve muitas transferências de aprendizagem entre 
    os ciclos. Durante o processo de desenvolvimento, foram criadas duas formas 
    de visualização infográfica: o trigrama sífilis e o trigrama malária. Ambos 
    possuem uma estrutura similar, mas atuam sobre contextos totalmente 
    diversos e com elementos visuais diferentes. Essas representações visuais 
    foram implementadas num sistema de visualização. Cada base de dados teve 
    desafios de análise e processamento diferentes, mas sem transformar o 
    processo de coleta de dados obtidos dos parceiros. Esse sistema foi 
    construído com os stakeholders e validado a cada incremento. Ao final, 
    foram entregues às instituições parceiras sistemas de visualização 
    infográfica que auxiliam o entendimentode cada fenômeno analisado, 
    considerando seus domínios específicos. A principal contribuição desse 
    trabalho é a proposição dos infográficos de domínio específicos para saúde. 
    Esses infográficos são representações quantitativas que permitem, através 
    de uma síntese visual, entender um fenômeno em saúde tanto na escala macro 
    como na micro. O grande diferencial dessa visualização é permitir essa 
    mudança de escopo(macro e micro) no mesmo contexto visual para auxiliar os 
    usuários a investigarem fenômenos complexos através de visualizações 
    consistentes e comparáveis. Assim, além de ter uma ideia geral sobre uma 
    amostra, os usuários podem ver e entender os motivadores individuais que 
    possam influenciar o resultado geral. Essas visualizações geraram novas 
    informações e formas de análise para os stakeholders, permitindo uma maior 
    e melhor compreensão dos dados dos sistemas por eles utilizados.

11
  • MAIGAN STEFANNE DA SILVA ALCÂNTARA
  • Categorias Relacionais para Computação Quântica

  • Leader : SILVIO DE BARROS MELO
  • MEMBRES DE LA BANQUE :
  • ADENILTON JOSÉ DA SILVA
  • ANTONIO MURILO SANTOS MACEDO
  • LEON DENIS DA SILVA
  • REGIVAN HUGO NUNES SANTIAGO
  • THIAGO DIAS OLIVEIRA SILVA
  • Data: 3 sept. 2021


  • Afficher le Résumé
  • Propomos um estudo sistemático das categorias relacionais como modelos da 
    computação quântica através da abordagem categórica de Coecke-Abramsky. As 
    categorias relacionais são aquelas que os objetos ou os morfismos são 
    relações. Esses modelos são importantes para o desenvolvimento da ciência 
    da computação quântica porque nos fornecem uma linguagem abstrata para 
    descrever processos quânticos. Isso nos dá um alto nível de compreensão de 
    como a teoria quântica funciona e o que podemos fazer com ela. Além disso, 
    é interessante explorar modelos que generalizem a teoria quântica e a 
    relacionem com outras teorias. As categorias compacta dagger foram 
    aplicadas com sucesso nos fundamentos da mecânica quântica em geral. 
    Investigamos as propriedades categóricas dos espaços de Chu como um modelo 
    para a mecânica quântica categórica e, especificamente, como modelos para a 
    computação quântica. Definimos duas categorias com base nos espaços de Chu, 
    ChuRel e RelChu, e provamos que elas são modelos categóricos robustos para 
    computação quântica. Mais precisamente, mostramos que a categoria ChuRel é 
    uma categoria compacta dagger e possui duas estruturas de base 
    complementares, semelhantes à conhecida categoria de conjuntos e relações 
    finitos, FRel, utilizada na literatura. Mostramos também que a categoria 
    dos espaços de Chu é uma categoria regular, portanto é possível obter a 
    categoria RelChu, por meio da construção geral de Heunen e Tull, e explorar 
    suas propriedades quânticas. Além disso, esse trabalho revisa quatro 
    categorias de relações L-fuzzy, cada uma modelando áreas onde a teoria dos 
    conjuntos fuzzy pode ser aplicada. Uma relação L-fuzzy é uma relação 
    valorada em um reticulado completo L com uma estrutura monoidal. Revisamos 
    as noções dessas relações binárias multi-valoradas e apresentamos algumas 
    propriedades básicas das categorias correspondentes visando aplicações em 
    áreas como ciência da computação, lógica linear e mecânica quântica. A 
    ênfase está nos aspectos monoidais das categorias. As categorias monoidais 
    são um dos tipos de categorias mais aplicadas. Uma visão monoidal das 
    relações fuzzy pode ampliar o espectro de aplicações da teoria dos 
    conjuntos fuzzy.

12
  • CARLOS ALEXANDRE SILVA DE MELO
  • Planejamento de infraestruturas computacionais para o provimento de serviços baseados em blockchain

  • Leader : PAULO ROMERO MARTINS MACIEL
  • MEMBRES DE LA BANQUE :
  • VIRGILIO AUGUSTO FERNANDES ALMEIDA
  • GUSTAVO RAU DE ALMEIDA CALLOU
  • JO UEYAMA
  • KELVIN LOPES DIAS
  • NELSON SOUTO ROSA
  • Data: 10 sept. 2021


  • Afficher le Résumé
  • Através da ascensão das redes ponto-a-ponto nos tornamos detentores de grandes poderes e responsabilidades no processo de provimento de serviços através da Internet. Até então nosso alcance era unidirecional, uma limitação inerente ao modelo cliente-servidor adotado pela grande maioria dos serviços em operação na Grande Rede, agora, graças ao uso de aplicações como o BitTorrent, somos capazes de nos tornar verdadeiros provedores de conteúdo, adicionando um nível extra de complexidade a uma rede outrora estática. Uma das precursoras da mais recente evolução no âmbito de redes ponto-a-ponto são as tecnologias baseadas em registro distribuído, como as blockchains, que permitem a seus usuários serem os auditores, executores e clientes que submetem as mais diversas transações a um enorme ecossistema interconectado. Todavia, assim como em modelos tradicionais de prestação de serviços através da Internet, faz-se necessária a quantificação de sua viabilidade, seja a nível pessoal ou empresarial. A presente tese de doutorado avalia e apresenta um conjunto de modelos formais para avaliação de disponibilidade e confiabilidade de infraestruturas computacionais capazes de hospedar aplicações baseadas em blockchain. Além disso, apresentamos os custos associados à implantação e manutenção dessas infraestruturas, bem como, a sua respectiva avaliação de desempenho, visando o estabelecimento de uma relação de performabilidade entre as 
    métricas citadas. Dentre os resultados obtidos, podemos citar o impacto das políticas de endossamento sobre os custos de manutenção, disponibilidade e confiabilidade das infraestruturas avaliadas, além de pontuar possíveis gargalos e limitadores do sistema através da aplicação de análise de sensibilidade.

13
  • TATYANE SOUZA CALIXTO DA SILVA
  • Skills-CT: Um Modelo para Classificação dos Estágios Cognitivos das Habilidades do Pensamento Computacional e Desenvolvimento da Aprendizagem Criativa

  • Leader : PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • MEMBRES DE LA BANQUE :
  • CLAUDIA LAGE REBELLO DA MOTA
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • DANIELLE ROUSY DIAS RICARTE
  • GEBER LISBOA RAMALHO
  • MARIA AUXILIADORA SOARES PADILHA
  • Data: 10 sept. 2021


  • Afficher le Résumé
  • O Pensamento Computacional (PC) envolve resolução de problemas utilizando 
    modelos, abstrações, organização e decomposição dos mesmos de forma 
    algorítmica.  A resolução de problemas se enquadra na estrutura do 
    Pensamento Computacional cognitivo, pois visa fornecer aos discentes uma 
    compreensão dos principais conceitos computacionais, práticas e 
    perspectivas, enfatizando assim a construção de habilidades e competências 
    que serão úteis na faculdade e em futuras carreiras. Estes elementos, por 
    sua vez, impõem aos sujeitos uma habilidade pouco explorada em processos 
    tradicionais de ensino-aprendizagem: a Criatividade.  A Criatividade se 
    torna relevante por promover a integração do fazer e do ser, fazendo com 
    que o indivíduo use suas competências com o intuito de transformar para 
    melhor o mundo que os cerca. Diante deste panorama, o presente trabalho 
    traz um estudo cujo objetivo é compreender a relação dos Pilares do 
    Pensamento Computacional, dos  Níveis  Cognitivos e das habilidades do 
    Pensamento Computacional no processo de resolução criativa de problemas. 
    Essa correlação  tem o intuito de auxiliar o ensino e aprendizagem de 
    programação, bem como fornecer aos docentes uma maneira de avaliar e 
    compreender como os estudantes desenvolvem as habilidades do PC. O processo 
    de ensino de programação deve envolver a resolução de problemas, com base 
    em conceitos como associação, avaliação, atribuição, chamada de 
    procedimento e passagem de parâmetros.  Para tanto, foi elaborado o   
    Skills-CT. O Skills-CT é um Modelo Conceitual que  relaciona os Pilares do 
    Pensamento Computacional, classifica os estágios cognitivos para cada 
    Habilidade do PC, para resolução criativa de problemas em programação. O 
    Skills-CT foi aplicado em uma turma de um curso profissionalizante em 
    Desenvolvimento de Software com o objetivo de classificar os estágios 
    cognitivos dos alunos em cada habilidade do PC e analisar em qual os 
    estudantes possuem menor desenvolvimento, para criar atividades que possam 
    ajudar a amenizar essas dificuldades. Adicionalmente, o Skills-CT verificou 
    qual é o(s)  Pilar (es) do PC no qual os alunos possuem dificuldade. Os 
    resultados da pesquisa apontam a relevância da utilização do Skills-CT no 
    desenvolvimento das Habilidades do PC e dos estágios cognitivos e resolução 
    criativa dos problemas, indicando que o mesmo influenciou positivamente a 
    aprendizagem de programação por parte dos estudantes, o que pode ser 
    constatado nos programas por eles desenvolvidos. Adicionalmente, 
    apresentamos um guia para o ensino de programação e estratégias   
    consideradas significativas para auxiliar os alunos na solução criativa de 
    problemas.

14
  • TIAGO MENDONÇA LUCENA DE VERAS
  • Circuit-based quantum random access memory for sparse quantum state preparation.

  • Leader : RUY JOSE GUERRA BARRETTO DE QUEIROZ
  • MEMBRES DE LA BANQUE :
  • FRANKLIN MARQUEZINO
  • ANTONIO MURILO SANTOS MACEDO
  • FERNANDO MACIANO DE PAULA NETO
  • LEON DENIS DA SILVA
  • TIAGO ALESSANDRO ESPINOLA FERREIRA
  • Data: 13 sept. 2021


  • Afficher le Résumé
  • Carregar dados clássicos em um dispositivo quântico é necessário em muitas 
    aplicações atuais. Além disso, muitos algoritmos precisam recarregar o 
    estado inicial várias vezes durante sua execução. Portanto, a tarefa de 
    obter um estado quântico adequado para ser utilizado como estado inicial de 
    um algoritmo quântico, onde este estado é preparado de forma eficiente é 
    uma etapa essencial no desenvolvimento de algoritmos quânticos eficientes. 
    O custo para inicializar um estado quântico pode comprometer o 
    funcionamento do algoritmo se este processo não for realizado de forma 
    eficiente.

    A preparação de estados quânticos é um tópico da computação quântica que 
    tem concentrado bastante atenção nos dias atuais, dentro deste tema a 
    preparação de estados quânticos esparsos é um problema mais específico e 
    ainda em aberto, uma vez que muitos algoritmos quânticos também precisam de 
    uma inicialização esparsa. Esta tese tem como objetivo apresentar os 
    resultados obtidos na pesquisa realizada no campo de preparação de estados 
    quânticos esparsos, onde foram desenvolvidos três algoritmos.

    O primeiro é o algoritmo FFP-QRAM Pré-processado, um algoritmo 
    probabilístico capaz de preparar um estado quântico com amplitudes 
    contínuas, exigindo uma pós-seleção. Este algoritmo realiza um 
    pré-processamento nas amplitudes do padrão de entrada e, em seguida, usa a 
    primeira parte do algoritmo PQM (TRUGENBERGER, 2001) para preparar o estado 
    inicial do algoritmo FF-QRAM (PARK; PETRUCCIONE; RHEE,2019). Combinando o 
    pré-processamento de dados com os algoritmos PQM e FF-QRAM, melhoramos a 
    probabilidade de pós-seleção em comparação com o FF-QRAM.

    O segundo é o algoritmo CV-QRAM, um algoritmo capaz de preparar um estado 
    quântico com amplitudes contínuas, sem pós-seleção, a partir de padrões de 
    entrada do tipo (𝑥_𝑘,𝑝_𝑘) onde 𝑥_𝑘 são amplitudes complexas associadas aos 
    padrões 𝑝_𝑘 ∈ {0,1}^n. O algoritmo CV-QRAM (VERAS et al., 2020) foi 
    construído com base no algoritmo FF-QRAM (PARK; PETRUCCIONE; RHEE, 2019), 
    que é um algoritmo de preparação de estado quântico que pode carregar 𝑀 
    padrões de bits 𝑛 com custo computacional 𝒪(𝐶𝑀𝑛) para carregar dados 
    contínuos, onde𝐶depende da distribuição dos dados. No CV-QRAM propomos uma 
    estratégia para carregar dados contínuos com custo computacional 𝒪(𝑀𝑛), 
    eliminando a pós-seleção e obtendo seus melhores resultados na preparação 
    de estados quânticos esparsos.

    O terceiro é o algoritmo CVO-QRAM, ele é uma otimização CV-QRAM e foi 
    construído com o objetivo principal de reduzir o número de portas CNOT 
    necessárias na preparação de um estado quântico, quando comparado ao 
    algoritmo CV-QRAM (VE-RAS et al., 2020), uma vez que o ruído causado por 
    essas portas torna o resultado mais suscetível a erros. CVO-QRAM provou ser 
    mais eficiente do que CV-QRAM em todos os cenários para a preparação de 
    estado quântico. O algoritmo CVO-QRAM obteve um custo computacional 
    de 𝒪(𝑘𝑀), para preparar um estado quântico onde 𝑀 é o número de amplitudes 
    de probabilidade diferentes de zero, e 𝑘 é o número máximo de bits com 
    valor 1 na string binária dos padrões que serão armazenados.

    Quando o estado quântico desejado é esparso, o CVO-QRAM algoritmo obteve 
    resultados competitivos em comparação à outros algoritmos eficientes já 
    conhecidos (SHENDE;BULLOCK; MARKOV, 2006)(MÖTTÖNEN et al., 2005) (PLESCH; 
    BRUKNER, 2011). Quando o estado quântico desejado possuir um grande número 
    de qubits e for duplamente esparso (no número de amplitudes e no número de 
    1s em cada 𝑝𝑘), o CVO-QRAM apresentou resultados promissores em comparação 
    com o estado quântico esparso algoritmo de preparação proposto em 
    (MALVETTI; ITEN; COLBECK, 2021).

15
  • DORGIVAL PEREIRA DA SILVA NETTO
  • Factors influencing companies for reducing ambiguity in legal requirements specification and achieving their compliance with data protection laws.

  • Leader : CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • MEMBRES DE LA BANQUE :
  • ALBERTO MANUEL RODRIGUES DA SILVA
  • JAELSON FREIRE BRELAZ DE CASTRO
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • MARCIA JACYNTHA NUNES RODRIGUES LUCENA
  • MARCOS KALINOWSKI
  • Data: 29 oct. 2021


  • Afficher le Résumé
  • A Linguagem Natural é utilizada principalmente para especificar requisitos de software, mas traz desafios, pois tende a produzir especificações ambíguas. Estes desafios tornam-se maiores quando se trata de requisitos de software que devem estar em conformidade com legislações, chamados de requisitos legais. Especificação de requisitos ambígua pode fazer com que o sistema não atenda aos desejos dos stakeholders e/ou não esteja em conformidade com a legislação. As abordagens existentes da Engenharia de Requisitos tem como objetivo tratar a ambiguidade e/ou obter a conformidade legal não são baseadas no conhecimento que emergiu de estudos empíricos conduzidos na indústria de desenvolvimento de software. Objetivo: O objetivo desta tese é superar essa limitação fornecendo um conjunto de fatores que auxiliam ou prejudicam as práticas para reduzir a ambiguidade na especificação de requisitos legais e obter especificações em conformidade com leis de proteção de dados. Método: Para alcançar o objetivo, inicialmente realizamos um estudo amplo na literatura para caracterizar o panorama da engenharia de requisitos legais em relação à privacidade e segurança. Em seguida, realizamos uma análise de trabalhos que desenvolveram abordagens para lidar com ambiguidade na especificação de requisitos legais. Então, investigamos como o problema é tratado pela indústria de desenvolvimento de software através de um estudo exploratório baseado em entrevistas semiestruturadas com vinte e dois profissionais de empresas públicas e privadas. Os dados coletados a partir das entrevistas foram analisados utilizando técnicas de teoria fundamentada. Identificamos fatores e esboçamos uma teoria explicando o relacionamento entre esses fatores e como eles contribuem para a redução da ambiguidade na especificação de requisitos legais e a conformidade de tais requisitos com leis de proteção de dados. Resultados: Os resultados das entrevistas revelam que as discussões entre a equipe, o cliente e as áreas de suporte especializado (Setor Jurídico, setor de Análise de Ambiguidade, setor de Anonimização), a consulta a membros experientes da equipe com conhecimento do domínio reduzem a ambiguidade e favorecem a conformidade legal nas especificações de requisitos. Conclusão: A teoria que emergiu das entrevistas explica um conjunto de fatores influenciando as práticas de trabalho utilizadas por empresas públicas e privadas para lidar com a ambiguidade na especificação de requisitos legais e o alcance da conformidade com as legislações. Estes fatores podem ser usados por ambos, pesquisadores e profissionais, para alavancar os métodos e ferramentas que desenvolvem ou utilizam para apoiar a especificação de requisitos legais.

16
  • IALLEN GÁBIO DE SOUSA SANTOS
  • Soluções para Alocação de Recursos e Planejamento em Redes Ópticas Elásticas.

  • Leader : JOSE AUGUSTO SURUAGY MONTEIRO
  • MEMBRES DE LA BANQUE :
  • WILLIAM FERREIRA GIOZZA
  • ANDRÉ COSTA DRUMMOND
  • DJAMEL FAWZI HADJ SADOK
  • PAULO ROMERO MARTINS MACIEL
  • RAUL CAMELO DE ANDRADE ALMEIDA JUNIOR
  • Data: 19 nov. 2021


  • Afficher le Résumé
  • As Elastic Optical Networks (EONs) são apontadas como uma tecnologia 
    promissora para substituir as atuais redes ópticas baseadas em Wavelenght 
    Division Multiplexing (WDM) nos backbones das redes de transporte. Em 
    comparação às tradicionais redes ópticas com grade fixa, as EONs permitem 
    melhor aproveitamento dos recursos espectrais. A implementação das EONs 
    traz novos desafios e atualiza alguns já existentes nas redes ópticas com 
    grade fixa, entre eles estão: O dimensionamento e distribuição de Bandwidth 
    Variable Transponders (BVTs), soluções para o problema Routing, Modulation 
    and Spectrum Allocation (RMSA) e soluções para agregação de tráfego. Neste 
    trabalho, estes problemas foram investigados e foram propostas as seguintes 
    soluções: Fitting the Number of BVTs by Node based on Average Utilization 
    (FNBN), K Balanced Paths (KBP), Multihop Traffic Grooming algorithm based 
    on Auxiliary Graph (MTGAG),Weight Adjustment with Multilayer Perceptron 
    Network (WAMLP), Weight Adjustment with Simulated Annealing (WASA) e 
    Spectrum Spacing for Traffic Grooming (SSTG). As soluções propostas foram 
    comparadas à propostas encontradas na literatura. De maneira geral, os 
    experimentos mostram que as soluções propostas promovem redução na Bloqueio 
    de Banda (BB) o que por sua vez significa maior capacidade de atendimento 
    às demandas dos clientes. Além disso, as propostas também apresentam melhor 
    desempenho que as demais soluções sob outras métricas de avaliação de 
    desempenho como: Requisições atendidas Por Circuito (RPC), Eficiência 
    Energética (EE), Número de BVTs Implantados (NBI) e Fragmentação Externa 
    (FE).

17
  • ÍTALO CÉSAR DE SOUZA BELO
  • UM METAMODELO DE PARCERIA E PADRÕES ESTRATÉGICOS PARA CRIAÇÃO DE ECOSSISTEMAS DE SOFTWARE.

  • Leader : CARINA FROTA ALVES
  • MEMBRES DE LA BANQUE :
  • RODRIGO PEREIRA DOS SANTOS
  • JOSE GILSON DE ALMEIDA TEIXEIRA FILHO
  • KIEV SANTOS DA GAMA
  • SIMONE CRISTIANE DOS SANTOS LIMA
  • WYLLIAMS BARBOSA SANTOS
  • Data: 29 nov. 2021


  • Afficher le Résumé
  • Ecossistemas de software possuem uma plataforma tecnológica sobre a qual é 
    estabelecido um mercado de soluções de software. Eles possibilitam a 
    geração de valor através de inovação compartilhada feita por meio de 
    parcerias entre seu orquestrador (o keystone) e os complementadores. Esse 
    valor consiste em benefícios que estes atores recebem, bem como seus 
    clientes. Porém, a geração dos benefícios do ecossistema de software é 
    afetada pela maneira como as alianças entre o keystone e os 
    complementadores são criadas e nutridas. Nesse contexto, organizações como 
    a Fundação Eclipse, Microsoft e SAP utilizam modelos de parceria para 
    orquestrar suas alianças em seus respectivos ecossistemas.
    Os modelos de parceria são utilizados pelo keystone para gerenciar sua rede 
    de complementadores, ou seja, atrai-los, agrupá-los e mantê-los. Essa 
    gestão abrange a definição de benefícios, direitos e responsabilidades dos 
    parceiros no ecossistema de software. Dessa maneira, são disponibilizadas 
    diversas soluções complementares à plataforma do ecossistema, fomentando o 
    efeito de rede através da atração de clientes, o que atrai mais parceiros. 
    Isso é um ciclo virtuoso de crescimento que promove o desenvolvimento do 
    ecossistema de software. Porém, é difícil para gestores e pesquisadores 
    terem uma visão holística e integrada dos elementos e relações necessários 
    a definição de modelos de parceria para ecossistemas de software e não foi 
    encontrado na literatura algum artefato que possibilite ter essa visão.
    Outro problema relacionado com a definição de modelos de parceria é a 
    dificuldade em tratar fatores como a gestão da plataforma e a atração e 
    seleção de parceiros, que afetam os modelos de parceria ao migrar de um 
    produto de software para um ecossistema. Muitas empresas falham ao tratar 
    esses fatores durante essa mudança, embora exista uma propensão de muitas 
    organizações mudarem de um produto de software independente para um 
    ecossistema. Isso dificulta a definição de modelos de parceria adequados. 
    Diante dessa situação, nesta tese são propostos um metamodelo de parceria e 
    4 padrões estratégicos para operacionalizá-lo.
    Como método de pesquisa foi utilizado Design Science Research (DSR). O 
    metamodelo de parceria foi construído no primeiro ciclo de DSR, usando um 
    Mapeamento Sistemático da Literatura, e foi validado por meio de estudos de 
    caso nos ecossistemas SAP, Eclipse e Microsoft Azure. No segundo ciclo de 
    DSR, os padrões estratégicos foram definidos através de uma Revisão 
    Multivocal da Literatura e validados por meio de entrevistas com 
    profissionais. O metamodelo apresenta as principais características para 
    definir modelos de parceria para ecossistemas de software emergentes. Dessa 
    maneira, ele possibilita ter uma visão global e integrada dos elementos e 
    relações necessários a definição de modelos de parceria para ecossistemas 
    de software.
    Os padrões estratégicos visam operacionalizar o metamodelo proposto e, 
    consequentemente, através de suas diferentes estratégias, ajudar o keystone 
    a definir seu modelo de parceria e criar seu ecossistema a partir de um 
    produto de software, considerando o impacto dessa transição na definição do 
    modelo de parceria.

18
  • ÁTILA VALGUEIRO MALTA MOREIRA
  • IDENTIFICANDO INDICADORES DE ECONOMIAS VIRTUAIS PARA MELHORAR AQUISIÇÃO, RETENÇÃO E MONETIZAÇÃO: uma aplicação aos MMOGs

  • Leader : GEBER LISBOA RAMALHO
  • MEMBRES DE LA BANQUE :
  • ANDRE MATOS MAGALHAES
  • ANDRE MENEZES MARQUES DAS NEVES
  • BRUNO FEIJO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • SILVIO ROMERO DE LEMOS MEIRA
  • Data: 1 déc. 2021


  • Afficher le Résumé
  • Atualmente, muitos serviços digitais estão empregando incentivos econômicos  tais como recompensas diárias, ponto de fidelidade, bens e moedas virtuais,  visando melhoria nas métricas relacionadas à aquisição, retenção e  monetização de sua base de usuários. Jogos e serviços gamificados vão além,  fazendo empregos ainda mais sofisticados desses tipos de incentivos,  criando verdadeiras economias virtuais. Porém, se, por um lado, a introdução de elementos econômicos melhora a satisfação do usuário/jogador,  ela também traz muitos desafios para os operadores do serviço digital que,  infelizmente, não contam nem com base conceitual, nem com ferramentas  adequadas para análise e gestão de economias virtuais. Neste trabalho, nós defendemos a tese de que o conhecimento secular  utilizado na gestão de economias reais pode ser empregado na gestão de  economias virtuais. Nesta linha, dado o papel relevante de indicadores na  análise e gestão de economias reais, nós decidimos começar por desvendar  alguns indicadores relevantes para economias virtuais. Descobrir tais  indicadores não é uma tarefa simples, uma vez que existe uma enorme  diversidade de dados e os modelos atualmente presentes na literatura não  endereçam indicadores para operação, muito menos como utilizá-los e  interpretá-los. O único trabalho da literatura que trata de indicadores  para economias virtuais, propõe apenas dois e não os valida em uma situação  real. Nós propusemos seis indicadores econômicos, que foram preliminarmente  validados por especialistas e formalizados via ontologia. Depois, deixamos  tais indicadores acessíveis aos operadores do serviço via um painel de  gestão. Enfim, executamos um quase-experimento em um Massive Multiplayer  Game (MMOG) comercial que durou dois semestres (no primeiro semestre antes e segundo semestre após a introdução dos indicadores), antes da pandemia do  covid-19. Neste período, foram monitorados 416 mil jogadores, com médias  diárias de 8,4 mil jogadores únicos. Os resultados analíticos deste experimento foram bastante positivos: melhoramos retenção, monetização,  atendimento ao consumidor e até o engajamento da equipe de operação. Esses  resultados corroboram o potencial de “intercâmbio” entre as ciências  econômicas e os serviços digitais, em particular os MMOGs.

19
  • RAPHAEL AUGUSTO DE SOUSA DOURADO
  • Design Recommendations for Building Teacher-facing Learning Analytics Dashboards for Process-oriented Feedback in Online Learning.

  • Leader : ALEX SANDRO GOMES
  • MEMBRES DE LA BANQUE :
  • ISABELA GASPARINI
  • AMADEU SA DE CAMPOS FILHO
  • NIVAN ROBERTO FERREIRA JUNIOR
  • RICARDO MASSA FERREIRA LIMA
  • TACIANA PONTUAL DA ROCHA FALCAO
  • Data: 6 déc. 2021


  • Afficher le Résumé
  • Na modalidade de educação à distância, o feedback é um mecanismo  fundamental, pois tanto os professores como os alunos precisam de feedback  durante os processos de ensino e aprendizagem. Neste cenário, isto pode ser  alcançado através da análise dos dados de interação armazenados pelos  Ambientes Virtuais de Aprendizagem (AVAs) e comunicação destes resultados  aos usuários por meio de painéis analíticos (dashboards), geralmente  chamados Learning Analytics Dashboards (LADs). Os LADs podem oferecer  diferentes tipos de feedback, dependendo dos objetivos do projetista e de  suas suposições teóricas sobre como ocorre a aprendizagem; neste trabalho,  focamos em um tipo específico: o feedback comportamental orientado a  processos (behavioral processes-oriented feedback) voltado a professores da  educação à distância. No entanto, poucos trabalhos anteriores propuseram e  validaram LADs voltados para professores e focados nesse tipo de feedback,  e nenhum deles fornece uma caracterização detalhada de como os professores  interagem e respondem a esse tipo de LAD. Assim, faltam recomendações de  design detalhadas e empiricamente validadas para a construção destes tipos  de dashboards. Para preencher essa lacuna, esta tese buscou responder às  seguintes questões de pesquisa: 1) Quais são os requisitos de dados, de  tarefas e de metáforas visuais para construção de LADs que forneçam  feedback comportamental orientado a processos para professores da educação  à distância? e 2) que tipo de insights os professores obteriam de um LAD  que fornecesse este tipo de feedback, e que ações pedagógicas eles tomariam  com base nesses insights? Para responder a essas perguntas, foi utilizado  um método amparado no paradigma do Design Science Research para construir e  avaliar iterativamente uma instância da classe de LADs mencionada  anteriormente. Foram executadas três iterações de design e, com base nos  resultados desse processo, identificados: um conjunto de requisitos de  dados e tarefa, os pontos fortes e fracos de várias metáforas visuais, e  uma caracterização dos tipos de insights que os professores podem obter de  tais dashboards e das ações pedagógicas que eles tomariam com base nesses  insights. Por fim, a partir dos resultados empíricos obtidos, foi proposto  um conjunto de recomendações de design que podem ser reutilizadas por  outros pesquisadores e profissionais interessados na construção de tipos  semelhantes de LADs.

20
  • ERIKA CARLOS MEDEIROS
  • FreshnessScope: Uma Solução com Base em Visão Computacional e Machine Learning para Classificação do Frescor da Carne de Pescados.

  • Leader : LEANDRO MACIEL ALMEIDA
  • MEMBRES DE LA BANQUE :
  • CLEBER ZANCHETTIN
  • FERNANDO MACIANO DE PAULA NETO
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • FREDERICO DUARTE DE MENEZES
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • Data: 14 déc. 2021


  • Afficher le Résumé
  • Na indústria alimentícia, a inspeção manual sempre foi parte integrante do monitoramento e controle de qualidade. Além de tedioso e caro, esse processo pode ser afetado por fatores que induzem a resultados de avaliação subjetivos e inconsistentes. Devido às inconsistências associadas aos erros humanos, há uma necessidade evidente da adoção de sistemas de inspeção precisos que possam fornecer informações confiáveis em todo processo de produção. A motivação deste estudo centra-se na segurança alimentar, nomeadamente no consumo de peixes, e objetiva a classificação imparcial do nível de frescor da carne de peixe, através da análise de parâmetros colorimétricos.Tendo tal motivação em vista, usando visão computacional e Machine Learning, é construída uma solução escalável, de baixo custo, robusta, não invasiva e não destrutiva, para classificação automatizada do frescor da carne de peixes, que apresentem mudanças em sua coloração em função de mudanças no nível do frescor. A solução, chamada de FreshnessScope, inclui a hardware e protocolo para captura de imagens das amostras da carne dos peixes, além da proposição de características de cores extraídas das imagens das amostras, usando os espaços de cores RGB, HSV, HSI e L*a*b*. As características de cores foram usadas como recursos em modelos de classificação baseados em Machine Learning. Para a construção da solução foram usadas amostras de carne de atum e amostras de carne de salmão. Foram testados trinta e sete pipelines combinando técnicas de préprocessamento para dimensionamento dos dados, de pré-processamento decaracterísticas, de balanceamento de classes e classificadores. Foram usados ostestes estatísticos de Friedman e Nemenyi para identificar os modelos de maior desempenho e que apresentaram diferenças estatísticas significativas em seus desempenhos. Os modelos de ML identificados como ideais para classificação do frescor da carne tanto do atum como do salmão, apresentaram resultados próximos de 100% de assertividade. A solução FreshnessScope mostrou-se ser não invasiva, rápida, barata, com desempenho próximo de 100%, e sobretudo escalável para outros contextos.

21
  • FABRÍZIO BARBOSA FARIAS
  • Um Estudo sobre a Inovação Aberta Inbound em Projetos de Software: Um Modelo Conceitual e Recomendações Práticas.

  • Leader : HERMANO PERRELLI DE MOURA
  • MEMBRES DE LA BANQUE :
  • RAFAEL PRIKLADNICKI
  • CARINA FROTA ALVES
  • CRISTIANO COELHO DE ARAUJO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • IVALDIR HONORIO DE FARIAS JUNIOR
  • Data: 17 déc. 2021


  • Afficher le Résumé
  • Atualmente, a globalização está tornando as empresas mais competitivas e uma das formas de se conseguir isso é por meio de projetos de inovação aberta. Embora considerável pesquisa tenha sido devotada à inovação aberta, menos atenção tem sido dada em como o patrocinador lida com recursos limitados para implementar os requisitos de ideias externas nesses tipos de projetos. Entre alguns problemas com projetos de inovação estão: a falta de colaboração entre os stakeholders, requisitos incompletos, a concepção inadequada de one size fits all, bem como a busca externa por novas ideias com potenciais comerciais é crítica, porque as empresas costumam investir uma quantidade considerável de tempo, dinheiro e outros recursos. O objetivo desta tese é investigar como o papel do patrocinador apoia o processo da engenharia de requisitos na busca por ideias externas em projetos de inovação aberta. Um estudo de caso qualitativo foi realizado para investigar cinco empresas dos setores automotivo, siderúrgico, petróleo, saúde e energia elétrica. Os dados foram coletados por meio de entrevistas semiestruturadas e questionários. Os resultados desta pesquisa mostraram que os  patrocinadores têm uma perspectiva organizacional e uma perspectiva de tarefa sobre projetos de inovação aberta e elas não são iguais. Os resultados também mostraram que existem diferenças entre as atividades do patrocinador e da equipe do projeto de inovação que ajudam a caracterizar os problemas que devem ser enfrentados pelos participantes deste projeto durante a proposição da solução. Há um papel colaborativo para o patrocinador em realizar o processo da engenharia de requisitos, que é diferente do projeto quando o mesmo foi iniciado pela primeira vez. Isso porque a análise dos requisitos no projeto de inovação aberta está em constante evolução ao longo do projeto, e pensar nos requisitos na fase de gerenciamento do projeto também precisa evoluir para a construção de uma solução inovadora. Esta tese contribui também para uma melhor compreensão sobre projetos de inovação aberta através de um modelo conceitual. Este descreve de maneira parcimoniosa o conhecimento sobre o papel do patrocinador para apoiar o processo da engenharia de requisitos na busca por ideias externas em projetos de inovação aberta que geralmente envolvem riscos e incertezas. Por fim, as experiências compartilhadas nesta tese podem ajudar os futuros participantes desses projetos a definir melhor os requisitos para seus projetos, bem como a resolver proativamente os problemas de colaboração, motivação e empatia inadequadas dos participantes nesses tipos de projetos.

SIGAA | Superintendência de Tecnologia da Informação (STI-UFPE) - (81) 2126-7777 | Copyright © 2006-2024 - UFRN - sigaa01.ufpe.br.sigaa01