Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPE

2022
Dissertações
1
  • ALESSANDRA ALELUIA ALVES
  • Ama: um sistema especialista de aprendizado para balé adulto através de feedback verbal automático

  • Orientador : GIORDANO RIBEIRO EULALIO CABRAL
  • MEMBROS DA BANCA :
  • MARLINI DORNELES DE LIMA
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • Data: 18/01/2022

  • Mostrar Resumo
  • Com a introdução da computação no balé clássico, podemos pensar em novas 
    possibilidades de ensino-aprendizagem que sejam mais inclusivas e 
    democráticas. Na literatura científica atual, existem trabalhos voltados 
    para o aprendizado do balé, mas pouco se fala do público de balé adulto. 
    Esse público, caracterizado por pessoas com 18 ou mais anos de idade e que 
    não necessariamente possui o objetivo de se tornar bailarino profissional, 
    possui um perfil e objetivo diferentes do tradicional bailarino de uma 
    grande companhia de dança e é cada vez mais frequente de ser encontrado em 
    diversas academias de balé. Portanto, este trabalho trata-se de uma 
    pesquisa baseada em inovação que explorou as possibilidades de uso da 
    tecnologia para auxiliar o aprendizado de balé clássico através do 
    feedback, especializando-se posteriormente no público de balé adulto e 
    fornecendo  feedback verbal automatizado. Após uma pesquisa junto ao 
    público-alvo que utilizaria esse tipo de tecnologia que auxiliasse nos 
    treinos de balé em casa, foi desenvolvido um sistema especialista chamado 
    Ama. O primeiro protótipo de Ama contou com uma interface visual e feedback 
    verbal em tempo real e foi avaliado por bailarinos e professores de balé 
    clássico. Os resultados obtidos demonstraram a possibilidade de 
    fornecimento de feedback útil ao bailarino de maneira inclusiva e que 
    atendesse suas necessidades, além das possíveis funcionalidades propostas 
    terem sido consideradas pertinentes pelo público que poderia utilizar a 
    ferramenta futuramente. Assim, conseguimos avançar na área que une dança e 
    tecnologia e no entendimento científico e prático de formas de interação e 
    design de tecnologias voltadas para o aprendizado de balé clássico.


  • Mostrar Abstract
  • Com a introdução da computação no balé clássico, podemos pensar em novas 
    possibilidades de ensino-aprendizagem que sejam mais inclusivas e 
    democráticas. Na literatura científica atual, existem trabalhos voltados 
    para o aprendizado do balé, mas pouco se fala do público de balé adulto. 
    Esse público, caracterizado por pessoas com 18 ou mais anos de idade e que 
    não necessariamente possui o objetivo de se tornar bailarino profissional, 
    possui um perfil e objetivo diferentes do tradicional bailarino de uma 
    grande companhia de dança e é cada vez mais frequente de ser encontrado em 
    diversas academias de balé. Portanto, este trabalho trata-se de uma 
    pesquisa baseada em inovação que explorou as possibilidades de uso da 
    tecnologia para auxiliar o aprendizado de balé clássico através do 
    feedback, especializando-se posteriormente no público de balé adulto e 
    fornecendo  feedback verbal automatizado. Após uma pesquisa junto ao 
    público-alvo que utilizaria esse tipo de tecnologia que auxiliasse nos 
    treinos de balé em casa, foi desenvolvido um sistema especialista chamado 
    Ama. O primeiro protótipo de Ama contou com uma interface visual e feedback 
    verbal em tempo real e foi avaliado por bailarinos e professores de balé 
    clássico. Os resultados obtidos demonstraram a possibilidade de 
    fornecimento de feedback útil ao bailarino de maneira inclusiva e que 
    atendesse suas necessidades, além das possíveis funcionalidades propostas 
    terem sido consideradas pertinentes pelo público que poderia utilizar a 
    ferramenta futuramente. Assim, conseguimos avançar na área que une dança e 
    tecnologia e no entendimento científico e prático de formas de interação e 
    design de tecnologias voltadas para o aprendizado de balé clássico.

2
  • WALBER DE MACEDO RODRIGUES
  • Dynamic Ensemble of Classifiers and Security Relevant Methods of 
    Android’s API: An Empirical Study

  • Orientador : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBROS DA BANCA :
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • RAFAEL MENELAU OLIVEIRA E CRUZ
  • Data: 10/02/2022

  • Mostrar Resumo
  • O sistema operacional Android disponibiliza funções e métodos de manuseio 
    de dados sensíveis para proteger os dados dos usuários. Dados sensíveis são 
    todo tipo de dados que podem identificar o usuário, como localização de 
    GPS, dados biométricos e informações bancárias. A literatura de segurança 
    Android propõe extrair features binárias de um método e classificar-lo em 
    uma das classes de Security Relevant Methods, agregando informação de o 
    método manuseia dados sensíveis. Entretanto, existe uma lacuna na 
    literatura onde não são avaliados algoritmos de Ensemble Dinâmico. Os 
    algoritmos de Ensemble Dinâmico são estado da arte para Sistemas de 
    Múltiplos classificadores, que por sua vez, não atacam objetivamente o tipo 
    específico de features binárias. Assim sendo, este trabalho endereça a 
    lacuna em relação a algoritmos de Ensemble Dinâmicos aplicados ao problema 
    de classificação de Security Relevant Methods. Nossas análises mostram que, 
    ao contrário do que é inicialmente posto pela literatura, SVM não é o 
    melhor classificador para esse problema, sendo MLP, Random Forest, Gradient 
    Boosted Decision Trees e META-DES usando \text{Random Forest como geração 
    do pool os melhores resultados. Também constatamos que, em geral, 
    algoritmos de Ensemble Dinâmico possuem uma desvantagem em relação aos 
    classificadores monolíticos. Ademais, essa desvantagem é exarcebada em 
    algoritmos que utilizam classificadores baseados em distância, como o OLP. 
    Quando utlizamos o algoritmo de embedding Triplet Loss, observamos um 
    aumento de performance para o kNN e OLP, mas não de outras técnicas de 
    Ensemble Dinâmico, mostrando que um conjunto de features binárias tem 
    impacto mais significativo sobre esses algoritmos.


  • Mostrar Abstract
  • O sistema operacional Android disponibiliza funções e métodos de manuseio 
    de dados sensíveis para proteger os dados dos usuários. Dados sensíveis são 
    todo tipo de dados que podem identificar o usuário, como localização de 
    GPS, dados biométricos e informações bancárias. A literatura de segurança 
    Android propõe extrair features binárias de um método e classificar-lo em 
    uma das classes de Security Relevant Methods, agregando informação de o 
    método manuseia dados sensíveis. Entretanto, existe uma lacuna na 
    literatura onde não são avaliados algoritmos de Ensemble Dinâmico. Os 
    algoritmos de Ensemble Dinâmico são estado da arte para Sistemas de 
    Múltiplos classificadores, que por sua vez, não atacam objetivamente o tipo 
    específico de features binárias. Assim sendo, este trabalho endereça a 
    lacuna em relação a algoritmos de Ensemble Dinâmicos aplicados ao problema 
    de classificação de Security Relevant Methods. Nossas análises mostram que, 
    ao contrário do que é inicialmente posto pela literatura, SVM não é o 
    melhor classificador para esse problema, sendo MLP, Random Forest, Gradient 
    Boosted Decision Trees e META-DES usando \text{Random Forest como geração 
    do pool os melhores resultados. Também constatamos que, em geral, 
    algoritmos de Ensemble Dinâmico possuem uma desvantagem em relação aos 
    classificadores monolíticos. Ademais, essa desvantagem é exarcebada em 
    algoritmos que utilizam classificadores baseados em distância, como o OLP. 
    Quando utlizamos o algoritmo de embedding Triplet Loss, observamos um 
    aumento de performance para o kNN e OLP, mas não de outras técnicas de 
    Ensemble Dinâmico, mostrando que um conjunto de features binárias tem 
    impacto mais significativo sobre esses algoritmos.

3
  • ALEXANDRE LUIS BOA VIAGEM DE FRANCA
  • Uma Arquitetura Multinível para Fusão de Dados de monitoramento do consumo de energia elétrica a partir de Redes de sensores sem fio.

  • Orientador : FLAVIA DE ALMEIDA BARROS
  • MEMBROS DA BANCA :
  • CARLOS ANDRE GUIMARAES FERRAZ
  • FLAVIA DE ALMEIDA BARROS
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • Data: 11/02/2022

  • Mostrar Resumo
  • Em cenários corporativos, o alto consumo de energia elétrica impacta a  lucratividade e a qualidade dos produtos e serviços oferecidos. No setor industrial brasileiro, os gastos com energia elétrica podem chegar a 40% dos custos de produção. A utilização racional de energia, ou eficiência energética, torna-se um forte aliado das empresas, sobretudo no setor industrial. Contudo, a eficiência energética requer altos investimentos em automação industrial, que geralmente é invasiva e requer altos investimentos em sua implantação e manutenção. Claramente, obter maior eficiência energética a custo acessível e com portabilidade e escalabilidade apresenta-se como um desafio. Nesse contexto, este trabalho propõe a utilização de redes de sensores sem fio (RSSF), não invasivas e de baixo custo, para monitoramento de equipamentos eletroeletrônicos residenciais ou industriais utilizando a abordagem de IoT (Internet of Things). Os dados coletados são fusionados através de uma arquitetura multinível de fusão de dados projetada neste trabalho, gerando assim informações com maior valor agregado (revelando, por exemplo, as principais grandezas elétricas inerentes à demanda e ao consumo de energia). Com o monitoramento contínuo e em tempo real, é possível identificar falhas e tomar ações corretivas com mais rapidez, evitando desperdícios e gerando economia. As RSSFs foram implantadas em dois contextos distintos: um ambiente residencial, e um ambiente industrial. O estudo de caso realizado em ambiente doméstico focou na implementação de uma RSSF atrelada a uma geladeira, com vistas a monitorar o consumo de energia por um determinado período. O segundo estudo de caso foi desenvolvido em um ambiente industrial, com objetivo foi monitorar remotamente o consumo de energia de um equipamento denominado “extrusora”, em uma pequena indústria de plástico da região Metropolitana do Recife. Em ambos os casos, os resultados foram muito positivos. Além do grande valor gerencial dos resultados obtidos a partir da fusão dos dados, conseguimos também confirmar a escalabilidade e a independência de domínio da arquitetura de fusão proposta nesse trabalho, que foi utilizada em ambos os estudos de caso com pequenas alterações no hardware (mudança de transformadores de corrente, microcontroladores e o rádio).


  • Mostrar Abstract
  • Em cenários corporativos, o alto consumo de energia elétrica impacta a  lucratividade e a qualidade dos produtos e serviços oferecidos. No setor industrial brasileiro, os gastos com energia elétrica podem chegar a 40% dos custos de produção. A utilização racional de energia, ou eficiência energética, torna-se um forte aliado das empresas, sobretudo no setor industrial. Contudo, a eficiência energética requer altos investimentos em automação industrial, que geralmente é invasiva e requer altos investimentos em sua implantação e manutenção. Claramente, obter maior eficiência energética a custo acessível e com portabilidade e escalabilidade apresenta-se como um desafio. Nesse contexto, este trabalho propõe a utilização de redes de sensores sem fio (RSSF), não invasivas e de baixo custo, para monitoramento de equipamentos eletroeletrônicos residenciais ou industriais utilizando a abordagem de IoT (Internet of Things). Os dados coletados são fusionados através de uma arquitetura multinível de fusão de dados projetada neste trabalho, gerando assim informações com maior valor agregado (revelando, por exemplo, as principais grandezas elétricas inerentes à demanda e ao consumo de energia). Com o monitoramento contínuo e em tempo real, é possível identificar falhas e tomar ações corretivas com mais rapidez, evitando desperdícios e gerando economia. As RSSFs foram implantadas em dois contextos distintos: um ambiente residencial, e um ambiente industrial. O estudo de caso realizado em ambiente doméstico focou na implementação de uma RSSF atrelada a uma geladeira, com vistas a monitorar o consumo de energia por um determinado período. O segundo estudo de caso foi desenvolvido em um ambiente industrial, com objetivo foi monitorar remotamente o consumo de energia de um equipamento denominado “extrusora”, em uma pequena indústria de plástico da região Metropolitana do Recife. Em ambos os casos, os resultados foram muito positivos. Além do grande valor gerencial dos resultados obtidos a partir da fusão dos dados, conseguimos também confirmar a escalabilidade e a independência de domínio da arquitetura de fusão proposta nesse trabalho, que foi utilizada em ambos os estudos de caso com pequenas alterações no hardware (mudança de transformadores de corrente, microcontroladores e o rádio).

4
  • GERMANA ARRUDA DE QUEIROZ
  • O que devemos aprender sobre ética na engenharia de software e o que estamos estudando formalmente na academia brasileira?

  • Orientador : GEBER LISBOA RAMALHO
  • MEMBROS DA BANCA :
  • CLARISSE SIECKENIUS DE SOUZA
  • GEBER LISBOA RAMALHO
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • Data: 11/02/2022

  • Mostrar Resumo
  • CONTEXTO: O software está cada vez mais presente em nossas vidas e nos influencia constantemente. Por exemplo, os carros autônomos desenvolvidos e as redes sociais podem introduzir preconceitos, quebrar preferências de privacidade, levar ao vício digital e outras questões semelhantes. OBJETIVO: Este estudo tem como objetivo identificar os dilemas éticos que ocorrem na engenharia de software e verificar como este assunto está sendo ensinado na área de TI. MÉTODO: Foi realizado um estudo de mapeamento sistemático; a pesquisa retornou 744 artigos de quatro bases de dados, dos quais 50 foram aceitos para extração de dados. Além disso, foi realizado um survey na área de educação; obtivemos 93 participantes na pesquisa e ao final foi realizado uma análise documental sobre a disciplina de ética em 20 universidades brasileiras. RESULTADOS: A partir dos dados extraídos na revisão, foi possível responder às questões de pesquisa e compreender os dilemas éticos que estiveram presentes nos últimos cinco anos. Os principais dilemas que podem auxiliar no direcionamento do ensino da ética no ensino superior foram privacidade, conscientização e segurança. Por meio do survey, foram coletados opiniões de alunos e professores universitários: 63% dos alunos relataram que a disciplina de ética é importante para a grade curricular dos cursos de graduação e pós-graduação da área de informática; 61,3% possuíam conhecimentos sobre ética aplicada ao seu campo profissional; 75,3% consideram a ética importante para os profissionais de TI; 35,5% tinham interesse em fazer curso relacionado à ética; 72% não leram o código de ética profissional em nenhuma área da tecnologia da informação; e 47,3% nunca estudaram ética. A percepção dos professores mostrou que 82,3% nunca ensinaram sobre a existência de um código de ética específico em tecnologia da informação; 93,1% afirmaram que o código de ética e conduta profissional é necessário para uma boa conduta profissional; e 72% não leram muito sobre questões éticas. Por meio da análise documental, foi coletada informações sobre assuntos relacionados às universidades brasileiras como carga horária (30-75 horas), ementa e as recomendações do MEC e SBC. CONCLUSÃO: O estudo de mapeamento contribuiu para evidenciar que as principais questões éticas que foram discutidas na literatura científica foram privacidade e transparência, o survey sobre a opinião de alunos e professores contribuiu para melhor compreensão e sugestões de mudanças futuras para obter maior interesse dos alunos e maior motivação profissional dos professores e a análise documental mostra que privacidade é uma questão discutida tanto na academia quanto nas publicações científicas, transparência foi visualizada mais nas publicações e não nas ementas dos cursos universitários, outros dilemas éticos foram visualizados como propriedade intelectual e responsabilidade.  

     

     


  • Mostrar Abstract
  • CONTEXTO: O software está cada vez mais presente em nossas vidas e nos influencia constantemente. Por exemplo, os carros autônomos desenvolvidos e as redes sociais podem introduzir preconceitos, quebrar preferências de privacidade, levar ao vício digital e outras questões semelhantes. OBJETIVO: Este estudo tem como objetivo identificar os dilemas éticos que ocorrem na engenharia de software e verificar como este assunto está sendo ensinado na área de TI. MÉTODO: Foi realizado um estudo de mapeamento sistemático; a pesquisa retornou 744 artigos de quatro bases de dados, dos quais 50 foram aceitos para extração de dados. Além disso, foi realizado um survey na área de educação; obtivemos 93 participantes na pesquisa e ao final foi realizado uma análise documental sobre a disciplina de ética em 20 universidades brasileiras. RESULTADOS: A partir dos dados extraídos na revisão, foi possível responder às questões de pesquisa e compreender os dilemas éticos que estiveram presentes nos últimos cinco anos. Os principais dilemas que podem auxiliar no direcionamento do ensino da ética no ensino superior foram privacidade, conscientização e segurança. Por meio do survey, foram coletados opiniões de alunos e professores universitários: 63% dos alunos relataram que a disciplina de ética é importante para a grade curricular dos cursos de graduação e pós-graduação da área de informática; 61,3% possuíam conhecimentos sobre ética aplicada ao seu campo profissional; 75,3% consideram a ética importante para os profissionais de TI; 35,5% tinham interesse em fazer curso relacionado à ética; 72% não leram o código de ética profissional em nenhuma área da tecnologia da informação; e 47,3% nunca estudaram ética. A percepção dos professores mostrou que 82,3% nunca ensinaram sobre a existência de um código de ética específico em tecnologia da informação; 93,1% afirmaram que o código de ética e conduta profissional é necessário para uma boa conduta profissional; e 72% não leram muito sobre questões éticas. Por meio da análise documental, foi coletada informações sobre assuntos relacionados às universidades brasileiras como carga horária (30-75 horas), ementa e as recomendações do MEC e SBC. CONCLUSÃO: O estudo de mapeamento contribuiu para evidenciar que as principais questões éticas que foram discutidas na literatura científica foram privacidade e transparência, o survey sobre a opinião de alunos e professores contribuiu para melhor compreensão e sugestões de mudanças futuras para obter maior interesse dos alunos e maior motivação profissional dos professores e a análise documental mostra que privacidade é uma questão discutida tanto na academia quanto nas publicações científicas, transparência foi visualizada mais nas publicações e não nas ementas dos cursos universitários, outros dilemas éticos foram visualizados como propriedade intelectual e responsabilidade.  

     

     

5
  • ESDRAS SOUTO COSTA
  • Meta Aprendizado para Detecção de Anomalia em Imagens

  • Orientador : GERMANO CRISPIM VASCONCELOS
  • MEMBROS DA BANCA :
  • GEBER LISBOA RAMALHO
  • GERMANO CRISPIM VASCONCELOS
  • JAIRSON BARBOSA RODRIGUES
  • Data: 15/02/2022

  • Mostrar Resumo
  • A detecção de anomalias é uma tarefa crucial, tem um enorme impacto na 
    sociedade e no bem-estar das pessoas. Considerada um problema desafiador, 
    uma vez que a definição de ‘anomalia’ é ambígua, ou seja, qualquer evento 
    que não esteja em conformidade com um comportamento considerado ‘normal’ 
    pode ser visto como uma anomalia. Como exemplo, algumas situações 
    enfrentadas diariamente em que algo é ‘anormal’ ou fora do comum: um 
    acidente de trânsito; doenças; uma transação no cartão de crédito suspeita 
    e assim por diante. Apesar dos grandes avanços em trabalhos recentes na 
    detecção automática de anomalias e na área de Redes Neurais Profundas, tais modelos ainda demandam uma grande quantidade de dados para que se tire proveito de sua expressividade e desempenho. Sendo assim, o presente 
    trabalho apresenta uma nova abordagem para a detecção semi-supervisionada de anomalias, quando somente de amostras ‘normais’ são consideradas no treinamento, bem como somente alguns exemplos estão disponíveis. Usando técnicas de meta-aprendizado, em particular MAML, a abordagem proposta é comparada com outros algoritmos na base de dados MVTec AD e demonstrou resultados promissores em tarefas de detecção de anomalias em objetos nunca vistos em treinamento.


  • Mostrar Abstract
  • A detecção de anomalias é uma tarefa crucial, tem um enorme impacto na 
    sociedade e no bem-estar das pessoas. Considerada um problema desafiador, 
    uma vez que a definição de ‘anomalia’ é ambígua, ou seja, qualquer evento 
    que não esteja em conformidade com um comportamento considerado ‘normal’ 
    pode ser visto como uma anomalia. Como exemplo, algumas situações 
    enfrentadas diariamente em que algo é ‘anormal’ ou fora do comum: um 
    acidente de trânsito; doenças; uma transação no cartão de crédito suspeita 
    e assim por diante. Apesar dos grandes avanços em trabalhos recentes na 
    detecção automática de anomalias e na área de Redes Neurais Profundas, tais modelos ainda demandam uma grande quantidade de dados para que se tire proveito de sua expressividade e desempenho. Sendo assim, o presente 
    trabalho apresenta uma nova abordagem para a detecção semi-supervisionada de anomalias, quando somente de amostras ‘normais’ são consideradas no treinamento, bem como somente alguns exemplos estão disponíveis. Usando técnicas de meta-aprendizado, em particular MAML, a abordagem proposta é comparada com outros algoritmos na base de dados MVTec AD e demonstrou resultados promissores em tarefas de detecção de anomalias em objetos nunca vistos em treinamento.

6
  • RENATA REGINA MENEZES DE OLIVEIRA BARBOSA
  • Spotify como Ferramenta de Construção do Gosto: Um Estudo sobre os 
    Efeitos do Consumo de Conteúdos Recomendados por Inteligência Artificial

  • Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DURAO
  • GEBER LISBOA RAMALHO
  • SERGIO RICARDO DE MELO QUEIROZ
  • Data: 15/02/2022

  • Mostrar Resumo
  • Nos últimos anos, tem se tornado cada vez mais comum o surgimento de 
    plataformas, em vários setores, que trabalham com sistemas de recomendação. 
    Visto que, do ponto de vista das plataformas, um importante propósito das 
    recomendações é manter os usuários consumindo os conteúdos 
    disponibilizados, utilizando inúmeras informações do comportamento dos 
    usuários, foi observada a necessidade de entender as consequências do seu 
    uso na sociedade. Surgem então alguns questionamentos: poderia essa nova 
    dinâmica ser responsável por conduzir uma mudança no gosto dos usuários? Os conteúdos produzidos para consumo na plataforma também podem sofrer 
    influência?
    A partir deste contexto, esta dissertação tem como propósito analisar os 
    efeitos do consumo de conteúdos recomendados por inteligência artificial na 
    sociedade. Tendo como bases principais a teoria do gosto (1979) do 
    sociólogo Pierre Bourdieu e o conceito de onívoro cultural de DiMaggio 
    (1987) e Richard Peterson e Albert Simkus (1992), procura-se observar quais 
    as consequências causadas pelo uso de plataformas que utilizam dados do 
    perfil do usuário em sistemas de recomendação que enviam conteúdos para 
    serem consumidos, dado que o gosto não é produto resultante do 
    livre-arbítrio, mas algo construído pelas condições de existência que 
    moldam as preferências do indivíduo ao longo do tempo. Como objeto de 
    estudo a plataforma de streaming musical Spotify foi selecionada, 
    considerando-se sua popularidade no Brasil. Por meio de uma pesquisa 
    quali-quantitativa e da construção de um grupo focal onde o histórico de 
    uso da plataforma foi acompanhado por 5 meses, foi possível observar que o 
    capital cultural, o consumo de conteúdo recomendado e a diversidade de 
    gêneros são fatores de grande influência na equivalência entre o conteúdo 
    já consumido e aquele que será recomendado. Além disso, a falta de 
    similaridade entre os conteúdos de alguns usuários indicam a possibilidade 
    do conteúdo sugerido ser resultado de uma ação publicitária, sem levar em 
    consideração o histórico de consumo do usuário e sim se ele faz parte do 
    público alvo que o artista pretende alcançar. Quanto aos onívoros 
    culturais, o fato do usuário ser considerado um não obteve influência 
    significativa nos resultados. Desta forma, a pesquisa contribui para 
    debates sobre classes, dinâmica de consumo musical e inteligência 
    artificial no século 21.


  • Mostrar Abstract
  • Nos últimos anos, tem se tornado cada vez mais comum o surgimento de 
    plataformas, em vários setores, que trabalham com sistemas de recomendação. 
    Visto que, do ponto de vista das plataformas, um importante propósito das 
    recomendações é manter os usuários consumindo os conteúdos 
    disponibilizados, utilizando inúmeras informações do comportamento dos 
    usuários, foi observada a necessidade de entender as consequências do seu 
    uso na sociedade. Surgem então alguns questionamentos: poderia essa nova 
    dinâmica ser responsável por conduzir uma mudança no gosto dos usuários? Os conteúdos produzidos para consumo na plataforma também podem sofrer 
    influência?
    A partir deste contexto, esta dissertação tem como propósito analisar os 
    efeitos do consumo de conteúdos recomendados por inteligência artificial na 
    sociedade. Tendo como bases principais a teoria do gosto (1979) do 
    sociólogo Pierre Bourdieu e o conceito de onívoro cultural de DiMaggio 
    (1987) e Richard Peterson e Albert Simkus (1992), procura-se observar quais 
    as consequências causadas pelo uso de plataformas que utilizam dados do 
    perfil do usuário em sistemas de recomendação que enviam conteúdos para 
    serem consumidos, dado que o gosto não é produto resultante do 
    livre-arbítrio, mas algo construído pelas condições de existência que 
    moldam as preferências do indivíduo ao longo do tempo. Como objeto de 
    estudo a plataforma de streaming musical Spotify foi selecionada, 
    considerando-se sua popularidade no Brasil. Por meio de uma pesquisa 
    quali-quantitativa e da construção de um grupo focal onde o histórico de 
    uso da plataforma foi acompanhado por 5 meses, foi possível observar que o 
    capital cultural, o consumo de conteúdo recomendado e a diversidade de 
    gêneros são fatores de grande influência na equivalência entre o conteúdo 
    já consumido e aquele que será recomendado. Além disso, a falta de 
    similaridade entre os conteúdos de alguns usuários indicam a possibilidade 
    do conteúdo sugerido ser resultado de uma ação publicitária, sem levar em 
    consideração o histórico de consumo do usuário e sim se ele faz parte do 
    público alvo que o artista pretende alcançar. Quanto aos onívoros 
    culturais, o fato do usuário ser considerado um não obteve influência 
    significativa nos resultados. Desta forma, a pesquisa contribui para 
    debates sobre classes, dinâmica de consumo musical e inteligência 
    artificial no século 21.

7
  • MOISÉS NEVES CAMÊLO
  • G-Priv: um guia para especificação de requisitos de privacidade em 
    conformidade com a LGPD.

  • Orientador : CARINA FROTA ALVES
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • CARINA FROTA ALVES
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • Data: 22/02/2022

  • Mostrar Resumo
  • A Lei Geral de Proteção de Dados (LGPD) visa proteger os dados pessoais, 
    inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de 
    direito público ou privado. Atualmente, as organizações precisam 
    implementar várias medidas para garantir que seus sistemas de software 
    estejam em conformidade com a lei. No entanto, a LGPD assim como outras 
    legislações são de difícil entendimento por parte dos profissionais de TI, 
    principalmente para extrair e operacionalizar requisitos legais. Dessa 
    forma, esta pesquisa visa auxiliar analistas de requisitos na especificação 
    dos requisitos de privacidade para garantir sua conformidade com a LGPD. 
    Para atingir este objetivo, foram realizadas entrevistas exploratórias, com 
    o intuito de investigar o ponto de vista de analistas de requisitos 
    ressaltando possíveis desafios enfrentados na especificação de requisitos 
    de privacidade. As entrevistas revelaram os principais achados 
    classificados em cinco categorias: Conceitos de Privacidade, Processo de 
    Conformidade, Obstáculos na Conformidade, Tradeoff entre Privacidade e 
    Transparência, Rotina de Trabalho. A partir da análise dos dados coletados 
    nas entrevistas, foi elaborado um guia chamado G-Priv para apoiar a 
    especificação de requisitos de privacidade em conformidade com a LGPD. O 
    guia proposto possui atividades bem definidas, templates e um catálogo com 
    padrões de requisitos de privacidade. Ao final da pesquisa, executamos um 
    survey com 18 participantes com o objetivo de avaliar a aceitação do G-Priv 
    e dos artefatos propostos no guia. O survey foi conduzido através de um 
    questionário utilizado no formulário no Google Forms, como também foi 
    disponibilizada uma documentação detalhada do guia, apresentando de forma 
    sistemática as suas etapas, interações entre os atores e os templates 
    disponibilizados. Com base na avaliação, o G-Priv foi considerado de fácil 
    entendimento, principalmente na definição dos papeis e responsabilidades 
    dos atores envolvidos nas quatro etapas do guia. Os participantes do survey 
    também ressaltaram a agilidade de utilização do guia. Sendo assim, 
    consideramos que o guia proposto pode auxiliar analistas de requisitos na 
    especificação dos requisitos de privacidade em conformidade com a LGPD.


  • Mostrar Abstract
  • A Lei Geral de Proteção de Dados (LGPD) visa proteger os dados pessoais, 
    inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de 
    direito público ou privado. Atualmente, as organizações precisam 
    implementar várias medidas para garantir que seus sistemas de software 
    estejam em conformidade com a lei. No entanto, a LGPD assim como outras 
    legislações são de difícil entendimento por parte dos profissionais de TI, 
    principalmente para extrair e operacionalizar requisitos legais. Dessa 
    forma, esta pesquisa visa auxiliar analistas de requisitos na especificação 
    dos requisitos de privacidade para garantir sua conformidade com a LGPD. 
    Para atingir este objetivo, foram realizadas entrevistas exploratórias, com 
    o intuito de investigar o ponto de vista de analistas de requisitos 
    ressaltando possíveis desafios enfrentados na especificação de requisitos 
    de privacidade. As entrevistas revelaram os principais achados 
    classificados em cinco categorias: Conceitos de Privacidade, Processo de 
    Conformidade, Obstáculos na Conformidade, Tradeoff entre Privacidade e 
    Transparência, Rotina de Trabalho. A partir da análise dos dados coletados 
    nas entrevistas, foi elaborado um guia chamado G-Priv para apoiar a 
    especificação de requisitos de privacidade em conformidade com a LGPD. O 
    guia proposto possui atividades bem definidas, templates e um catálogo com 
    padrões de requisitos de privacidade. Ao final da pesquisa, executamos um 
    survey com 18 participantes com o objetivo de avaliar a aceitação do G-Priv 
    e dos artefatos propostos no guia. O survey foi conduzido através de um 
    questionário utilizado no formulário no Google Forms, como também foi 
    disponibilizada uma documentação detalhada do guia, apresentando de forma 
    sistemática as suas etapas, interações entre os atores e os templates 
    disponibilizados. Com base na avaliação, o G-Priv foi considerado de fácil 
    entendimento, principalmente na definição dos papeis e responsabilidades 
    dos atores envolvidos nas quatro etapas do guia. Os participantes do survey 
    também ressaltaram a agilidade de utilização do guia. Sendo assim, 
    consideramos que o guia proposto pode auxiliar analistas de requisitos na 
    especificação dos requisitos de privacidade em conformidade com a LGPD.

8
  • MATHEUS BARBOSA DE OLIVEIRA
  • Detecção de conflitos semânticos via análise estática de 
    subistituição de atribuição

  • Orientador : PAULO HENRIQUE MONTEIRO BORBA
  • MEMBROS DA BANCA :
  • EDUARDO FIGUEIREDO
  • MARCIO DE MEDEIROS RIBEIRO
  • PAULO HENRIQUE MONTEIRO BORBA
  • Data: 23/02/2022

  • Mostrar Resumo
  • O processo de desenvolvimento de software atual, exceto em casos especiais, 
    é feito de forma colaborativa. Na medida que novos requisitos são 
    levantados, novas tarefas são definidas e alocadas a desenvolvedores 
    diferentes. Os desenvolvedores, no que lhes concerne, adicionam suas 
    modificações em repositórios ou versões separadas e isoladas do código, e 
    posteriormente essas modificações precisam ser integradas em um repositório 
    ou versão central. Esse processo de integração de código é propenso a 
    erros, especialmente se as alterações em diferentes ramos entrarem em 
    conflito.
    Alguns desses conflitos são mais simples e podem ser detectados pelas 
    ferramentas atuais de controle de versão como o Git, no entanto, ainda 
    necessitam de intervenção humana para resolvê-los, o que afeta a 
    produtividade da equipe. Mas esse não é o único problema, existem também os 
    conflitos semânticos que requerem a compreensão do comportamento do 
    software, que está além dos recursos da maioria das ferramentas de 
    mesclagem existentes. Isso faz com que esses conflitos dificilmente sejam 
    percebidos por revisões ou detectados em testes e chegam até o usuário 
    final como defeito no software.
    Esse tipo de conflito ocorre quando, no código integrado, as mudanças 
    introduzidas pela versão de um dos desenvolvedores interferem de forma 
    inesperada com as mudanças introduzidas pela versão de outro 
    desenvolvedor,  fazendo  com  o  que  um  contrato  pretendido  por  uma   
    das versões deixe de ser cumprido. Sendo assim, se fazem necessárias 
    ferramentas que possam detectar conflitos desse tipo no processo de 
    integração, de modo a evitar bugs e facilitar a resolução dos mesmos.
    Nesse sentido, esse trabalho propõe uma análise de substituição de 
    atribuição (Override an Assignment (OA)), que visa detectar interferências 
    entre as alterações introduzidas por dois desenvolvedores diferentes, onde 
    caminhos de gravação, sem atribuições intermediárias, para um alvo comum 
    indicam interferência. Também foi realizada a implementação e avaliação de 
    duas abordagens (interprocedural e intraprocedural) para a análise proposta.
    Para avaliar as implementações da análise proposta foi usado um conjunto de 
    72 cenários de integração de código, em que ambas versões integradas 
    modificaram o mesmo método. Esses cenários foram extraídos de projetos 
    open-source Java, minerados por uma ferramenta de mineração de cenários de 
    integração do Github.


  • Mostrar Abstract
  • O processo de desenvolvimento de software atual, exceto em casos especiais, 
    é feito de forma colaborativa. Na medida que novos requisitos são 
    levantados, novas tarefas são definidas e alocadas a desenvolvedores 
    diferentes. Os desenvolvedores, no que lhes concerne, adicionam suas 
    modificações em repositórios ou versões separadas e isoladas do código, e 
    posteriormente essas modificações precisam ser integradas em um repositório 
    ou versão central. Esse processo de integração de código é propenso a 
    erros, especialmente se as alterações em diferentes ramos entrarem em 
    conflito.
    Alguns desses conflitos são mais simples e podem ser detectados pelas 
    ferramentas atuais de controle de versão como o Git, no entanto, ainda 
    necessitam de intervenção humana para resolvê-los, o que afeta a 
    produtividade da equipe. Mas esse não é o único problema, existem também os 
    conflitos semânticos que requerem a compreensão do comportamento do 
    software, que está além dos recursos da maioria das ferramentas de 
    mesclagem existentes. Isso faz com que esses conflitos dificilmente sejam 
    percebidos por revisões ou detectados em testes e chegam até o usuário 
    final como defeito no software.
    Esse tipo de conflito ocorre quando, no código integrado, as mudanças 
    introduzidas pela versão de um dos desenvolvedores interferem de forma 
    inesperada com as mudanças introduzidas pela versão de outro 
    desenvolvedor,  fazendo  com  o  que  um  contrato  pretendido  por  uma   
    das versões deixe de ser cumprido. Sendo assim, se fazem necessárias 
    ferramentas que possam detectar conflitos desse tipo no processo de 
    integração, de modo a evitar bugs e facilitar a resolução dos mesmos.
    Nesse sentido, esse trabalho propõe uma análise de substituição de 
    atribuição (Override an Assignment (OA)), que visa detectar interferências 
    entre as alterações introduzidas por dois desenvolvedores diferentes, onde 
    caminhos de gravação, sem atribuições intermediárias, para um alvo comum 
    indicam interferência. Também foi realizada a implementação e avaliação de 
    duas abordagens (interprocedural e intraprocedural) para a análise proposta.
    Para avaliar as implementações da análise proposta foi usado um conjunto de 
    72 cenários de integração de código, em que ambas versões integradas 
    modificaram o mesmo método. Esses cenários foram extraídos de projetos 
    open-source Java, minerados por uma ferramenta de mineração de cenários de 
    integração do Github.

9
  • HELDER PAIXAO FELIX FILHO
  • Análise didaticamente estruturada das correspondências entre 
    Lógicas de Descrições e Lógicas Modais.

  • Orientador : FREDERICO LUIZ GONCALVES DE FREITAS
  • MEMBROS DA BANCA :
  • ANJOLINA GRISI DE OLIVEIRA
  • CLEYTON MÁRIO DE OLIVEIRA RODRIGUES
  • RUAN VASCONCELOS BEZERRA CARVALHO
  • Data: 23/02/2022

  • Mostrar Resumo
  • Este trabalho se propõe a apresentar uma análise sobre a correspondência 
    entre ramificações da Lógica Modal com ramificações da Lógica de 
    Descrições. Além disso, este texto tem como principal proposta, pela falta 
    de um material mais palatável, preencher esta lacuna e tornar mais 
    acessível um assunto naturalmente denso lógica e matematicamente. A 
    apresentação didática dos formalismos é feita nos capítulos iniciais; da 
    Lógica de Descrições foi escolhida a linguagem ALC e da Lógica Modal, o 
    sistema K. É demonstrado por que a correspondência não ocorre a princípio, 
    por isso o sistema K é enriquecido para a versão multimodal K_m. 
    Posteriormente é apresentada a Lógica Híbrida: ramificação modal que 
    completa a correspondência com uma base de conhecimento de ALC. Por fim, 
    são escolhidas ramificações que apresentam correspondência entre si: da 
    Lógica de Descrições a linguagem ALC_reg e a Lógica Dinâmica Proposicional, 
    que é ramificação da Lógica Modal.


  • Mostrar Abstract
  • Este trabalho se propõe a apresentar uma análise sobre a correspondência 
    entre ramificações da Lógica Modal com ramificações da Lógica de 
    Descrições. Além disso, este texto tem como principal proposta, pela falta 
    de um material mais palatável, preencher esta lacuna e tornar mais 
    acessível um assunto naturalmente denso lógica e matematicamente. A 
    apresentação didática dos formalismos é feita nos capítulos iniciais; da 
    Lógica de Descrições foi escolhida a linguagem ALC e da Lógica Modal, o 
    sistema K. É demonstrado por que a correspondência não ocorre a princípio, 
    por isso o sistema K é enriquecido para a versão multimodal K_m. 
    Posteriormente é apresentada a Lógica Híbrida: ramificação modal que 
    completa a correspondência com uma base de conhecimento de ALC. Por fim, 
    são escolhidas ramificações que apresentam correspondência entre si: da 
    Lógica de Descrições a linguagem ALC_reg e a Lógica Dinâmica Proposicional, 
    que é ramificação da Lógica Modal.

10
  • MATEUS NUNES DE BARROS MAGALHAES
  • Uma Avaliação da Redundância e do Particionamento de Dados 
    Convencionais e Geoespaciais em Data Warehouses Orientados a Colunas

  • Orientador : ROBSON DO NASCIMENTO FIDALGO
  • MEMBROS DA BANCA :
  • ANDREZA LEITE DE ALENCAR
  • LUCIANO DE ANDRADE BARBOSA
  • ROBSON DO NASCIMENTO FIDALGO
  • Data: 24/02/2022

  • Mostrar Resumo
  • A crescente demanda por processamento analítico alinhada a expansão dos 
    ambientes de Big Data colocou em xeque a capacidade do modelo relacional de 
    atender tais aplicações, sem comprometer o desempenho das mesmas ou 
    incorrer em custos exorbitantes. Os bancos de dados NoSQL foram escolhidos 
    como uma alternativa viável para suprir tais necessidades. Eles relaxam os 
    controles de consistência, integridade e transacionais característicos de 
    bancos relacionais para oferecerem mais disponibilidade, poder de 
    processamento paralelo e escalabilidade horizontal. Estudos mostraram que a 
    classe de bancos de dados NoSQL orientados a colunas apresentam bons 
    desempenhos para o uso com finalidades analíticas, pois, os dados de cada 
    coluna são armazenados contiguamente e separados fisicamente das demais 
    colunas. O planejamento de esquemas para os bancos de dados orientados a 
    colunas foi objeto de diversas pesquisas, as quais, avaliaram abordagens 
    normalizadas e desnormalizadas, bem como, as formas mais adequadas de se 
    promover a separação física dos dados de cada coluna. No entanto, esses 
    estudos não consideraram cenários que envolvam dados geoespaciais presentes 
    na base e no escopo das consultas analíticas. Com o intuito de investigar 
    as influências da redundância e do particionamento de dados convencionais e 
    geoespaciais em GDWs orientados a colunas e utilizados com finalidades 
    analíticas, propusemos 40 esquemas que adotam abordagens distintas para 
    modelar os relacionamentos entre fatos e dimensões, entre dimensões 
    convencionais e geoespaciais, e entre as próprias dimensões geoespaciais. 
    Utilizamos o benchmark denominado Spadawan para gerar os dados em 
    conformidade com os esquemas propostos, para os fatores de escala 1 e 10, e 
    avaliar o volume de dados, tempo de ingestão e tempo para a execução de uma 
    carga de consultas geoespaciais em um cluster computacional composto por 4 
    nós. Nossos resultados evidenciaram que a desnormalização das dimensões 
    convencionais foi a abordagem que mais contribuiu positivamente para a 
    redução dos tempos de execução, apesar de elevar o volume de armazenamento 
    demandado. A normalização das dimensões geográficas de menor seletividade 
    contribuiu com a redução dos tempos de execução, enquanto, a normalização 
    ou desnormalização das mais seletivas não ocasionou impactos positivos ou 
    negativos expressivamente.


  • Mostrar Abstract
  • A crescente demanda por processamento analítico alinhada a expansão dos 
    ambientes de Big Data colocou em xeque a capacidade do modelo relacional de 
    atender tais aplicações, sem comprometer o desempenho das mesmas ou 
    incorrer em custos exorbitantes. Os bancos de dados NoSQL foram escolhidos 
    como uma alternativa viável para suprir tais necessidades. Eles relaxam os 
    controles de consistência, integridade e transacionais característicos de 
    bancos relacionais para oferecerem mais disponibilidade, poder de 
    processamento paralelo e escalabilidade horizontal. Estudos mostraram que a 
    classe de bancos de dados NoSQL orientados a colunas apresentam bons 
    desempenhos para o uso com finalidades analíticas, pois, os dados de cada 
    coluna são armazenados contiguamente e separados fisicamente das demais 
    colunas. O planejamento de esquemas para os bancos de dados orientados a 
    colunas foi objeto de diversas pesquisas, as quais, avaliaram abordagens 
    normalizadas e desnormalizadas, bem como, as formas mais adequadas de se 
    promover a separação física dos dados de cada coluna. No entanto, esses 
    estudos não consideraram cenários que envolvam dados geoespaciais presentes 
    na base e no escopo das consultas analíticas. Com o intuito de investigar 
    as influências da redundância e do particionamento de dados convencionais e 
    geoespaciais em GDWs orientados a colunas e utilizados com finalidades 
    analíticas, propusemos 40 esquemas que adotam abordagens distintas para 
    modelar os relacionamentos entre fatos e dimensões, entre dimensões 
    convencionais e geoespaciais, e entre as próprias dimensões geoespaciais. 
    Utilizamos o benchmark denominado Spadawan para gerar os dados em 
    conformidade com os esquemas propostos, para os fatores de escala 1 e 10, e 
    avaliar o volume de dados, tempo de ingestão e tempo para a execução de uma 
    carga de consultas geoespaciais em um cluster computacional composto por 4 
    nós. Nossos resultados evidenciaram que a desnormalização das dimensões 
    convencionais foi a abordagem que mais contribuiu positivamente para a 
    redução dos tempos de execução, apesar de elevar o volume de armazenamento 
    demandado. A normalização das dimensões geográficas de menor seletividade 
    contribuiu com a redução dos tempos de execução, enquanto, a normalização 
    ou desnormalização das mais seletivas não ocasionou impactos positivos ou 
    negativos expressivamente.

11
  • CAIO AUGUSTO PEREIRA BURGARDT
  • Detecção de malware no macOS usando aprendizado supervisionado

  • Orientador : DIVANILSON RODRIGO DE SOUSA CAMPELO
  • MEMBROS DA BANCA :
  • DANIEL CARVALHO DA CUNHA
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • Data: 25/02/2022

  • Mostrar Resumo
  •  

    O desenvolvimento de malware para macOS cresceu significativamente nos últimos anos. Os invasores se tornaram mais sofisticados e mais direcionados com o surgimento de novas famílias de malware perigosas para o macOS. No entanto, como o problema de detecção de malware é muito dependente da plataforma, as soluções propostas anteriormente para outros sistemas operacionais não podem ser usadas diretamente no macOS. A detecção de malware é um dos principais pilares da segurança de endpoints. Infelizmente, houve muito poucos trabalhos sobre a segurança de endpoint do macOS, fazendo dessa área território pouco investigado. Atualmente, o único mecanismo de detecção de malware no macOS é um sistema baseado em assinatura com menos de 200 regras em 2021. Trabalhos recentes que tentaram melhorar a detecção de malwares no macOS têm limitações de metodologia, como a falta de um grande conjunto de dados de malware do macOS e problemas que surgem com conjuntos de dados em classes desequilibradas. Nessa dissertação, trazemos o problema de detecção de malware para o sistema operacional macOS e avaliamos como algoritmos de aprendizado de máquina supervisionados podem ser usados para melhorar a segurança de endpoint do ecossistema macOS. Criamos um novo e maior conjunto de dados de 631 malwares e 10.141 softwares benignos usando fontes públicas e extraindo informações do formato Mach-O. Avaliamos o desempenho de sete algoritmos de aprendizado de máquina diferentes, duas estratégias de amostragem e quatro técnicas de redução de recursos na detecção de malwares no macOS. Como resultado, apresentamos modelos melhores que as proteções nativas do macOS, com taxas de detecção superiores a 90% e mantendo uma taxa de alarmes falsos inferior a 1%. Nossos modelos demonstram com sucesso que a segurança do macOS pode ser aprimorada usando características estáticas de executáveis nativos em combinação com algoritmos populares de aprendizagem de máquina.



  • Mostrar Abstract
  •  

    O desenvolvimento de malware para macOS cresceu significativamente nos últimos anos. Os invasores se tornaram mais sofisticados e mais direcionados com o surgimento de novas famílias de malware perigosas para o macOS. No entanto, como o problema de detecção de malware é muito dependente da plataforma, as soluções propostas anteriormente para outros sistemas operacionais não podem ser usadas diretamente no macOS. A detecção de malware é um dos principais pilares da segurança de endpoints. Infelizmente, houve muito poucos trabalhos sobre a segurança de endpoint do macOS, fazendo dessa área território pouco investigado. Atualmente, o único mecanismo de detecção de malware no macOS é um sistema baseado em assinatura com menos de 200 regras em 2021. Trabalhos recentes que tentaram melhorar a detecção de malwares no macOS têm limitações de metodologia, como a falta de um grande conjunto de dados de malware do macOS e problemas que surgem com conjuntos de dados em classes desequilibradas. Nessa dissertação, trazemos o problema de detecção de malware para o sistema operacional macOS e avaliamos como algoritmos de aprendizado de máquina supervisionados podem ser usados para melhorar a segurança de endpoint do ecossistema macOS. Criamos um novo e maior conjunto de dados de 631 malwares e 10.141 softwares benignos usando fontes públicas e extraindo informações do formato Mach-O. Avaliamos o desempenho de sete algoritmos de aprendizado de máquina diferentes, duas estratégias de amostragem e quatro técnicas de redução de recursos na detecção de malwares no macOS. Como resultado, apresentamos modelos melhores que as proteções nativas do macOS, com taxas de detecção superiores a 90% e mantendo uma taxa de alarmes falsos inferior a 1%. Nossos modelos demonstram com sucesso que a segurança do macOS pode ser aprimorada usando características estáticas de executáveis nativos em combinação com algoritmos populares de aprendizagem de máquina.


12
  • DENINI GABRIEL SILVA
  • Usando Ruído para Detectar Testes Flakiness

  • Orientador : MARCELO BEZERRA D AMORIM
  • MEMBROS DA BANCA :
  • LEOPOLDO MOTTA TEIXEIRA
  • MARCELO BEZERRA D AMORIM
  • MARCIO DE MEDEIROS RIBEIRO
  • Data: 25/02/2022

  • Mostrar Resumo
  • Diz-se que um teste é flaky quando passa ou falha de forma não determinística em diferentes execuções na mesma configuração (por exemplo, código). O teste flaky afeta negativamente o teste de regressão, pois as observações de falha não são necessariamente uma indicação de bugs no programa. Técnicas estáticas e dinâmicas para detecção de testes flaky têm sido propostas na literatura, mas são limitadas. Estudos anteriores mostraram que a flakiness do teste é causada principalmente por comportamento concorrente. Com base nessa observação, levantamos a hipótese de que a adição de ruído no ambiente pode interferir na ordenação dos eventos do programa e, consequentemente, influenciar nas saídas dos testes. Propomos o Shaker, uma técnica prática para detectar testes flaky comparando as saídas de várias execuções de teste em ambientes ruidosos. Comparado com uma execução de teste regular, uma execução de teste com o Shaker é mais lenta à medida que o ambiente é carregado, ou seja, o processo de teste compete por recursos (por exemplo, memória ou cpu) com tarefas estressantes que o Shaker cria. No entanto, conjecturas que o Shaker compensa ao detectar falhas em menos execuções em comparação com a alternativa de executar o conjunto de testes várias vezes em um ambiente regular (sem ruído). . Por exemplo, descobrimos que (1) Shaker é 96% preciso; é quase tão preciso quanto o ReRun, que por definição não relata falsos positivos, que (2) o recall do Shaker é muito maior em comparação com o do ReRun (0,95 versus 0,65), e que (3) o Shaker detecta testes irregulares com muito mais eficiência do que ReRun, apesar da sobrecarga de execução imposta pela abordagem. Em resumo, os resultados indicam que o ruído é uma abordagem promissora para detectar descamação.


  • Mostrar Abstract
  • Diz-se que um teste é flaky quando passa ou falha de forma não determinística em diferentes execuções na mesma configuração (por exemplo, código). O teste flaky afeta negativamente o teste de regressão, pois as observações de falha não são necessariamente uma indicação de bugs no programa. Técnicas estáticas e dinâmicas para detecção de testes flaky têm sido propostas na literatura, mas são limitadas. Estudos anteriores mostraram que a flakiness do teste é causada principalmente por comportamento concorrente. Com base nessa observação, levantamos a hipótese de que a adição de ruído no ambiente pode interferir na ordenação dos eventos do programa e, consequentemente, influenciar nas saídas dos testes. Propomos o Shaker, uma técnica prática para detectar testes flaky comparando as saídas de várias execuções de teste em ambientes ruidosos. Comparado com uma execução de teste regular, uma execução de teste com o Shaker é mais lenta à medida que o ambiente é carregado, ou seja, o processo de teste compete por recursos (por exemplo, memória ou cpu) com tarefas estressantes que o Shaker cria. No entanto, conjecturas que o Shaker compensa ao detectar falhas em menos execuções em comparação com a alternativa de executar o conjunto de testes várias vezes em um ambiente regular (sem ruído). . Por exemplo, descobrimos que (1) Shaker é 96% preciso; é quase tão preciso quanto o ReRun, que por definição não relata falsos positivos, que (2) o recall do Shaker é muito maior em comparação com o do ReRun (0,95 versus 0,65), e que (3) o Shaker detecta testes irregulares com muito mais eficiência do que ReRun, apesar da sobrecarga de execução imposta pela abordagem. Em resumo, os resultados indicam que o ruído é uma abordagem promissora para detectar descamação.

13
  • JOÃO ALEXANDRE DA SILVA NETO
  • DAOS: A drift adaptive system for offloading CEP in Edge Computing

  • Orientador : KIEV SANTOS DA GAMA
  • MEMBROS DA BANCA :
  • FERNANDO ANTONIO MOTA TRINTA
  • KIEV SANTOS DA GAMA
  • ROBERTO SOUTO MAIOR DE BARROS
  • Data: 25/02/2022

  • Mostrar Resumo
  • Complex Event Processing (CEP) é um paradigma utilizado para identificar padrões em um fluxo de eventos, viabilizando aplicações para detecção de fraudes financeiras ou anomalias em redes de computadores. Além disso, outro paradigma chamado Edge Computing é utilizado para estender o CEP e possibilitar que o mesmo seja implantado em dispositivos que ficam mais próximos da origem dos eventos. Consequentemente, isso viabiliza aplicações críticas, onde o tempo de resposta é um fator importante. Um dos desafios nesse cenário é manter essas aplicações sendo executadas na borda com um uso otimizado de recursos e atendendo aos requisitos de tempo de resposta. Para resolver isso, soluções do estado-da-arte sugerem estratégias de offloading computacional para distribuir o processamento entre os dispositivos de borda e uma instância mais robusta na cloud. As técnicas tradicionais de offloading usam um mecanismo baseado em políticas, comparando o uso atual de recursos com limites manualmente especificados. No entanto, essas técnicas são pouco adaptáveis à mudanças ao longo do tempo, exigindo que as políticas sejam constantemente reconfiguradas por especialistas do domínio. Uma solução para isso é utilizar aprendizagem de máquina para aprender com os dados contextuais dos dispositivos e auxiliar o processo de decisão de maneira inteligente. Contudo, os dispositivos de borda possuem limitações de recursos quando comparado com a cloud, dificultando o uso de modelos tradicionais de aprendizagem. Por essa razão, são escolhidos modelos que aprendem de maneira incremental, não dependem de histórico de dados e se adaptam à ocorrência de concept drifts. Portanto, este trabalho propõe a solução DAOS (Drift Adaptive Offloading System), que tem como objetivo utilizar aprendizagem online e detecção de concept drifts no processo de tomada de decisão de offloading, visando otimizar a execução de aplicações CEP na borda. Além disso, ele adota um mecanismo de fallback para utilizar políticas estáticas enquanto os modelos de inteligência não forem confiáveis. Essa proposta é analisada através de uma avaliação de performance que compara o DAOS com a abordagem puramente baseada em políticas, variando a complexidade da aplicação e a taxa de transferência dos dados. A avaliação mostrou que existe uma diferença estatisticamente significativa entre as duas abordagens, evidenciando que as técnicas adotadas pelo DAOS melhoram as decisões de offloading de aplicações CEP na borda.


  • Mostrar Abstract
  • Complex Event Processing (CEP) é um paradigma utilizado para identificar padrões em um fluxo de eventos, viabilizando aplicações para detecção de fraudes financeiras ou anomalias em redes de computadores. Além disso, outro paradigma chamado Edge Computing é utilizado para estender o CEP e possibilitar que o mesmo seja implantado em dispositivos que ficam mais próximos da origem dos eventos. Consequentemente, isso viabiliza aplicações críticas, onde o tempo de resposta é um fator importante. Um dos desafios nesse cenário é manter essas aplicações sendo executadas na borda com um uso otimizado de recursos e atendendo aos requisitos de tempo de resposta. Para resolver isso, soluções do estado-da-arte sugerem estratégias de offloading computacional para distribuir o processamento entre os dispositivos de borda e uma instância mais robusta na cloud. As técnicas tradicionais de offloading usam um mecanismo baseado em políticas, comparando o uso atual de recursos com limites manualmente especificados. No entanto, essas técnicas são pouco adaptáveis à mudanças ao longo do tempo, exigindo que as políticas sejam constantemente reconfiguradas por especialistas do domínio. Uma solução para isso é utilizar aprendizagem de máquina para aprender com os dados contextuais dos dispositivos e auxiliar o processo de decisão de maneira inteligente. Contudo, os dispositivos de borda possuem limitações de recursos quando comparado com a cloud, dificultando o uso de modelos tradicionais de aprendizagem. Por essa razão, são escolhidos modelos que aprendem de maneira incremental, não dependem de histórico de dados e se adaptam à ocorrência de concept drifts. Portanto, este trabalho propõe a solução DAOS (Drift Adaptive Offloading System), que tem como objetivo utilizar aprendizagem online e detecção de concept drifts no processo de tomada de decisão de offloading, visando otimizar a execução de aplicações CEP na borda. Além disso, ele adota um mecanismo de fallback para utilizar políticas estáticas enquanto os modelos de inteligência não forem confiáveis. Essa proposta é analisada através de uma avaliação de performance que compara o DAOS com a abordagem puramente baseada em políticas, variando a complexidade da aplicação e a taxa de transferência dos dados. A avaliação mostrou que existe uma diferença estatisticamente significativa entre as duas abordagens, evidenciando que as técnicas adotadas pelo DAOS melhoram as decisões de offloading de aplicações CEP na borda.

14
  • LARISSA RODRIGUES DA COSTA
  • NFR4TRUST: CATÁLOGO DE REQUISITOS NÃO-FUNCIONAIS DE CONFIANÇA PARA ROBÔS SOCIALMENTE ASSISTIVOS

  • Orientador : JAELSON FREIRE BRELAZ DE CASTRO
  • MEMBROS DA BANCA :
  • JULIO CESAR SAMPAIO DO PRADO LEITE
  • JAELSON FREIRE BRELAZ DE CASTRO
  • JUDITH KELNER
  • Data: 03/03/2022

  • Mostrar Resumo
  • Contexto: No campo de pesquisa da Robótica Socialmente Assistiva (Socially 
    As-sistive Robotics - SAR) o estudo da Interação Humano-Robô (Human 
    Robot-Interaction- HRI) tem o importante papel de indagar a forma como o 
    aspecto humano e robótico colaboram entre si e qual o espaço do robô na 
    vida humana. Alguns aspectos vêm sendo bastante estudados na literatura, 
    dentre eles a confiança, que é considerada crucial para uma interação bem 
    sucedida entre Homem-Robô. A Engenharia de Requisitos pode contribuir para 
    compreender, modelar e analisar quais requisitos são fundamentais, 
    melhorando assim a aceitação da utilização desses robôs. Objetivo: Essa 
    pesquisa propôs a construção de um catálogo de Requisitos Não-Funcionais de 
    confiança para Robôs Socialmente Assistivos (Socially Assistive Robots - 
    SARs) chamado NFR4TRUST, que pode ajudara elicitar e especificar requisitos 
    não-funcionais que melhoram a confiança humana na utilização de robôs neste 
    domínio. Método: Foi realizado um levantamento bibliográfico visando 
    verificar o estado da arte em HRI no contexto de confiança e a partir deste 
    estudo, foi construída uma proposta de taxonomia de confiança para SARs que 
    auxilia na descoberta de requisitos. A validação do catálogo proposto foi 
    realizada através de uma Prova de Conceito (PoC), entrevista com 
    especialistas das áreas relacionadas e um questionário para obter a opinião 
    de engenheiros de requisitos. O uso do catálogo NFR4TRUST foi ilustrado 
    através de sua aplicação na definição de requisitos de confiança de um robô 
    socialmente assistivo que auxilia na reabilitação de membros superiores. 
    Resultados: Com este trabalho criamos o Catálogo NFR4TRUST que apresenta um 
    conjunto de Requisitos Não-Funcionais relacionados a confiança que podem 
    ser levados em consideração em desenvolvimento de projetos com Robôs 
    Socialmente Assistivos e sua utilização pode melhorar a confiança no robô. 
    Conclusão: Os resultados deste trabalho apontaram que com a utilização do 
    catálogo NFR4TRUST é possível apoiar as etapas de elicitação e 
    especificação em projetos de SARs permitindo identificar preocupações 
    iniciais sobre a perspectiva de confiança do usuário e projetar formas de 
    mitigá-las.


  • Mostrar Abstract
  • Contexto: No campo de pesquisa da Robótica Socialmente Assistiva (Socially 
    As-sistive Robotics - SAR) o estudo da Interação Humano-Robô (Human 
    Robot-Interaction- HRI) tem o importante papel de indagar a forma como o 
    aspecto humano e robótico colaboram entre si e qual o espaço do robô na 
    vida humana. Alguns aspectos vêm sendo bastante estudados na literatura, 
    dentre eles a confiança, que é considerada crucial para uma interação bem 
    sucedida entre Homem-Robô. A Engenharia de Requisitos pode contribuir para 
    compreender, modelar e analisar quais requisitos são fundamentais, 
    melhorando assim a aceitação da utilização desses robôs. Objetivo: Essa 
    pesquisa propôs a construção de um catálogo de Requisitos Não-Funcionais de 
    confiança para Robôs Socialmente Assistivos (Socially Assistive Robots - 
    SARs) chamado NFR4TRUST, que pode ajudara elicitar e especificar requisitos 
    não-funcionais que melhoram a confiança humana na utilização de robôs neste 
    domínio. Método: Foi realizado um levantamento bibliográfico visando 
    verificar o estado da arte em HRI no contexto de confiança e a partir deste 
    estudo, foi construída uma proposta de taxonomia de confiança para SARs que 
    auxilia na descoberta de requisitos. A validação do catálogo proposto foi 
    realizada através de uma Prova de Conceito (PoC), entrevista com 
    especialistas das áreas relacionadas e um questionário para obter a opinião 
    de engenheiros de requisitos. O uso do catálogo NFR4TRUST foi ilustrado 
    através de sua aplicação na definição de requisitos de confiança de um robô 
    socialmente assistivo que auxilia na reabilitação de membros superiores. 
    Resultados: Com este trabalho criamos o Catálogo NFR4TRUST que apresenta um 
    conjunto de Requisitos Não-Funcionais relacionados a confiança que podem 
    ser levados em consideração em desenvolvimento de projetos com Robôs 
    Socialmente Assistivos e sua utilização pode melhorar a confiança no robô. 
    Conclusão: Os resultados deste trabalho apontaram que com a utilização do 
    catálogo NFR4TRUST é possível apoiar as etapas de elicitação e 
    especificação em projetos de SARs permitindo identificar preocupações 
    iniciais sobre a perspectiva de confiança do usuário e projetar formas de 
    mitigá-las.

15
  • RENATO ATOUGUIA LEITE
  • SAAS PROCESS - Um Processo de Desenvolvimento para Software Como 
    Serviço

  • Orientador : ALEXANDRE MARCOS LINS DE VASCONCELOS
  • MEMBROS DA BANCA :
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • RAFAEL PRIKLADNICKI
  • VINICIUS CARDOSO GARCIA
  • Data: 03/03/2022

  • Mostrar Resumo
  • Estima-se que mais de 50% do custo em torno de um software ocorra na fase 
    de evolução, podendo chegar a 90% em alguns casos. Considerando modelos de 
    desenvolvimento, surgiram modelos de negócio sustentados na evolução de 
    plataformas, como o Software as a Service – SaaS. Nesse modelo de entrega, 
    métodos ágeis têm tido um papel importante, entregando software com 
    time-to-market adequado, mas com desafios relacionados às mudanças 
    constantes de backlogs. Isso porque novas features precisam de entregas 
    contínuas e imediatas que o modelo de serviço naturalmente carrega consigo. 
    Desta forma, analisar o impacto do modelo de entrega de software como 
    serviço sobre as metodologias ágeis e propor um novo processo de 
    desenvolvimento de software, considerando aspectos de documentação, 
    qualidade de código, auto-gestão dos times e a instanciação de processos 
    definidos nas metodologias comumente adotadas pela indústria, foi o 
    objetivo desse trabalho. Para execução da pesquisa se fez uso de um 
    mapeamento sistemático da literatura para evidenciar o uso de metodologias 
    ágeis durante a atividade de evolução de software em processos de 
    manutenção. Adicionalmente, foram aplicados questionários e entrevistas 
    junto a atores que possuam papéis de gerência de equipes e priorização de 
    backlogs. Como última etapa e a fim de confrontar os dados, foi analisado 
    os resultados de uma pesquisa-ação executada durante toda extensão do 
    trabalho em uma empresa de software paraibana. O resultado consistiu em uma 
    generalização interpretativa com ênfase qualitativa do case observado e das 
    evidências coletadas através demais métodos. Conforme o mapeamento 
    sistemático da literatura, evidenciou-se que os processos de 
    desenvolvimento de software que fazem uso de metodologias ágeis 
    tradicionais, como Scrum, geram tensões nos times que executam manutenção 
    de software, por não permitirem mudanças nas janelas de entregas e escopos, 
    características essas encontradas em ambientes no modelo SaaS, onde as 
    atividades de manutenção precisam ser resolvidas com rapidez. Neste 
    contexto, o uso das técnicas e ferramentas, como metodologia se apresentam 
    em maior consonância aos métodos tradicionais isolados, uma vez que 
    trabalham com o conceito de entrega contínua, DevOps e times 
    autogerenciados.


  • Mostrar Abstract
  • Estima-se que mais de 50% do custo em torno de um software ocorra na fase 
    de evolução, podendo chegar a 90% em alguns casos. Considerando modelos de 
    desenvolvimento, surgiram modelos de negócio sustentados na evolução de 
    plataformas, como o Software as a Service – SaaS. Nesse modelo de entrega, 
    métodos ágeis têm tido um papel importante, entregando software com 
    time-to-market adequado, mas com desafios relacionados às mudanças 
    constantes de backlogs. Isso porque novas features precisam de entregas 
    contínuas e imediatas que o modelo de serviço naturalmente carrega consigo. 
    Desta forma, analisar o impacto do modelo de entrega de software como 
    serviço sobre as metodologias ágeis e propor um novo processo de 
    desenvolvimento de software, considerando aspectos de documentação, 
    qualidade de código, auto-gestão dos times e a instanciação de processos 
    definidos nas metodologias comumente adotadas pela indústria, foi o 
    objetivo desse trabalho. Para execução da pesquisa se fez uso de um 
    mapeamento sistemático da literatura para evidenciar o uso de metodologias 
    ágeis durante a atividade de evolução de software em processos de 
    manutenção. Adicionalmente, foram aplicados questionários e entrevistas 
    junto a atores que possuam papéis de gerência de equipes e priorização de 
    backlogs. Como última etapa e a fim de confrontar os dados, foi analisado 
    os resultados de uma pesquisa-ação executada durante toda extensão do 
    trabalho em uma empresa de software paraibana. O resultado consistiu em uma 
    generalização interpretativa com ênfase qualitativa do case observado e das 
    evidências coletadas através demais métodos. Conforme o mapeamento 
    sistemático da literatura, evidenciou-se que os processos de 
    desenvolvimento de software que fazem uso de metodologias ágeis 
    tradicionais, como Scrum, geram tensões nos times que executam manutenção 
    de software, por não permitirem mudanças nas janelas de entregas e escopos, 
    características essas encontradas em ambientes no modelo SaaS, onde as 
    atividades de manutenção precisam ser resolvidas com rapidez. Neste 
    contexto, o uso das técnicas e ferramentas, como metodologia se apresentam 
    em maior consonância aos métodos tradicionais isolados, uma vez que 
    trabalham com o conceito de entrega contínua, DevOps e times 
    autogerenciados.

16
  • DENISSON AUGUSTO BASTOS LEAL
  • Ensembles Dinâmicos para Detecção de Concept Drift em Séries 
    Temporais

  • Orientador : ADRIANO LORENA INACIO DE OLIVEIRA
  • MEMBROS DA BANCA :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • JARLEY PALMEIRA NOBREGA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 03/03/2022

  • Mostrar Resumo
  • Séries temporais são medições realizadas em um intervalo fixo de tempo, que 
    podem ser usadas em diversos tipos de problemas. Elas são estudadas por 
    diversas áreas a fim de compreender as características de sua geração. 
    Existe uma área mais específica de previsão de séries temporais que busca 
    capturar a tendência e encontrar um padrão dos movimentos em situações que 
    já ocorreram para prever a próxima observação da série. Porém, ao longo do 
    tempo podem acontecer alguns eventos que mudam todo o contexto da série, o 
    concept drift, e o conhecimento armazenado da série pode não refletir mais 
    a realidade da série após esse evento. Então, quando um modelo de 
    aprendizado de máquina é treinado para realizar previsões e um concept 
    drift acontece, esse modelo passa a ficar defasado e para a atualização do 
    modelo, alguns pontos do novo conceito precisam ser capturados e 
    armazenados, até serem suficientes para um novo treinamento. Durante esse 
    período de coleta de dados os modelos aumentam exponencialmente seu erro, 
    afetando o desempenho geral do sistema de previsão e dependendo da 
    frequência em que o concept drift aconteça, pode inviabilizar o seu uso. O 
    objetivo deste trabalho é propor um método para previsão de séries 
    temporais na presença de concept drift, minimizando o impacto da redução do 
    desempenho preditivo durante o processo de adaptação ao novo conceito. Para 
    isso foram propostos três métodos que usam o conceito antigo para melhorar 
    o desempenho nessa fase de adaptação. Os métodos usam PSO para otimização 
    do treinamento de partículas ELM, que são usadas na previsão e como 
    sensores para detecção concept drift. O primeiro método usa um ensemble com 
    todas as partículas treinadas. O segundo usa uma combinação, usando o 
    algoritmo guloso, das melhores partículas quando o concept drift é 
    detectado até a sua adaptação. E o terceiro usa a melhor combinação das 
    partículas desde o início e atualiza a combinação depois da detecção de um 
    concept drift. Todos os métodos propostos fazem adaptação para o novo 
    conceito depois de ter dados suficientes para o treinamento. Nos 
    experimentos foram usadas sete séries, sendo elas quatro geradas 
    sinteticamente com concept drift conhecidos e três séries reais de índices 
    do mercado financeiro com concept drift desconhecidos. Os resultados do 
    experimento foram comparados com métodos disponíveis na literatura e os 
    métodos propostos que se adaptam usando uma combinação das melhores 
    partículas conseguiram resultados melhores com significância estatística. 
    Mostrando que, o período de adaptação do método ao novo conceito é 
    relevante no erro geral da previsão e que o treinamento anterior pode 
    ajudar a reduzir esse erro.


  • Mostrar Abstract
  • Séries temporais são medições realizadas em um intervalo fixo de tempo, que 
    podem ser usadas em diversos tipos de problemas. Elas são estudadas por 
    diversas áreas a fim de compreender as características de sua geração. 
    Existe uma área mais específica de previsão de séries temporais que busca 
    capturar a tendência e encontrar um padrão dos movimentos em situações que 
    já ocorreram para prever a próxima observação da série. Porém, ao longo do 
    tempo podem acontecer alguns eventos que mudam todo o contexto da série, o 
    concept drift, e o conhecimento armazenado da série pode não refletir mais 
    a realidade da série após esse evento. Então, quando um modelo de 
    aprendizado de máquina é treinado para realizar previsões e um concept 
    drift acontece, esse modelo passa a ficar defasado e para a atualização do 
    modelo, alguns pontos do novo conceito precisam ser capturados e 
    armazenados, até serem suficientes para um novo treinamento. Durante esse 
    período de coleta de dados os modelos aumentam exponencialmente seu erro, 
    afetando o desempenho geral do sistema de previsão e dependendo da 
    frequência em que o concept drift aconteça, pode inviabilizar o seu uso. O 
    objetivo deste trabalho é propor um método para previsão de séries 
    temporais na presença de concept drift, minimizando o impacto da redução do 
    desempenho preditivo durante o processo de adaptação ao novo conceito. Para 
    isso foram propostos três métodos que usam o conceito antigo para melhorar 
    o desempenho nessa fase de adaptação. Os métodos usam PSO para otimização 
    do treinamento de partículas ELM, que são usadas na previsão e como 
    sensores para detecção concept drift. O primeiro método usa um ensemble com 
    todas as partículas treinadas. O segundo usa uma combinação, usando o 
    algoritmo guloso, das melhores partículas quando o concept drift é 
    detectado até a sua adaptação. E o terceiro usa a melhor combinação das 
    partículas desde o início e atualiza a combinação depois da detecção de um 
    concept drift. Todos os métodos propostos fazem adaptação para o novo 
    conceito depois de ter dados suficientes para o treinamento. Nos 
    experimentos foram usadas sete séries, sendo elas quatro geradas 
    sinteticamente com concept drift conhecidos e três séries reais de índices 
    do mercado financeiro com concept drift desconhecidos. Os resultados do 
    experimento foram comparados com métodos disponíveis na literatura e os 
    métodos propostos que se adaptam usando uma combinação das melhores 
    partículas conseguiram resultados melhores com significância estatística. 
    Mostrando que, o período de adaptação do método ao novo conceito é 
    relevante no erro geral da previsão e que o treinamento anterior pode 
    ajudar a reduzir esse erro.

17
  • MARIA CECILIA CAVALCANTI JUCA
  • Como startups e corporações se envolvem em iniciativas de inovação aberta? Um estudo exploratório

  • Orientador : CARINA FROTA ALVES
  • MEMBROS DA BANCA :
  • CARINA FROTA ALVES
  • GIORDANO RIBEIRO EULALIO CABRAL
  • IVAN DO CARMO MACHADO
  • Data: 03/03/2022

  • Mostrar Resumo
  • Nos últimos anos, a crescente pressão do mercado e o constante surgimento de novas tecnologias levaram as empresas a realizar transformações digitais para criar valor e entregar melhores produtos ou serviços para os clientes. As corporações enfrentam vários desafios quando se trata de incorporar novas tecnologias ou acelerar e digitalizar seus processos bem estabelecidos. Por outro lado, as startups são reconhecidas por sua capacidade de inovação, disposição para assumir riscos, soluções escaláveis e processos ágeis. Na busca por velocidade e inovação, as corporações estão se engajando com startups para atingir objetivos complementares. As corporações desejam o potencial criativo das startups, enquanto as startups precisam de recursos abundantes nas corporações. Portanto, identificamos o crescente interesse de corporações e startups em se envolverem por meio de iniciativas de inovação aberta. Esta pesquisa explora como a inovação aberta é realizada na perspectiva de startups e corporações. Identificamos uma oportunidade de explorar as relações startup-corporação no Porto Digital, um dos ecossistemas de inovação mais relevantes do Brasil. Em um estudo exploratório, realizamos entrevistas semiestruturadas em oito startups e cinco corporações para entender a dinâmica de seus relacionamentos durante iniciativas de inovação aberta. Todas as oito startups fazem parte do Porto Digital, e as corporações foram selecionadas devido ao relacionamento com as startups estudadas. Nossos resultados revelam os principais direcionadores, benefícios e desafios envolvidos no engajamento entre startups e corporações. Por fim, apresentamos um conjunto de recomendações para estabelecer e fomentar as relações startup-corporação.


  • Mostrar Abstract
  • Nos últimos anos, a crescente pressão do mercado e o constante surgimento de novas tecnologias levaram as empresas a realizar transformações digitais para criar valor e entregar melhores produtos ou serviços para os clientes. As corporações enfrentam vários desafios quando se trata de incorporar novas tecnologias ou acelerar e digitalizar seus processos bem estabelecidos. Por outro lado, as startups são reconhecidas por sua capacidade de inovação, disposição para assumir riscos, soluções escaláveis e processos ágeis. Na busca por velocidade e inovação, as corporações estão se engajando com startups para atingir objetivos complementares. As corporações desejam o potencial criativo das startups, enquanto as startups precisam de recursos abundantes nas corporações. Portanto, identificamos o crescente interesse de corporações e startups em se envolverem por meio de iniciativas de inovação aberta. Esta pesquisa explora como a inovação aberta é realizada na perspectiva de startups e corporações. Identificamos uma oportunidade de explorar as relações startup-corporação no Porto Digital, um dos ecossistemas de inovação mais relevantes do Brasil. Em um estudo exploratório, realizamos entrevistas semiestruturadas em oito startups e cinco corporações para entender a dinâmica de seus relacionamentos durante iniciativas de inovação aberta. Todas as oito startups fazem parte do Porto Digital, e as corporações foram selecionadas devido ao relacionamento com as startups estudadas. Nossos resultados revelam os principais direcionadores, benefícios e desafios envolvidos no engajamento entre startups e corporações. Por fim, apresentamos um conjunto de recomendações para estabelecer e fomentar as relações startup-corporação.

18
  • RAPHAEL CRESPO PEREIRA
  • Otimização de Combinação de Modelos para Previsão de Consumo de 
    Energia

  • Orientador : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBROS DA BANCA :
  • LUCIANO DE ANDRADE BARBOSA
  • MANOEL HENRIQUE DA NÓBREGA MARINHO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 07/03/2022

  • Mostrar Resumo
  • A previsão do consumo de energia elétrica é um processo que permite a 
    melhoria de tomada de decisões auxiliando na gestão e gerenciamento de 
    consumo em edifícios de pequeno porte, graças aos avanços dos medidores 
    inteligentes. Na literatura pode-se observar que a previsão de consumo  de 
    energia é um problema desafiador por ser um tipo de série temporal composta 
    de correlações lineares e não-lineares.  Por este motivo, os modelos 
    estatísticos clássicos que são amplamente utilizados na literatura, possuem 
    uma capacidade limitada de identificar todos os padrões da série, já que 
    tais modelos são construídos considerando uma correlação linear dos dados. 
    Assim, a utilização de modelos não-lineares baseados em Aprendizagem de 
    Máquina (AM), se mostram bons candidatos por serem capazes de identificar 
    os padrões não- lineares. Além da utilização destes modelos, existem 
    trabalhos que mostram um ganho de desempenho com a utilização de Sistemas 
    Híbridos, na qual realizam a combinação dos modelos lineares estatísticos 
    com modelos não-lineares de AM. Tal combinação considera que o resíduo dos 
    modelos lineares, ou seja, a série composta pela diferença entre o real e o 
    previsto, possui padrões não-lineares que não foram captados. Este trabalho 
    propõe uma nova abordagem baseada na utilização de Sistemas Híbridos 
    Inteligentes composta por três modelos, sendo eles: modelo linear para 
    realizar a extração dos padrões lineares da série temporal, modelo 
    não-linear para realizar a extração dos padrões não-lineares presentes na 
    série de resíduos e um modelo de combinação que considera que existe uma 
    relação não linear entre a série temporal, a série de resíduos, a previsão 
    da série temporal e a previsão da série de resíduos. Para contornar os 
    problemas de seleção dos dados que serão utilizados como entrada (lags) e a 
    escolha subótima dos hiperparâmetros dos modelos de AM, a metodologia 
    proposta possui 2 etapas de otimização, sendo uma delas na seleção da 
    quantidade de lags e dos hiperparâmetros do modelo de resíduos; e a outra 
    no modelo de combinação, realizando a seleção dos hiperparâmetros e da 
    quantidade de lags de cada uma das quatro séries utilizadas como dados de 
    entrada (Real, Resíduos, Previsão da Real e Previsão dos Resíduos). Desta 
    forma o sistema se mostra flexível por permitir explorar diferentes 
    combinações das séries e assim avaliar unificadamente diferentes propostas 
    de combinações que são encontradas na literatura. Nos experimentos 
    realizados foram utilizados o ARIMA como modelo linear e LSTM como modelo 
    não-linear. Para o  modelo de combinação foram testados o  XGBoost e SVR e 
    o Tree Parzen Estimator como algoritmo de otimização. Os resultados 
    encontrados apresentaram um desempenho superior ao estado da arte para 
    previsão do consumo de energia, a partir de dados de medidores inteligentes 
    utilizando as métricas clássicas de avaliação de modelos de previsão de 
    série temporal.


  • Mostrar Abstract
  • A previsão do consumo de energia elétrica é um processo que permite a 
    melhoria de tomada de decisões auxiliando na gestão e gerenciamento de 
    consumo em edifícios de pequeno porte, graças aos avanços dos medidores 
    inteligentes. Na literatura pode-se observar que a previsão de consumo  de 
    energia é um problema desafiador por ser um tipo de série temporal composta 
    de correlações lineares e não-lineares.  Por este motivo, os modelos 
    estatísticos clássicos que são amplamente utilizados na literatura, possuem 
    uma capacidade limitada de identificar todos os padrões da série, já que 
    tais modelos são construídos considerando uma correlação linear dos dados. 
    Assim, a utilização de modelos não-lineares baseados em Aprendizagem de 
    Máquina (AM), se mostram bons candidatos por serem capazes de identificar 
    os padrões não- lineares. Além da utilização destes modelos, existem 
    trabalhos que mostram um ganho de desempenho com a utilização de Sistemas 
    Híbridos, na qual realizam a combinação dos modelos lineares estatísticos 
    com modelos não-lineares de AM. Tal combinação considera que o resíduo dos 
    modelos lineares, ou seja, a série composta pela diferença entre o real e o 
    previsto, possui padrões não-lineares que não foram captados. Este trabalho 
    propõe uma nova abordagem baseada na utilização de Sistemas Híbridos 
    Inteligentes composta por três modelos, sendo eles: modelo linear para 
    realizar a extração dos padrões lineares da série temporal, modelo 
    não-linear para realizar a extração dos padrões não-lineares presentes na 
    série de resíduos e um modelo de combinação que considera que existe uma 
    relação não linear entre a série temporal, a série de resíduos, a previsão 
    da série temporal e a previsão da série de resíduos. Para contornar os 
    problemas de seleção dos dados que serão utilizados como entrada (lags) e a 
    escolha subótima dos hiperparâmetros dos modelos de AM, a metodologia 
    proposta possui 2 etapas de otimização, sendo uma delas na seleção da 
    quantidade de lags e dos hiperparâmetros do modelo de resíduos; e a outra 
    no modelo de combinação, realizando a seleção dos hiperparâmetros e da 
    quantidade de lags de cada uma das quatro séries utilizadas como dados de 
    entrada (Real, Resíduos, Previsão da Real e Previsão dos Resíduos). Desta 
    forma o sistema se mostra flexível por permitir explorar diferentes 
    combinações das séries e assim avaliar unificadamente diferentes propostas 
    de combinações que são encontradas na literatura. Nos experimentos 
    realizados foram utilizados o ARIMA como modelo linear e LSTM como modelo 
    não-linear. Para o  modelo de combinação foram testados o  XGBoost e SVR e 
    o Tree Parzen Estimator como algoritmo de otimização. Os resultados 
    encontrados apresentaram um desempenho superior ao estado da arte para 
    previsão do consumo de energia, a partir de dados de medidores inteligentes 
    utilizando as métricas clássicas de avaliação de modelos de previsão de 
    série temporal.

19
  • ARTHUR DO REGO BARROS MENDONCA
  • Avaliação Experimental de uma Arquitetura de Microsserviços para o Gerenciamento de Notas Fiscais Eletrônicas

  • Orientador : VALERIA CESARIO TIMES ALVES
  • MEMBROS DA BANCA :
  • RICARDO RODRIGUES CIFERRI
  • ANA CAROLINA BRANDAO SALGADO
  • VALERIA CESARIO TIMES ALVES
  • Data: 08/03/2022

  • Mostrar Resumo
  • Notas fiscais eletrônicas são documentos digitais no formato XML que registram operações de circulação de mercadorias ou prestação de serviços. Por meio de convênios de cooperação, os órgãos de arrecadação e controle fiscal têm intensificado o compartilhamento das notas fiscais que envolvem compras governamentais com os órgãos de controle da Administração Pública, como tribunais de contas e o Ministério Público. No entanto, o gerenciamento desses dados em SGBDs relacionais se mostra desafiador, principalmente pelo volume de dados gerado e pela variedade de formatos da NF-e, em cujo leiaute estão previstos campos multivalorados e opcionais. O leiaute é frequentemente modificado, o que leva à necessidade de retrabalho na modelagem dos dados. Neste trabalho, se descreve a arquitetura ControleNF, uma arquitetura que utiliza microsserviços, uma REST API e SGBD NoSQL para o gerenciamento das notas fiscais por órgãos de controle. A arquitetura é avaliada do ponto de vista qualitativo, através dos critérios de manutenibilidade e portabilidade, previstos no ISO/IEC 25010, e quantitativo, em que os aspectos de desempenho e escalabilidade são mensurados através de uma avaliação experimental. Embora a avaliação qualitativa aponte possíveis ganhos relativos à facilidade de manutenção e à portabilidade da arquitetura, o desempenho mensurado no experimento foi consideravelmente inferior àquele observado na arquitetura tradicional que utiliza SGBDs relacionais. Uma investigação detalhada é realizada e possíveis causas da perda de desempenho são relatadas.


  • Mostrar Abstract
  • Notas fiscais eletrônicas são documentos digitais no formato XML que registram operações de circulação de mercadorias ou prestação de serviços. Por meio de convênios de cooperação, os órgãos de arrecadação e controle fiscal têm intensificado o compartilhamento das notas fiscais que envolvem compras governamentais com os órgãos de controle da Administração Pública, como tribunais de contas e o Ministério Público. No entanto, o gerenciamento desses dados em SGBDs relacionais se mostra desafiador, principalmente pelo volume de dados gerado e pela variedade de formatos da NF-e, em cujo leiaute estão previstos campos multivalorados e opcionais. O leiaute é frequentemente modificado, o que leva à necessidade de retrabalho na modelagem dos dados. Neste trabalho, se descreve a arquitetura ControleNF, uma arquitetura que utiliza microsserviços, uma REST API e SGBD NoSQL para o gerenciamento das notas fiscais por órgãos de controle. A arquitetura é avaliada do ponto de vista qualitativo, através dos critérios de manutenibilidade e portabilidade, previstos no ISO/IEC 25010, e quantitativo, em que os aspectos de desempenho e escalabilidade são mensurados através de uma avaliação experimental. Embora a avaliação qualitativa aponte possíveis ganhos relativos à facilidade de manutenção e à portabilidade da arquitetura, o desempenho mensurado no experimento foi consideravelmente inferior àquele observado na arquitetura tradicional que utiliza SGBDs relacionais. Uma investigação detalhada é realizada e possíveis causas da perda de desempenho são relatadas.

20
  • MILTON VASCONCELOS DA GAMA NETO
  • Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais

     

  • Orientador : GERMANO CRISPIM VASCONCELOS
  • MEMBROS DA BANCA :
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • GERMANO CRISPIM VASCONCELOS
  • JAIRSON BARBOSA RODRIGUES
  • Data: 10/03/2022

  • Mostrar Resumo
  • As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e aparecimento de novos métodos. Ao mesmo tempo, os desafios são cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a ética, responsabilidade e performance nas soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, e realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio que a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar algumas estratégias. Diferente de alguns trabalhos comparativos, a análise em uma mesma base de dados fornece uma visão mais justa das explicações geradas. Em decorrência das limitações encontradas nas abordagens investigadas, é proposto um novo método, o Textual SHAP. O método busca endereçar necessidades da área, como por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos. Foi realizada uma avaliação com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.


  • Mostrar Abstract
  • As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e aparecimento de novos métodos. Ao mesmo tempo, os desafios são cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a ética, responsabilidade e performance nas soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, e realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio que a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar algumas estratégias. Diferente de alguns trabalhos comparativos, a análise em uma mesma base de dados fornece uma visão mais justa das explicações geradas. Em decorrência das limitações encontradas nas abordagens investigadas, é proposto um novo método, o Textual SHAP. O método busca endereçar necessidades da área, como por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos. Foi realizada uma avaliação com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.

21
  • PEDRO VINICIUS BATISTA CLERICUZI
  • Desenvolvimento de um Sistema de Gerenciamento de Uso de 
    Equipamentos em um Laboratório baseado em RFID

  • Orientador : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBROS DA BANCA :
  • ADRIANO AUGUSTO DE MORAES SARMENTO
  • EDNA NATIVIDADE DA SILVA BARROS
  • VICTOR WANDERLEY COSTA DE MEDEIROS
  • Data: 10/03/2022

  • Mostrar Resumo
  • Novas tecnologias voltadas para o controle no uso de bens têm surgido ano após ano para tornar o controle patrimonial cada vez mais ágil e confiável. Este trabalho teve como objetivo o desenvolvimento de um sistema de monitoramento de uso dos equipamentos de um laboratório usando a tecnologia RFID. O sistema foi desenvolvido a fim de possibilitar que os alunos do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) usem o laboratório de hardware a qualquer hora sem a supervisão de terceiros e os equipamentos contidos nele estejam sempre seguros e sob supervisão automatizada. No contexto atual isso não é possível, as baias são abertas apenas com chave e só quem tem acesso a elas são os monitores e funcionários. Isso é um problema porque o CIn funciona 24h todos os dias, sendo o laboratório de hardware um dos poucos que funcionam apenas em dias e horários específicos. A solução desenvolvida usa como meio de acesso às baias crachás com tags RFID, tecnologia essa que é amplamente utilizada no CIn. Para os equipamentos, também foram utilizados leitores RFID dentro das baias para garantir que os equipamentos estejam no local correto após seu uso. Todas as informações do monitoramento e log de uso ficam armazenadas em um sistema na nuvem, desenvolvido no contexto deste trabalho. O sistema em nuvem permite identificar os usuários dos equipamentos, enviar notificações de uso e efetuar reservas para uso do laboratório em horários não comerciais.


  • Mostrar Abstract
  • Novas tecnologias voltadas para o controle no uso de bens têm surgido ano após ano para tornar o controle patrimonial cada vez mais ágil e confiável. Este trabalho teve como objetivo o desenvolvimento de um sistema de monitoramento de uso dos equipamentos de um laboratório usando a tecnologia RFID. O sistema foi desenvolvido a fim de possibilitar que os alunos do Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) usem o laboratório de hardware a qualquer hora sem a supervisão de terceiros e os equipamentos contidos nele estejam sempre seguros e sob supervisão automatizada. No contexto atual isso não é possível, as baias são abertas apenas com chave e só quem tem acesso a elas são os monitores e funcionários. Isso é um problema porque o CIn funciona 24h todos os dias, sendo o laboratório de hardware um dos poucos que funcionam apenas em dias e horários específicos. A solução desenvolvida usa como meio de acesso às baias crachás com tags RFID, tecnologia essa que é amplamente utilizada no CIn. Para os equipamentos, também foram utilizados leitores RFID dentro das baias para garantir que os equipamentos estejam no local correto após seu uso. Todas as informações do monitoramento e log de uso ficam armazenadas em um sistema na nuvem, desenvolvido no contexto deste trabalho. O sistema em nuvem permite identificar os usuários dos equipamentos, enviar notificações de uso e efetuar reservas para uso do laboratório em horários não comerciais.

22
  • ASSIS TIAGO DE OLIVEIRA FILHO
  • UMA ANÁLISE EXPERIMENTAL DE DESEMPENHO DO PROTOCOLO QUIC

  • Orientador : KELVIN LOPES DIAS
  • MEMBROS DA BANCA :
  • DJAMEL FAWZI HADJ SADOK
  • GLAUCO ESTACIO GONÇALVES
  • NELSON SOUTO ROSA
  • Data: 10/03/2022

  • Mostrar Resumo
  • O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada. 


  • Mostrar Abstract
  • O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada. 

23
  • RODRIGO LUDERMIR DE OLIVEIRA
  • Detecção de Posicionamento em Tweets sobre Covid-19 no Brasil 
    utilizando métodos de Aprendizagem de Máquina

  • Orientador : CLEBER ZANCHETTIN
  • MEMBROS DA BANCA :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • CLEBER ZANCHETTIN
  • RENATO VIMIEIRO
  • Data: 10/03/2022

  • Mostrar Resumo
  • A onipresença da pandemia de Covid-19 durante os últimos dois anos 
    acarretou na urgência de ações responsivas contra o avanço da contaminação 
    do novo coronavírus e em estratégias de imunização da população, através de 
    políticas de saúde pública e medidas sanitárias preventivas por parte das 
    autoridades responsáveis e também da sociedade civil. No Brasil, de modo 
    semelhante a outros países, esse processo foi profundamente politizado, 
    suscitando discussões polarizadas que inundaram as redes sociais - ocupando 
    agora, mais do que nunca, diante do isolamento social, o centro das 
    discussões sociais e políticas - com opiniões e posicionamentos acerca das 
    medidas adotadas contra a Covid-19 e suas repercussões. Enquanto um 
    paradigma emergente no campo de mineração de opiniões nas redes sociais, 
    sistemas de detecção de posicionamento têm produzido resultados frutíferos. 
    Isso ocorre principalmente em aplicações que utilizam métodos de 
    Processamento de Linguagem Natural e Análise de Redes, sobretudo quando são 
    implementados para classificar o posicionamento de usuários e/ou textos 
    implicados em temas sociais e políticos. A tarefa de detecção de 
    posicionamentos, no entanto, alcança um maior desempenho quando os objetos 
    de classificação, sejam usuários ou textos, estão segmentados por um tópico 
    alvo sobre o qual os posicionamentos foram direcionados. Desse modo, esta 
    dissertação investiga a utilização de métodos de aprendizagem de máquina no 
    desenvolvimento de sistemas de detecção de posicionamento em Tweets - 
    publicações na rede social Twitter - de usuários brasileiros comentando as 
    medidas relacionadas ao Covid-19, exercidas por eles próprios e pelo 
    governo brasileiro em seus diferentes órgãos e níveis de atuação. O 
    trabalho envolve quatro partes principais: (1) Construção da base de dados, 
    na qual houve o levantamento de aproximadamente 6 milhões de Tweets e 
    Retweets em português que mencionam palavras relacionadas ao Covid-19 entre 
    Janeiro de 2020 e Outubro de 2021, das quais cerca de 350 mil Tweets foram 
    rotulados (pseudo-labels), através de métodos de anotação fraca (weak 
    supervision), em 'favoráveis' ou 'contrários' às medidas do governo federal 
    frente à pandemia. (2) Limpeza, análise exploratória e segmentação da base 
    rotulada por tópicos mais relevantes e frequentes: Vacinação, Lockdown, 
    Tratamento Precoce, Uso de Máscaras, CPI da Covid e atuação dos 
    Governadores e Prefeitos. (3) Avaliação de modelos tradicionais de 
    Aprendizagem de Máquina na detecção de posicionamentos. (4) Avaliação de 
    modelos de aprendizagem profunda, sobretudo Transformers, na mesma tarefa. 
    Uma arquitetura específica foi investigada em detalhes através de três 
    abordagens de aprendizagem distintas, mas complementares. Utilizando o 
    modelo de linguagem de domínio geral em português-brasileiro BERTimbau, que 
    segue a arquitetura base do BERT, foram realizados experimentos com: (1) 
    adaptação de domínio, usando os dados não rotulados; (2) uso de dados 
    relacionais dos usuários (rede de interações - retweets, mentions e 
    replies); (3) Aprendizado via Multi-tasking, realizando o ajuste-fino em 
    todos os tópicos ao mesmo tempo. Os experimentos realizados demonstraram 
    que os modelos inicializados usando BERTimbau e treinados combinando as 
    três abordagens citadas acima se sobressaem sobre os demais em seu 
    desempenho diante da variedade de tópicos relacionados ao Covid-19 no 
    contexto brasileiro.


  • Mostrar Abstract
  • A onipresença da pandemia de Covid-19 durante os últimos dois anos 
    acarretou na urgência de ações responsivas contra o avanço da contaminação 
    do novo coronavírus e em estratégias de imunização da população, através de 
    políticas de saúde pública e medidas sanitárias preventivas por parte das 
    autoridades responsáveis e também da sociedade civil. No Brasil, de modo 
    semelhante a outros países, esse processo foi profundamente politizado, 
    suscitando discussões polarizadas que inundaram as redes sociais - ocupando 
    agora, mais do que nunca, diante do isolamento social, o centro das 
    discussões sociais e políticas - com opiniões e posicionamentos acerca das 
    medidas adotadas contra a Covid-19 e suas repercussões. Enquanto um 
    paradigma emergente no campo de mineração de opiniões nas redes sociais, 
    sistemas de detecção de posicionamento têm produzido resultados frutíferos. 
    Isso ocorre principalmente em aplicações que utilizam métodos de 
    Processamento de Linguagem Natural e Análise de Redes, sobretudo quando são 
    implementados para classificar o posicionamento de usuários e/ou textos 
    implicados em temas sociais e políticos. A tarefa de detecção de 
    posicionamentos, no entanto, alcança um maior desempenho quando os objetos 
    de classificação, sejam usuários ou textos, estão segmentados por um tópico 
    alvo sobre o qual os posicionamentos foram direcionados. Desse modo, esta 
    dissertação investiga a utilização de métodos de aprendizagem de máquina no 
    desenvolvimento de sistemas de detecção de posicionamento em Tweets - 
    publicações na rede social Twitter - de usuários brasileiros comentando as 
    medidas relacionadas ao Covid-19, exercidas por eles próprios e pelo 
    governo brasileiro em seus diferentes órgãos e níveis de atuação. O 
    trabalho envolve quatro partes principais: (1) Construção da base de dados, 
    na qual houve o levantamento de aproximadamente 6 milhões de Tweets e 
    Retweets em português que mencionam palavras relacionadas ao Covid-19 entre 
    Janeiro de 2020 e Outubro de 2021, das quais cerca de 350 mil Tweets foram 
    rotulados (pseudo-labels), através de métodos de anotação fraca (weak 
    supervision), em 'favoráveis' ou 'contrários' às medidas do governo federal 
    frente à pandemia. (2) Limpeza, análise exploratória e segmentação da base 
    rotulada por tópicos mais relevantes e frequentes: Vacinação, Lockdown, 
    Tratamento Precoce, Uso de Máscaras, CPI da Covid e atuação dos 
    Governadores e Prefeitos. (3) Avaliação de modelos tradicionais de 
    Aprendizagem de Máquina na detecção de posicionamentos. (4) Avaliação de 
    modelos de aprendizagem profunda, sobretudo Transformers, na mesma tarefa. 
    Uma arquitetura específica foi investigada em detalhes através de três 
    abordagens de aprendizagem distintas, mas complementares. Utilizando o 
    modelo de linguagem de domínio geral em português-brasileiro BERTimbau, que 
    segue a arquitetura base do BERT, foram realizados experimentos com: (1) 
    adaptação de domínio, usando os dados não rotulados; (2) uso de dados 
    relacionais dos usuários (rede de interações - retweets, mentions e 
    replies); (3) Aprendizado via Multi-tasking, realizando o ajuste-fino em 
    todos os tópicos ao mesmo tempo. Os experimentos realizados demonstraram 
    que os modelos inicializados usando BERTimbau e treinados combinando as 
    três abordagens citadas acima se sobressaem sobre os demais em seu 
    desempenho diante da variedade de tópicos relacionados ao Covid-19 no 
    contexto brasileiro.

24
  • ELISA DE FÁTIMA ANDRADE SOARES
  • Um Mapeamento Sistemático de Problemas de Otimização no 
    Compartilhamento de Caronas

  • Orientador : VALERIA CESARIO TIMES ALVES
  • MEMBROS DA BANCA :
  • FRANCISCO CHAGAS DE LIMA JÚNIOR
  • SERGIO CASTELO BRANCO SOARES
  • VALERIA CESARIO TIMES ALVES
  • Data: 10/03/2022

  • Mostrar Resumo
  • O compartilhamento de caronas (CC) é um serviço de mobilidade compartilhada 
    que traz diversos benefícios  ambientais, econômicos e sociais. Sistemas de 
    Compartilhamento de Caronas englobam diferentes problemas e, para 
    solucioná-los técnicas de otimização são empregadas para realizar a 
    intermediação entre motoristas e passageiros que tenham horários e 
    itinerários semelhantes. Para efetivação das caronas é indispensável o uso 
    de algoritmos para definição das rotas dos participantes. Além disso, para 
    obter os melhores resultados desse tipo de serviço são considerados alguns 
    desafios, como: maximizar o número de participantes, determinar as melhores 
    rotas e minimizar os custos da viagem. Nesse contexto, o objetivo desta 
    pesquisa é investigar os problemas de otimização existentes no 
    compartilhamento de caronas e, também, identificar os métodos, as 
    ferramentas, os algoritmos e as técnicas utilizados para solucionar tais 
    problemas. Para esta pesquisa, um protocolo foi elaborado para a condução 
    de um Mapeamento Sistemático da Literatura (MSL), método utilizado para 
    identificar, classificar, analisar e sintetizar as evidências encontradas 
    através dos estudos selecionados que abordam o compartilhamento de caronas.
    Nesse mapeamento sistemático, foram analisados 138 artigos publicados no 
    período entre 2012 e 2020, e  resultados dessa análise mostram os problemas 
    e as soluções de otimização voltadas para o compartilhamento de carona. 
    Diante das análises e dos resultados desta pesquisa, constata-se que há um 
    interesse crescente de pesquisadores nos últimos anos por essa área. 
    Conforme os estudos selecionados, conclui-se que 134 autores consideram o 
    compartilhamento de caronas somo sendo do tipo dinâmico, assim como grande 
    parte deles utilizam a abordagem exata e definem problemas de otimização 
    multiobjetivo para serem solucionados. Por fim, foi identificado que quinze 
    métodos e algoritmos diferentes foram empregados na resolução de problemas 
    otimização para o compartilhamento de caronas.


  • Mostrar Abstract
  • O compartilhamento de caronas (CC) é um serviço de mobilidade compartilhada 
    que traz diversos benefícios  ambientais, econômicos e sociais. Sistemas de 
    Compartilhamento de Caronas englobam diferentes problemas e, para 
    solucioná-los técnicas de otimização são empregadas para realizar a 
    intermediação entre motoristas e passageiros que tenham horários e 
    itinerários semelhantes. Para efetivação das caronas é indispensável o uso 
    de algoritmos para definição das rotas dos participantes. Além disso, para 
    obter os melhores resultados desse tipo de serviço são considerados alguns 
    desafios, como: maximizar o número de participantes, determinar as melhores 
    rotas e minimizar os custos da viagem. Nesse contexto, o objetivo desta 
    pesquisa é investigar os problemas de otimização existentes no 
    compartilhamento de caronas e, também, identificar os métodos, as 
    ferramentas, os algoritmos e as técnicas utilizados para solucionar tais 
    problemas. Para esta pesquisa, um protocolo foi elaborado para a condução 
    de um Mapeamento Sistemático da Literatura (MSL), método utilizado para 
    identificar, classificar, analisar e sintetizar as evidências encontradas 
    através dos estudos selecionados que abordam o compartilhamento de caronas.
    Nesse mapeamento sistemático, foram analisados 138 artigos publicados no 
    período entre 2012 e 2020, e  resultados dessa análise mostram os problemas 
    e as soluções de otimização voltadas para o compartilhamento de carona. 
    Diante das análises e dos resultados desta pesquisa, constata-se que há um 
    interesse crescente de pesquisadores nos últimos anos por essa área. 
    Conforme os estudos selecionados, conclui-se que 134 autores consideram o 
    compartilhamento de caronas somo sendo do tipo dinâmico, assim como grande 
    parte deles utilizam a abordagem exata e definem problemas de otimização 
    multiobjetivo para serem solucionados. Por fim, foi identificado que quinze 
    métodos e algoritmos diferentes foram empregados na resolução de problemas 
    otimização para o compartilhamento de caronas.

25
  • VITORIA MARIA DA SILVA MACIEL
  • Um Modelo de Suporte para Conformidade de Data Lake com a LGPD

  • Orientador : BERNADETTE FARIAS LOSCIO
  • MEMBROS DA BANCA :
  • BERNADETTE FARIAS LOSCIO
  • JESSYKA FLAVYANNE FERREIRA VILELA
  • PRISCILLA KELLY MACHADO VIEIRA AZÊVEDO
  • Data: 10/03/2022

  • Mostrar Resumo
  • Na era do Big Data, um grande volume de dados estruturados, 
    semi-estruturados, e principalmente não estruturados é gerado muito mais 
    rápido por tecnologias digitais e sistemas de informação. Neste contexto, 
    Data Lakes surgiram como uma alternativa aos tradicionais Data Warehouses, 
    tornando-se uma das soluções de Big Data mais utilizadas para análise e 
    gerenciamento distribuído de grande volumes de dados. A ideia principal do 
    Data Lake é ingerir dados brutos e processá-los durante seu uso, 
    caracterizando a abordagem \textit{schema on-read}. Durante seu ciclo de 
    vida em um Data Lake, um dado pode passar por inúmeras transformações, 
    levando a questões de rastreabilidade. Com a LGPD em vigor, as organizações 
    precisam ter ao seu dispor além das mudanças ocorridas, informações sobre 
    quem modificou os dados, onde modificou e as dependências geradas. Visando 
    atender esse problema, alguns modelos de metadados foram propostos na 
    literatura. No entanto, nenhum deles foca em apresentar metadados que 
    descrevam a linhagem dos dados. Sendo assim, essa dissertação propõe um 
    Modelo de Suporte para Conformidade de Data Lake com a LGPD (Data Lake 
    Compliance Model - DLCM), que tem como objetivo descrever os conjuntos de 
    dados no Data Lake e os tratamentos aplicados sobre eles.


  • Mostrar Abstract
  • Na era do Big Data, um grande volume de dados estruturados, 
    semi-estruturados, e principalmente não estruturados é gerado muito mais 
    rápido por tecnologias digitais e sistemas de informação. Neste contexto, 
    Data Lakes surgiram como uma alternativa aos tradicionais Data Warehouses, 
    tornando-se uma das soluções de Big Data mais utilizadas para análise e 
    gerenciamento distribuído de grande volumes de dados. A ideia principal do 
    Data Lake é ingerir dados brutos e processá-los durante seu uso, 
    caracterizando a abordagem \textit{schema on-read}. Durante seu ciclo de 
    vida em um Data Lake, um dado pode passar por inúmeras transformações, 
    levando a questões de rastreabilidade. Com a LGPD em vigor, as organizações 
    precisam ter ao seu dispor além das mudanças ocorridas, informações sobre 
    quem modificou os dados, onde modificou e as dependências geradas. Visando 
    atender esse problema, alguns modelos de metadados foram propostos na 
    literatura. No entanto, nenhum deles foca em apresentar metadados que 
    descrevam a linhagem dos dados. Sendo assim, essa dissertação propõe um 
    Modelo de Suporte para Conformidade de Data Lake com a LGPD (Data Lake 
    Compliance Model - DLCM), que tem como objetivo descrever os conjuntos de 
    dados no Data Lake e os tratamentos aplicados sobre eles.

26
  • HÉLIO GONÇALVES DE SOUZA JUNIOR
  • Comparação de métodos de inferência dos rejeitados em modelos de 
    Credit Scoring

  • Orientador : GERMANO CRISPIM VASCONCELOS
  • MEMBROS DA BANCA :
  • GERMANO CRISPIM VASCONCELOS
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • ROSALVO FERREIRA DE OLIVEIRA NETO
  • Data: 11/03/2022

  • Mostrar Resumo
  • Os modelos de Credit Scoring oferecem benefícios para os credores e 
    tomadores por muitos anos. No entanto, na prática, esses modelos são 
    normalmente construídos em uma amostra da população de clientes aprovados e 
    não consideram os que foram rejeitados. Isso tende a causar um viés 
    amostral. Inferência dos rejeitados é um método para estimar como os 
    requerentes rejeitados teriam se comportado se tivessem sido concedidos e 
    incorporando essas informações na reconstrução do modelo de Credit Scoring. 
    Nesta dissertação vão ser comparados 4 (cinco) métodos de inferência dos 
    negados: Reclassificação, Augmentation, Cluster e Parcelamento. E também a 
    inclusão de um algoritmo de deep learning, o Deep Embedded Clustering 
    (DEC). Os métodos serão avaliados por diversas métricas de performance, 
    tais como: AUC, KS, F1, acurácia, DTI, teste não paramétrico de 
    Kruskal-Wallis e um teste post-hoc de Nemenyi. Os métodos são analisados em 
    3 (três) conjuntos de dados reais com diversos perfis de taxa de 
    reprovação, para verificar se o efeito do comportamento da aprovação 
    impacta na performance dos métodos. Os experimentos realizados evidenciaram 
    que existe diferença significativa entre os métodos estudados e também que 
    o método de DEC teve desempenho superior que os demais métodos para a 
    maioria das métricas avaliadas.


  • Mostrar Abstract
  • Os modelos de Credit Scoring oferecem benefícios para os credores e 
    tomadores por muitos anos. No entanto, na prática, esses modelos são 
    normalmente construídos em uma amostra da população de clientes aprovados e 
    não consideram os que foram rejeitados. Isso tende a causar um viés 
    amostral. Inferência dos rejeitados é um método para estimar como os 
    requerentes rejeitados teriam se comportado se tivessem sido concedidos e 
    incorporando essas informações na reconstrução do modelo de Credit Scoring. 
    Nesta dissertação vão ser comparados 4 (cinco) métodos de inferência dos 
    negados: Reclassificação, Augmentation, Cluster e Parcelamento. E também a 
    inclusão de um algoritmo de deep learning, o Deep Embedded Clustering 
    (DEC). Os métodos serão avaliados por diversas métricas de performance, 
    tais como: AUC, KS, F1, acurácia, DTI, teste não paramétrico de 
    Kruskal-Wallis e um teste post-hoc de Nemenyi. Os métodos são analisados em 
    3 (três) conjuntos de dados reais com diversos perfis de taxa de 
    reprovação, para verificar se o efeito do comportamento da aprovação 
    impacta na performance dos métodos. Os experimentos realizados evidenciaram 
    que existe diferença significativa entre os métodos estudados e também que 
    o método de DEC teve desempenho superior que os demais métodos para a 
    maioria das métricas avaliadas.

27
  • VALDI FERREIRA DO NASCIMENTO JUNIOR
  • Mineração de dados de crowdsourcing para investigar o uso de 
    energia em dispositivos Android

  • Orientador : FERNANDO JOSE CASTOR DE LIMA FILHO
  • MEMBROS DA BANCA :
  • FERNANDO JOSE CASTOR DE LIMA FILHO
  • IVAN DO CARMO MACHADO
  • VINICIUS CARDOSO GARCIA
  • Data: 11/03/2022

  • Mostrar Resumo
  • Um dos fatores essenciais para o sucesso de uma aplicação ou modelo é o 
    consumo de energia, que impacta diretamente na autonomia e na satisfação da 
    usabilidade de dispositivos móveis e seus aplicativos. Em geral, os estudos 
    relacionados à área são realizados em laboratório, por meio de simulações, 
    com um número limitado de dispositivos e aplicações. Portanto, este estudo 
    investiga o uso dados coletados através de crowndsourcing desses 
    dispositivos para prever seu comportamento e entender os fatores que mais 
    impactam o seu consumo de energia. Para isso foram desenvolvidos modelos de 
    regressão utilizando dados de uso real de dispositivos móveis em larga 
    escala, capazes de correlacionar diversos fatores como configurações, 
    aplicações e processos do sistema do contexto móvel com o tempo de consumo 
    de energia de 1% do nível da bateria usando. Foram estudados os 100 modelos 
    mais populares e suas configurações, juntamente com os aplicativos e 
    processos, presentes no banco de dados GreebHub, uma iniciativa 
    colaborativa e voluntária para coletar dados para estudos de dispositivos 
    móveis Android. No estudo foram utilizados algoritmos de regressão baseados 
    em árvore (Decision Tree, Random Forest e XGboot), avaliados com auxilio 
    das métricas de regressão do Scikit-Learn, e com a importância das features 
    (feature importance) sendo medida utilizando a abordagem SHAP (SHapley 
    Additive exPlanations). Os resultados indicam um grau de dificuldade 
    elevado ao estudar as relações contidas nos dados, pois a precisão das 
    predições varia bastante de acordo com o modelo de dispositivo a ser 
    estudado, refletindo a heterogeneidade do contexto. Além disso, foi 
    detectada uma variação muito grande no impacto dos aplicativos e processos 
    de um modelo de dispositivo pra outro, e que as configurações foram 
    consideradas mais relevantes que ambos no consumo de energia.


  • Mostrar Abstract
  • Um dos fatores essenciais para o sucesso de uma aplicação ou modelo é o 
    consumo de energia, que impacta diretamente na autonomia e na satisfação da 
    usabilidade de dispositivos móveis e seus aplicativos. Em geral, os estudos 
    relacionados à área são realizados em laboratório, por meio de simulações, 
    com um número limitado de dispositivos e aplicações. Portanto, este estudo 
    investiga o uso dados coletados através de crowndsourcing desses 
    dispositivos para prever seu comportamento e entender os fatores que mais 
    impactam o seu consumo de energia. Para isso foram desenvolvidos modelos de 
    regressão utilizando dados de uso real de dispositivos móveis em larga 
    escala, capazes de correlacionar diversos fatores como configurações, 
    aplicações e processos do sistema do contexto móvel com o tempo de consumo 
    de energia de 1% do nível da bateria usando. Foram estudados os 100 modelos 
    mais populares e suas configurações, juntamente com os aplicativos e 
    processos, presentes no banco de dados GreebHub, uma iniciativa 
    colaborativa e voluntária para coletar dados para estudos de dispositivos 
    móveis Android. No estudo foram utilizados algoritmos de regressão baseados 
    em árvore (Decision Tree, Random Forest e XGboot), avaliados com auxilio 
    das métricas de regressão do Scikit-Learn, e com a importância das features 
    (feature importance) sendo medida utilizando a abordagem SHAP (SHapley 
    Additive exPlanations). Os resultados indicam um grau de dificuldade 
    elevado ao estudar as relações contidas nos dados, pois a precisão das 
    predições varia bastante de acordo com o modelo de dispositivo a ser 
    estudado, refletindo a heterogeneidade do contexto. Além disso, foi 
    detectada uma variação muito grande no impacto dos aplicativos e processos 
    de um modelo de dispositivo pra outro, e que as configurações foram 
    consideradas mais relevantes que ambos no consumo de energia.

28
  • HORHANNA ALMEIDA DE OLIVEIRA
  • Um processo de concepção e prototipação rápida de visualizações 
    animadas de música

  • Orientador : GIORDANO RIBEIRO EULALIO CABRAL
  • MEMBROS DA BANCA :
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • GIORDANO RIBEIRO EULALIO CABRAL
  • PEDRO MARTINS ALESSIO
  • Data: 11/03/2022

  • Mostrar Resumo
  • A produção de animações para área de Visualização de Informação Musical, 
    ainda é escassa e possui desafios pela necessidade de domínios de softwares de 
    edição exigindo capacidades técnicas e conhecimentos específicos 
    relacionados a cada área. Nesse trabalho, trazemos uma revisão sistemática 
    da área da visualização, mais especificamente visualização da informação, 
    visualização de música e Animação. Mapeando os processos de concepção de 
    visualizações, elaboramos um modelo experimental para ideação, 
    prototipação, construção e validação de animações de informações musicais, 
    realizado com especialistas em música. E através de sessões desenvolvendo 
    protótipos rápidos obtivemos resultados qualitativos com coleta de 
    feedbacks de especialistas em música. Concluímos que é notável a 
    importância da animação, como uma aliada nos processos de concepção e 
    criação de uma visualização musical, pois facilita a representação e 
    acompanhamento do tempo para comunicar elementos estruturais da música, 
    todos eles dispostos dinamicamente em uma área gráfica.


  • Mostrar Abstract
  • A produção de animações para área de Visualização de Informação Musical, 
    ainda é escassa e possui desafios pela necessidade de domínios de softwares de 
    edição exigindo capacidades técnicas e conhecimentos específicos 
    relacionados a cada área. Nesse trabalho, trazemos uma revisão sistemática 
    da área da visualização, mais especificamente visualização da informação, 
    visualização de música e Animação. Mapeando os processos de concepção de 
    visualizações, elaboramos um modelo experimental para ideação, 
    prototipação, construção e validação de animações de informações musicais, 
    realizado com especialistas em música. E através de sessões desenvolvendo 
    protótipos rápidos obtivemos resultados qualitativos com coleta de 
    feedbacks de especialistas em música. Concluímos que é notável a 
    importância da animação, como uma aliada nos processos de concepção e 
    criação de uma visualização musical, pois facilita a representação e 
    acompanhamento do tempo para comunicar elementos estruturais da música, 
    todos eles dispostos dinamicamente em uma área gráfica.

29
  • HYGOR JARDIM DA SILVA
  • Plataforma Integrada 4G, IMS e 5G baseada em software e hardware 
    abertos e de baixo custo

  • Orientador : KELVIN LOPES DIAS
  • MEMBROS DA BANCA :
  • TASSIO COSTA DE CARVALHO
  • KELVIN LOPES DIAS
  • RENATO MARIZ DE MORAES
  • Data: 11/03/2022

  • Mostrar Resumo
  • A difusão dos paradigmas de softwarização e virtualização de redes, bem 
    como de tecnologias de rádio definido por software (SDR – Software-Defined 
    Radio), estão fomentando o desenvolvimento protótipos para sistemas móveis 
    de quinta geração (5G), tanto pela academia quanto pela indústria. Este 
    novo cenário influenciou a transição dos clássicos sistemas monolíticos 
    baseado em hardware proprietário, das gerações anteriores (2G/3G/4G), para 
    uma nova filosofia com inúmeros projetos de código aberto relacionados às 
    redes de acesso por rádio (RAN) e  de núcleo constituintes de sistemas 4G e 
    5G. Entretanto, a interoperabilidade entre soluções RAN e de núcleo 
    distintas, e avaliações de desempenho fim-a-fim, bem como o suporte a 
    sistemas tradicionais, como o amplamente difundido IMS (IP Multimedia 
    Subsystem) para chamadas VoLTE (Voice over LTE) 4G, são aspectos pouco 
    entendidos, implementados parcialmente, ou mesmo ainda não avaliados. Esta 
    dissertação tem como objetivo analisar a compatibilidade das implementações 
    de código aberto para sistemas celulares com os padrões preconizados pelo 
    3GPP (Third Generation Partnership Project); realizar a implementação de 
    protótipos utilizando software e hardware abertos; conceber uma abordagem 
    de virtualização e implantação utilizando contêineres para os serviços do 
    núcleo da rede, da RAN e integração com sistema IMS. O estudo considerou 
    plataformas de computação de propósito geral, juntamente com placas SDR 
    para implantar a rede. Smartphones e cartões SIM com suporte 4G, VoLTE e 5G 
    foram utilizados para realizar os experimentos e a coleta dos resultados. 
    Como parte dos resultados da avaliação, a infraestrutura composta pelo 
    núcleo Open5Gs, RAN srsLTE e IMS OpenIMSCore em conjunto com Kamailio 
    (P-CSCF, I-CSCF, S-CSCF) se mostrou capaz de estabelecer chamadas VoLTE com 
    duração até 1h.  Os resultados do estudo também mostraram que a plataforma 
    OAI (OpenAirInterface) alcançou um desempenho 15% superior ao da plataforma 
    srsRAN. Com isto, este trabalho concebeu e descreveu uma infraestrutura de 
    baixo custo capaz de executar todo um ambiente de redes móveis 4G/5G e 
    prover funcionalidades do sistema IMS, como ligações VoLTE.


  • Mostrar Abstract
  • A difusão dos paradigmas de softwarização e virtualização de redes, bem 
    como de tecnologias de rádio definido por software (SDR – Software-Defined 
    Radio), estão fomentando o desenvolvimento protótipos para sistemas móveis 
    de quinta geração (5G), tanto pela academia quanto pela indústria. Este 
    novo cenário influenciou a transição dos clássicos sistemas monolíticos 
    baseado em hardware proprietário, das gerações anteriores (2G/3G/4G), para 
    uma nova filosofia com inúmeros projetos de código aberto relacionados às 
    redes de acesso por rádio (RAN) e  de núcleo constituintes de sistemas 4G e 
    5G. Entretanto, a interoperabilidade entre soluções RAN e de núcleo 
    distintas, e avaliações de desempenho fim-a-fim, bem como o suporte a 
    sistemas tradicionais, como o amplamente difundido IMS (IP Multimedia 
    Subsystem) para chamadas VoLTE (Voice over LTE) 4G, são aspectos pouco 
    entendidos, implementados parcialmente, ou mesmo ainda não avaliados. Esta 
    dissertação tem como objetivo analisar a compatibilidade das implementações 
    de código aberto para sistemas celulares com os padrões preconizados pelo 
    3GPP (Third Generation Partnership Project); realizar a implementação de 
    protótipos utilizando software e hardware abertos; conceber uma abordagem 
    de virtualização e implantação utilizando contêineres para os serviços do 
    núcleo da rede, da RAN e integração com sistema IMS. O estudo considerou 
    plataformas de computação de propósito geral, juntamente com placas SDR 
    para implantar a rede. Smartphones e cartões SIM com suporte 4G, VoLTE e 5G 
    foram utilizados para realizar os experimentos e a coleta dos resultados. 
    Como parte dos resultados da avaliação, a infraestrutura composta pelo 
    núcleo Open5Gs, RAN srsLTE e IMS OpenIMSCore em conjunto com Kamailio 
    (P-CSCF, I-CSCF, S-CSCF) se mostrou capaz de estabelecer chamadas VoLTE com 
    duração até 1h.  Os resultados do estudo também mostraram que a plataforma 
    OAI (OpenAirInterface) alcançou um desempenho 15% superior ao da plataforma 
    srsRAN. Com isto, este trabalho concebeu e descreveu uma infraestrutura de 
    baixo custo capaz de executar todo um ambiente de redes móveis 4G/5G e 
    prover funcionalidades do sistema IMS, como ligações VoLTE.

30
  • IVONILDO PEREIRA GOMES NETO
  • Um Instrumento de Inspeção da Aderência de Soluções Iot à LGPD

  • Orientador : SERGIO CASTELO BRANCO SOARES
  • MEMBROS DA BANCA :
  • LUIS JORGE ENRIQUE RIVERO CABREJOS
  • KIEV SANTOS DA GAMA
  • SERGIO CASTELO BRANCO SOARES
  • Data: 15/03/2022

  • Mostrar Resumo
  • Introdução: Com os  atuais avanços digitais, a sociedade torna-se mais 
    dependente da tecnologia. Para acompanhar estes avanços, o investimento na 
    segurança das informações passa a ser cada vez mais necessário. Isto  não é 
    diferente para no contexto da  IoT (do inglês, Internet of things), pois 
    ela traz diversos benefícios para o cotidiano tanto de pessoas como 
    empresas,  pois diversos projetos na IoT tratam diversos dados pessoais. 
    Diante disso, se faz necessária certa proteção de informações relacionadas. 
    Atualmente no Brasil,  a gestão de segurança de informação é regida pela 
    LGPD (Lei Geral de Proteção dos Dados).
    Objetivo: Visando verificar a adequação de projetos com a LGPD, 
    pesquisadores da UFMA propuseram um mecanismo de auxílio à averiguação de 
    adequação à LGPD. Desta forma, este trabalho visa propor uma extensão a 
    esse mecanismo para  auxiliar à averiguação de adequação à LGPD 
    considerando  as características específicas de IoT.
    Metodologia: O mecanismo foi avaliado em uma instituição privada ligada à 
    inovação industrial. Consideramos que esse é o perfil do público-alvo do 
    mecanismo proposto. A avaliação foi conduzida como um estudo de caso onde, 
    após inspeção de possíveis falhas de segurança no sistema da empresa, foi 
    aplicado um questionário de pós-inspeção com o mecanismo  proposto. Este 
    questionário avaliou a facilidade em usá-lo e a intenção dos participantes 
    em utilizá-lo em outros sistemas. Por fim, ocorreu um focus group, onde 
    foram discutidos benefícios, pontos críticos e melhorias aplicáveis ao 
    checklist.
    Resultados: Foram apresentadas opiniões positivas sobre o uso do mecanismo 
    proposto,  os participantes conseguiram utilizá-lo sem grandes problemas. 
    Além disso, foi possível encontrar defeitos de segurança nos sistemas. Os 
    participantes consideraram o mecanismo como de grande utilidade para guiar 
    os profissionais nas soluções dos defeitos encontrados.
    Conclusões: Conclui-se que o mecanismo proposto é capaz de auxiliar 
    profissionais na averiguação de adequação à LGPD em projetos que envolvem 
    IoT à LGPD. O estudo foi realizado em uma instituição específica, 
    identificando defeitos reais de uma empresa, porém, os resultados não podem 
    ser generalizados. É necessário replicações do estudo para identificar se 
    esses resultados se aplicam a outras empresas.


  • Mostrar Abstract
  • Introdução: Com os  atuais avanços digitais, a sociedade torna-se mais 
    dependente da tecnologia. Para acompanhar estes avanços, o investimento na 
    segurança das informações passa a ser cada vez mais necessário. Isto  não é 
    diferente para no contexto da  IoT (do inglês, Internet of things), pois 
    ela traz diversos benefícios para o cotidiano tanto de pessoas como 
    empresas,  pois diversos projetos na IoT tratam diversos dados pessoais. 
    Diante disso, se faz necessária certa proteção de informações relacionadas. 
    Atualmente no Brasil,  a gestão de segurança de informação é regida pela 
    LGPD (Lei Geral de Proteção dos Dados).
    Objetivo: Visando verificar a adequação de projetos com a LGPD, 
    pesquisadores da UFMA propuseram um mecanismo de auxílio à averiguação de 
    adequação à LGPD. Desta forma, este trabalho visa propor uma extensão a 
    esse mecanismo para  auxiliar à averiguação de adequação à LGPD 
    considerando  as características específicas de IoT.
    Metodologia: O mecanismo foi avaliado em uma instituição privada ligada à 
    inovação industrial. Consideramos que esse é o perfil do público-alvo do 
    mecanismo proposto. A avaliação foi conduzida como um estudo de caso onde, 
    após inspeção de possíveis falhas de segurança no sistema da empresa, foi 
    aplicado um questionário de pós-inspeção com o mecanismo  proposto. Este 
    questionário avaliou a facilidade em usá-lo e a intenção dos participantes 
    em utilizá-lo em outros sistemas. Por fim, ocorreu um focus group, onde 
    foram discutidos benefícios, pontos críticos e melhorias aplicáveis ao 
    checklist.
    Resultados: Foram apresentadas opiniões positivas sobre o uso do mecanismo 
    proposto,  os participantes conseguiram utilizá-lo sem grandes problemas. 
    Além disso, foi possível encontrar defeitos de segurança nos sistemas. Os 
    participantes consideraram o mecanismo como de grande utilidade para guiar 
    os profissionais nas soluções dos defeitos encontrados.
    Conclusões: Conclui-se que o mecanismo proposto é capaz de auxiliar 
    profissionais na averiguação de adequação à LGPD em projetos que envolvem 
    IoT à LGPD. O estudo foi realizado em uma instituição específica, 
    identificando defeitos reais de uma empresa, porém, os resultados não podem 
    ser generalizados. É necessário replicações do estudo para identificar se 
    esses resultados se aplicam a outras empresas.

31
  • JUSCELINO SEBASTIAO AVELINO JUNIOR
  • Uma abordagem de seleção dinâmica de classificadores para predição 
    de defeitos de software

  • Orientador : GEORGE DARMITON DA CUNHA CAVALCANTI
  • MEMBROS DA BANCA :
  • ARAKEN DE MEDEIROS SANTOS
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • RAFAEL MENELAU OLIVEIRA E CRUZ
  • Data: 16/03/2022

  • Mostrar Resumo
  • A predição de defeitos é uma tarefa que visa alocar recursos e informações 
    para predizer módulos de software propensos a defeitos. Contudo, devido a 
    necessidade de quantidades suficientemente grandes de dados requeridas 
    pelos modelos, pesquisadores tem se concentrado em pesquisas sobre 
    Cross-Project Defect Prediction (CPDP). Essa abordagem envolve construir 
    modelos usando um conjunto de treinamento composto por informações de 
    diversos projetos externos. Diversas abordagens CPDP propostas na 
    literatura utilizam abordagens tradicionais como, por exemplo, 
    normalização/transformação dos dados através do logaritmo ou uso de 
    algoritmos de aprendizagem de máquina, entretanto, essas abordagens não 
    possuem nenhum mecanismo capaz de selecionar um classificador ou um 
    conjunto de classificadores mais apto em predizer uma determinada amostra 
    de teste. Logo, a seleção dinâmica de classificadores é uma abordagem ao 
    qual seleciona classificadores básicos em tempo real de acordo com cada 
    amostra de teste a ser classificada. Neste contexto e considerando as 
    limitações das abordagens CPDP tradicionais, propomos uma abordagem CPDP 
    que, com base nos dados de treinamento, seleciona a melhor configuração de 
    parâmetros (técnica de seleção dinâmica de classificadores, classificador 
    básico e tamanho do pool de classificadores) para classificaras novas 
    amostras de entrada (dados de teste). A abordagem proposta é composta por 
    três etapas: Definição do Alvo, Superprodução e Avaliação do Modelo. 
    Portanto, nessa dissertação são almejados quatro principais pontos. 
    Primeiro, é conduzida uma análise experimental para investigar o 
    comportamento da abordagem proposta na predição de defeitos de software. 
    Segundo, são realizadas comparações entre a abordagem proposta versus 
    abordagens CPDP da literatura. Neste contexto, foram investigados quais 
    métodos apresentam melhor desempenho para os mesmos conjuntos de dados ou 
    projetos de software. Terceiro, para verificar a precisão de classificação 
    dos métodos CPDP, foi analisada a qualidade da performance dos método sem 
    relação à algumas escalas da área sob a curva ROC (ROC-AUC). Quarto, foi 
    realizada uma análise experimental para verificar quando utilizar a 
    abordagem proposta. Neste ponto, utilizamos um meta-classificador (árvore 
    de decisão) que, através de regras de decisão, define quais características 
    dos dados a abordagem proposta deve ser aplicada e, consequentemente, 
    apresentar maior desempenho.


  • Mostrar Abstract
  • A predição de defeitos é uma tarefa que visa alocar recursos e informações 
    para predizer módulos de software propensos a defeitos. Contudo, devido a 
    necessidade de quantidades suficientemente grandes de dados requeridas 
    pelos modelos, pesquisadores tem se concentrado em pesquisas sobre 
    Cross-Project Defect Prediction (CPDP). Essa abordagem envolve construir 
    modelos usando um conjunto de treinamento composto por informações de 
    diversos projetos externos. Diversas abordagens CPDP propostas na 
    literatura utilizam abordagens tradicionais como, por exemplo, 
    normalização/transformação dos dados através do logaritmo ou uso de 
    algoritmos de aprendizagem de máquina, entretanto, essas abordagens não 
    possuem nenhum mecanismo capaz de selecionar um classificador ou um 
    conjunto de classificadores mais apto em predizer uma determinada amostra 
    de teste. Logo, a seleção dinâmica de classificadores é uma abordagem ao 
    qual seleciona classificadores básicos em tempo real de acordo com cada 
    amostra de teste a ser classificada. Neste contexto e considerando as 
    limitações das abordagens CPDP tradicionais, propomos uma abordagem CPDP 
    que, com base nos dados de treinamento, seleciona a melhor configuração de 
    parâmetros (técnica de seleção dinâmica de classificadores, classificador 
    básico e tamanho do pool de classificadores) para classificaras novas 
    amostras de entrada (dados de teste). A abordagem proposta é composta por 
    três etapas: Definição do Alvo, Superprodução e Avaliação do Modelo. 
    Portanto, nessa dissertação são almejados quatro principais pontos. 
    Primeiro, é conduzida uma análise experimental para investigar o 
    comportamento da abordagem proposta na predição de defeitos de software. 
    Segundo, são realizadas comparações entre a abordagem proposta versus 
    abordagens CPDP da literatura. Neste contexto, foram investigados quais 
    métodos apresentam melhor desempenho para os mesmos conjuntos de dados ou 
    projetos de software. Terceiro, para verificar a precisão de classificação 
    dos métodos CPDP, foi analisada a qualidade da performance dos método sem 
    relação à algumas escalas da área sob a curva ROC (ROC-AUC). Quarto, foi 
    realizada uma análise experimental para verificar quando utilizar a 
    abordagem proposta. Neste ponto, utilizamos um meta-classificador (árvore 
    de decisão) que, através de regras de decisão, define quais características 
    dos dados a abordagem proposta deve ser aplicada e, consequentemente, 
    apresentar maior desempenho.

32
  • GEORGE DE VASCONCELOS CARVALHO NETO
  • Mineração de subgrupos aplicada a dados de metilação de pacientes com câncer de mama

  • Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBROS DA BANCA :
  • DANYELLY BRUNESKA GONDIM MARTINS
  • MARCELO RODRIGO PORTELA FERREIRA
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 25/03/2022

  • Mostrar Resumo
  • O câncer de mama é um dos tipos de câncer mais prevalentes em mulheres, com 
    uma ênfase crescente na pesquisa relacionada ao câncer, muitos trabalhos 
    foram realizados para classificar o diagnóstico, a sobrevivência ou a 
    recorrência desse tipo de câncer. Como um dos biomarcadores epigenéticos 
    mais descritos em cânceres humanos, a metilação do DNA desempenha um papel 
    essencial na regulação da expressão gênica e tem sido implicada no 
    prognóstico e na terapêutica de muitos cânceres. Nesse estudo exploramos os 
    perfis de metilação de DNA capturando grupos heterogêneos de pacientes com 
    câncer de mama para melhorar o prognóstico desses pacientes no nível 
    epigenético. Perfis de metilação do DNA de um estudo caso-controle com 235 
    indivíduos com câncer de mama e 424 indivíduos normais saudáveis foram 
    obtidos do banco de dados Gene Expression Omnibus (GEO). Os marcadores 
    diferencialmente metilados foram identificados por teste T moderado. Novas 
    características foram adicionadas aos dados usando ferramentas de predição 
    de idade biológica, tipos celular e condição de fumante. Subgrupos de 
    pacientes foram encontrados usando as ferramentas de mineração de subgrupos 
    Beam search e SSDP+. Um total de 20 subgrupos foram selecionados, sendo 10 
    subgrupos encontrados pelo Beam search e 10 pelo SSDP+. Onde o algoritmo 
    Beam search encontrou subgrupos com mais elementos e alto grau de 
    redundância englobando diferentes genes relacionados previamente ao câncer 
    de mama, enquanto o SSDP+ encontrou subgrupos com menos elementos e alto 
    grau de diversidade, mas que por englobar menos regiões não tiveram genes 
    previamente relacionados a câncer de mama. Nosso estudo identificou 
    múltiplos painéis de metilação de DNA associados a grupos específicos de 
    pacientes com câncer de mama que podem, se validados clinicamente, ser 
    úteis para a previsão do risco de câncer de mama no futuro.


  • Mostrar Abstract
  • O câncer de mama é um dos tipos de câncer mais prevalentes em mulheres, com 
    uma ênfase crescente na pesquisa relacionada ao câncer, muitos trabalhos 
    foram realizados para classificar o diagnóstico, a sobrevivência ou a 
    recorrência desse tipo de câncer. Como um dos biomarcadores epigenéticos 
    mais descritos em cânceres humanos, a metilação do DNA desempenha um papel 
    essencial na regulação da expressão gênica e tem sido implicada no 
    prognóstico e na terapêutica de muitos cânceres. Nesse estudo exploramos os 
    perfis de metilação de DNA capturando grupos heterogêneos de pacientes com 
    câncer de mama para melhorar o prognóstico desses pacientes no nível 
    epigenético. Perfis de metilação do DNA de um estudo caso-controle com 235 
    indivíduos com câncer de mama e 424 indivíduos normais saudáveis foram 
    obtidos do banco de dados Gene Expression Omnibus (GEO). Os marcadores 
    diferencialmente metilados foram identificados por teste T moderado. Novas 
    características foram adicionadas aos dados usando ferramentas de predição 
    de idade biológica, tipos celular e condição de fumante. Subgrupos de 
    pacientes foram encontrados usando as ferramentas de mineração de subgrupos 
    Beam search e SSDP+. Um total de 20 subgrupos foram selecionados, sendo 10 
    subgrupos encontrados pelo Beam search e 10 pelo SSDP+. Onde o algoritmo 
    Beam search encontrou subgrupos com mais elementos e alto grau de 
    redundância englobando diferentes genes relacionados previamente ao câncer 
    de mama, enquanto o SSDP+ encontrou subgrupos com menos elementos e alto 
    grau de diversidade, mas que por englobar menos regiões não tiveram genes 
    previamente relacionados a câncer de mama. Nosso estudo identificou 
    múltiplos painéis de metilação de DNA associados a grupos específicos de 
    pacientes com câncer de mama que podem, se validados clinicamente, ser 
    úteis para a previsão do risco de câncer de mama no futuro.

33
  • JESSICA TAIS DE SOUZA REINALDO
  • Using Item Response Theory to evaluate feature relevance in missing 

  • Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBROS DA BANCA :
  • RAFAEL GOMES MANTOVANI
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 29/03/2022

  • Mostrar Resumo
  • A Teoria de Resposta ao Item (em inglês, Item Response Theory - IRT) tem 
    sido historicamente usada para avaliar as habilidades latentes de 
    respondentes humanos a um conjunto de itens.
    Recentemente, esforços têm sido feitos para propor soluções que utilizem a 
    TRI para resolver problemas de classificação, onde os respondentes são 
    classificadores e os itens são as instâncias de um conjunto de dados.
    O β^3-IRT oferece uma ferramenta poderosa para analisar conjuntos de dados 
    e classificadores, pois formula o problema de TRI com duas variáveis 
    latentes (2-PL), onde as instâncias são descritas em termos de dificuldade 
    e discriminação, e os classificadores têm um habilidade associada. A 
    formulação do β^3-IRT  permite utilizar a predição da probabilidade de cada 
    classificador para cada instância, o que é uma abordagem muito mais rica em 
    informação do que modelos anteriores que propunham utilizar simplesmente 
    uma resposta dicotômica, isto é, apenas mapeando erros e acertos de cada 
    classificador na predição de cada instância.
    Uma aplicação possível de TRI em problemas de classificação é utiliza-la 
    para resolver problemas em que faltam dados no momento do teste.
    A falta de dados é um problema desafiador na classificação, principalmente 
    quando ocorre no momento de teste, ou seja, quando um classificador que já 
    foi treinado com os dados completos precisa ser usado para fornecer uma 
    previsão para uma nova instância, para a qual está faltando o valor de 
    alguma variável. Nesses casos, antes de aplicar o classificador, deve-se 
    decidir se vale a pena adquirindo o valor real do recurso ou apenas 
    imputando o valor ausente. A imputação pode
    ser uma alternativa melhor, por exemplo, se a coleta de recursos for muito 
    cara e/ou não se espera que o recurso seja realmente relevante para 
    melhorar a qualidade do classificador
    predição.
    Neste trabalho, propomos um workflow onde esses dados faltantes em tempo de 
    teste são preenchidos com valores imputados com diferentes técnicas de 
    imputação, baseado nos dados de treinamento disponíveis, a fim de avaliar o 
    quanto esses dados faltantes podem afetar a habilidade dos classificadores 
    e a dificuldade e discriminação das instâncias em um conjunto de dados.
    Essa abordagem representa uma alternativa às técnicas de seleção de 
    atributos que é capaz de fornecer uma visão geral da relevância dos 
    recursos tanto em nível global quanto individualmente para cada instância.
    A análise do desempenho de classificadores e como a falta de dados impacta 
    os modelos e as instâncias do ponto de vista da TRI ainda não foi 
    investigada na literatura.


  • Mostrar Abstract
  • A Teoria de Resposta ao Item (em inglês, Item Response Theory - IRT) tem 
    sido historicamente usada para avaliar as habilidades latentes de 
    respondentes humanos a um conjunto de itens.
    Recentemente, esforços têm sido feitos para propor soluções que utilizem a 
    TRI para resolver problemas de classificação, onde os respondentes são 
    classificadores e os itens são as instâncias de um conjunto de dados.
    O β^3-IRT oferece uma ferramenta poderosa para analisar conjuntos de dados 
    e classificadores, pois formula o problema de TRI com duas variáveis 
    latentes (2-PL), onde as instâncias são descritas em termos de dificuldade 
    e discriminação, e os classificadores têm um habilidade associada. A 
    formulação do β^3-IRT  permite utilizar a predição da probabilidade de cada 
    classificador para cada instância, o que é uma abordagem muito mais rica em 
    informação do que modelos anteriores que propunham utilizar simplesmente 
    uma resposta dicotômica, isto é, apenas mapeando erros e acertos de cada 
    classificador na predição de cada instância.
    Uma aplicação possível de TRI em problemas de classificação é utiliza-la 
    para resolver problemas em que faltam dados no momento do teste.
    A falta de dados é um problema desafiador na classificação, principalmente 
    quando ocorre no momento de teste, ou seja, quando um classificador que já 
    foi treinado com os dados completos precisa ser usado para fornecer uma 
    previsão para uma nova instância, para a qual está faltando o valor de 
    alguma variável. Nesses casos, antes de aplicar o classificador, deve-se 
    decidir se vale a pena adquirindo o valor real do recurso ou apenas 
    imputando o valor ausente. A imputação pode
    ser uma alternativa melhor, por exemplo, se a coleta de recursos for muito 
    cara e/ou não se espera que o recurso seja realmente relevante para 
    melhorar a qualidade do classificador
    predição.
    Neste trabalho, propomos um workflow onde esses dados faltantes em tempo de 
    teste são preenchidos com valores imputados com diferentes técnicas de 
    imputação, baseado nos dados de treinamento disponíveis, a fim de avaliar o 
    quanto esses dados faltantes podem afetar a habilidade dos classificadores 
    e a dificuldade e discriminação das instâncias em um conjunto de dados.
    Essa abordagem representa uma alternativa às técnicas de seleção de 
    atributos que é capaz de fornecer uma visão geral da relevância dos 
    recursos tanto em nível global quanto individualmente para cada instância.
    A análise do desempenho de classificadores e como a falta de dados impacta 
    os modelos e as instâncias do ponto de vista da TRI ainda não foi 
    investigada na literatura.

34
  • HEITOR DE CASTRO FELIX
  • OGNet-AD: Um método para detecção de falhas em equipamentos através 
    da detecção de anomalias em imagens com GAN baseado na OGNet 

  • Orientador : VERONICA TEICHRIEB
  • MEMBROS DA BANCA :
  • CLEBER ZANCHETTIN
  • FRANCISCO PAULO MAGALHAES SIMOES
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • Data: 13/04/2022

  • Mostrar Resumo
  • A aplicação de visão computacional com Deep Learning (DL) vem sendo 
    utilizada para resolver problemas complexos. Um desses problemas é a 
    inspeção automática de objetos industriais. A inspeção pode ocorrer em 
    cenário controlado, como mostrado no dataset MVTec AD ou em um cenário não 
    controlado, como ocorre em torres de linhas de transmissão de energia. Um 
    dos maiores desafios na inspeção automática é a disponibilidade limitada de 
    dados de falhas para o treinamento dos classificadores tradicionais 
    baseados em DL. Pois, em aplicações de inspeção industrial, há poucos dados 
    de falhas e baixa diversidade nos exemplos. Mesmo em linhas de transmissão 
    de energia, que são essenciais para vida humana moderna, não existem 
    datasets de inspeção para o treinamento supervisionado de classificadores. 
    Portanto, abordagens de treinamento não supervisionado são usadas para 
    contornar a escassez de dados, como detecção de anomalias e One-Class 
    Classification (OCC). Nessas abordagens, os treinamentos dos modelos são 
    realizados apenas com os dados dos equipamentos em seus estados normais, 
    sem defeitos. Este trabalho investiga a detecção de anomalias com o uso da 
    OGNet, uma técnica de estado da arte de OCC e busca adaptá-la para a 
    detecção de anomalias, criando uma nova rede, a OGNet-AD. A nova rede e a 
    OGNet foram avaliadas quantitativamente em um ambiente controlado com MVTec 
    AD e em um ambiente não controlado com um dataset privado de inspeção de 
    linhas de transmissão de energia, o DILTE. Como resultado da pesquisa, 
    verificou-se que a OGNet pode ser utilizada para detecção de anomalias e 
    compara-se com técnicas tradicionais desse contexto. A OGNet-AD conseguiu 
    superar a OGNet tanto no cenário controlado do MVTec-AD quanto no cenário 
    não controlado do DILTE, com média de AUC-ROC de 87,4 contra 84,7 da OGNet 
    no MVTec-AD e 77 contra 72 no DILTE, comprovando os benefícios das 
    modificações realizadas no modelo. Apesar da evolução da OGNet-AD, a 
    técnica também foi comparada com técnicas elaboradas para detecção de 
    anomalias, não superando ainda a técnica do estado da arte. Além dos testes 
    quantitativos, uma técnica de Explainable Artificial Inteligente foi 
    explorada para a validação qualitativa da OGNet-AD. A validação foi 
    realizada utilizando a Grad-CAM para visualizar as regiões que influenciam 
    nas decisões da rede. A validação qualitativa mostrou-se eficiente para 
    analisar o uso da OGNet-AD, principalmente em cenários com poucos dados 
    para realização da validação quantitativa tradicional.


  • Mostrar Abstract
  • A aplicação de visão computacional com Deep Learning (DL) vem sendo 
    utilizada para resolver problemas complexos. Um desses problemas é a 
    inspeção automática de objetos industriais. A inspeção pode ocorrer em 
    cenário controlado, como mostrado no dataset MVTec AD ou em um cenário não 
    controlado, como ocorre em torres de linhas de transmissão de energia. Um 
    dos maiores desafios na inspeção automática é a disponibilidade limitada de 
    dados de falhas para o treinamento dos classificadores tradicionais 
    baseados em DL. Pois, em aplicações de inspeção industrial, há poucos dados 
    de falhas e baixa diversidade nos exemplos. Mesmo em linhas de transmissão 
    de energia, que são essenciais para vida humana moderna, não existem 
    datasets de inspeção para o treinamento supervisionado de classificadores. 
    Portanto, abordagens de treinamento não supervisionado são usadas para 
    contornar a escassez de dados, como detecção de anomalias e One-Class 
    Classification (OCC). Nessas abordagens, os treinamentos dos modelos são 
    realizados apenas com os dados dos equipamentos em seus estados normais, 
    sem defeitos. Este trabalho investiga a detecção de anomalias com o uso da 
    OGNet, uma técnica de estado da arte de OCC e busca adaptá-la para a 
    detecção de anomalias, criando uma nova rede, a OGNet-AD. A nova rede e a 
    OGNet foram avaliadas quantitativamente em um ambiente controlado com MVTec 
    AD e em um ambiente não controlado com um dataset privado de inspeção de 
    linhas de transmissão de energia, o DILTE. Como resultado da pesquisa, 
    verificou-se que a OGNet pode ser utilizada para detecção de anomalias e 
    compara-se com técnicas tradicionais desse contexto. A OGNet-AD conseguiu 
    superar a OGNet tanto no cenário controlado do MVTec-AD quanto no cenário 
    não controlado do DILTE, com média de AUC-ROC de 87,4 contra 84,7 da OGNet 
    no MVTec-AD e 77 contra 72 no DILTE, comprovando os benefícios das 
    modificações realizadas no modelo. Apesar da evolução da OGNet-AD, a 
    técnica também foi comparada com técnicas elaboradas para detecção de 
    anomalias, não superando ainda a técnica do estado da arte. Além dos testes 
    quantitativos, uma técnica de Explainable Artificial Inteligente foi 
    explorada para a validação qualitativa da OGNet-AD. A validação foi 
    realizada utilizando a Grad-CAM para visualizar as regiões que influenciam 
    nas decisões da rede. A validação qualitativa mostrou-se eficiente para 
    analisar o uso da OGNet-AD, principalmente em cenários com poucos dados 
    para realização da validação quantitativa tradicional.

35
  • STHEFANIE DAL MAGRO
  • ENGENHARIA DE REQUISITOS EM SISTEMAS CRÍTICOS DE SEGURANÇA: uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança

  • Orientador : JAELSON FREIRE BRELAZ DE CASTRO
  • MEMBROS DA BANCA :
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • JAELSON FREIRE BRELAZ DE CASTRO
  • JOHNNY CARDOSO MARQUES
  • Data: 28/04/2022

  • Mostrar Resumo
  • Sistemas Críticos de Segurança (SCSs) são considerados sistemas que caso falhem podem levar à perda de vida, perdas financeiras e danos ao meio ambiente. A Engenharia de Requisitos é essencial no desenvolvimento destes sistemas, tendo em vista que a utilização de requisitos inadequados ou incompreendidos são reconhecidos como a principal causa de acidentes e catástrofes relacionados com a segurança. Portanto, os requisitos iniciais de segurança dos SCSs devem ser cuidadosamente identificados e adequadamente modelados. No entanto, a literatura apresenta poucas técnicas de elicitação e modelagem. Ademais, de acordo com Vilela et al. (2020) é mais econômico corrigir problemas na fase da Engenharia de Requisitos do que na etapa de desenvolvimento do sistema em de requisitos voltadas para o domínio de SCSs. Esta pesquisa propõe o desenvolvimento de uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança no contexto de sistemas críticos de segurança que posteriormente serão modelados através da notação iStar4Safety. Inicialmente, foi realizado um levantamento para aquisição de conhecimento acerca do tema, depois foram identificadas as técnicas de elicitação de requisitos para SCSs existentes na literatura. Em seguida, foi desenvolvida uma nova abordagem para elicitação de requisitos iniciais de segurança, uma ferramenta para dar apoio a abordagem e regras de mapeamento em iStar4Safety. Por último, foi realizada uma avaliação da proposta através de um quasi-experimento. Sendo assim, este trabalho propôs a abordagem Elicit4Safety que visa auxiliar na descoberta e modelagem dos perigos e requisitos iniciais de segurança no contexto dos SCSs, além do desenvolvimento de uma ferramenta que dá suporte a abordagem. De acordo com os resultados encontrados na análise de dados qualitativa e quantitativa, obtidos através aplicação de testes estatísticos e um questionário aplicado aos sujeitos experimentais, é possível observar que a abordagem Elicit4Safety é fácil de entender e de ser utilizada.


  • Mostrar Abstract
  • Sistemas Críticos de Segurança (SCSs) são considerados sistemas que caso falhem podem levar à perda de vida, perdas financeiras e danos ao meio ambiente. A Engenharia de Requisitos é essencial no desenvolvimento destes sistemas, tendo em vista que a utilização de requisitos inadequados ou incompreendidos são reconhecidos como a principal causa de acidentes e catástrofes relacionados com a segurança. Portanto, os requisitos iniciais de segurança dos SCSs devem ser cuidadosamente identificados e adequadamente modelados. No entanto, a literatura apresenta poucas técnicas de elicitação e modelagem. Ademais, de acordo com Vilela et al. (2020) é mais econômico corrigir problemas na fase da Engenharia de Requisitos do que na etapa de desenvolvimento do sistema em de requisitos voltadas para o domínio de SCSs. Esta pesquisa propõe o desenvolvimento de uma abordagem para auxiliar na descoberta de requisitos iniciais de segurança no contexto de sistemas críticos de segurança que posteriormente serão modelados através da notação iStar4Safety. Inicialmente, foi realizado um levantamento para aquisição de conhecimento acerca do tema, depois foram identificadas as técnicas de elicitação de requisitos para SCSs existentes na literatura. Em seguida, foi desenvolvida uma nova abordagem para elicitação de requisitos iniciais de segurança, uma ferramenta para dar apoio a abordagem e regras de mapeamento em iStar4Safety. Por último, foi realizada uma avaliação da proposta através de um quasi-experimento. Sendo assim, este trabalho propôs a abordagem Elicit4Safety que visa auxiliar na descoberta e modelagem dos perigos e requisitos iniciais de segurança no contexto dos SCSs, além do desenvolvimento de uma ferramenta que dá suporte a abordagem. De acordo com os resultados encontrados na análise de dados qualitativa e quantitativa, obtidos através aplicação de testes estatísticos e um questionário aplicado aos sujeitos experimentais, é possível observar que a abordagem Elicit4Safety é fácil de entender e de ser utilizada.

36
  • GERALDO PIRES CORDEIRO JÚNIOR
  • Reconhecimento de espécies de mosquitos por meio de métodos 
    computacionais inteligentes baseados em aprendizagem profunda

  • Orientador : LEANDRO MACIEL ALMEIDA
  • MEMBROS DA BANCA :
  • FERNANDO MACIANO DE PAULA NETO
  • LEANDRO MACIEL ALMEIDA
  • ROSÂNGELA MARIA RODRIGUES BARBOSA
  • Data: 18/05/2022

  • Mostrar Resumo
  • As doenças transmitidas por mosquitos vetores expressam um grande perigo à 
    sociedade. Arboviroses como Dengue, Zika, Febre Amarela, Chikungunya, 
    causaram alto número de mortes nas últimas décadas, além de diminuírem a 
    qualidade de vida das pessoas, causarem outras doenças, como é o caso de 
    microcefalia em recém-nascidos por conta da Zika, e impactarem a economia. 
    Ações que visem o controle dos vetores se mostraram eficazes no combate a 
    essas doenças. Entretanto, em áreas em que essas doenças são endêmicas, os 
    vetores coexistem com outros mosquitos que não transmitem doenças, sendo 
    essencial a identificação desses mosquitos, para que se possa analisar a 
    densidade e entender mais sobre a população deles. Todavia é necessário a 
    atuação de um especialista, sendo muitas vezes um trabalho cansativo. 
    Observando a importância da identificação desses vetores e os problemas das 
    atuais técnicas de identificação, esse estudo propõe um modelo 
    computacional inteligente para a classificação automática de mosquitos 
    vetores, baseado em imagens. Para isso foi construída uma base com 5432 
    imagens de mosquitos de 3 espécies: Aedes aegypti, Aedes albopictus e Culex 
    quinquefasciatus. Foram utilizadas três redes convolucionais: VGG16, 
    ResNet50 e EfficientNetB0. O modelo de Deep Learning que obteve maior 
    resultado foi a VGG16, com acurácia de 95%, mostrando-se eficiente na 
    identificação das espécies estudadas.


  • Mostrar Abstract
  • As doenças transmitidas por mosquitos vetores expressam um grande perigo à 
    sociedade. Arboviroses como Dengue, Zika, Febre Amarela, Chikungunya, 
    causaram alto número de mortes nas últimas décadas, além de diminuírem a 
    qualidade de vida das pessoas, causarem outras doenças, como é o caso de 
    microcefalia em recém-nascidos por conta da Zika, e impactarem a economia. 
    Ações que visem o controle dos vetores se mostraram eficazes no combate a 
    essas doenças. Entretanto, em áreas em que essas doenças são endêmicas, os 
    vetores coexistem com outros mosquitos que não transmitem doenças, sendo 
    essencial a identificação desses mosquitos, para que se possa analisar a 
    densidade e entender mais sobre a população deles. Todavia é necessário a 
    atuação de um especialista, sendo muitas vezes um trabalho cansativo. 
    Observando a importância da identificação desses vetores e os problemas das 
    atuais técnicas de identificação, esse estudo propõe um modelo 
    computacional inteligente para a classificação automática de mosquitos 
    vetores, baseado em imagens. Para isso foi construída uma base com 5432 
    imagens de mosquitos de 3 espécies: Aedes aegypti, Aedes albopictus e Culex 
    quinquefasciatus. Foram utilizadas três redes convolucionais: VGG16, 
    ResNet50 e EfficientNetB0. O modelo de Deep Learning que obteve maior 
    resultado foi a VGG16, com acurácia de 95%, mostrando-se eficiente na 
    identificação das espécies estudadas.

37
  • JESSICA FELICIANO COUTINHO
  • Avaliação de técnicas de Combinação de Embeddings para a Análise de 
    Sentimentos de Produtos escritos em Português-BR

  • Orientador : LEANDRO MACIEL ALMEIDA
  • MEMBROS DA BANCA :
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • LEANDRO MACIEL ALMEIDA
  • LUCIANO DE ANDRADE BARBOSA
  • Data: 26/05/2022

  • Mostrar Resumo
  • A  Análise de Sentimentos é uma área de pesquisa voltada para a 
    determinação da polaridade do sentimento presente em um texto, buscando 
    identificar se a informação é de caráter positivo, negativo ou neutro, 
    dentre outras formas de classificação. Com o expressivo volume de 
    informações textuais que circulam na web diariamente, o processo de 
    análises automáticas dos sentimentos torna-se ainda mais necessário. Para 
    conteúdos relacionados à avaliação de produtos e serviços, a detecção de 
    sentimentos é de grande relevância, uma vez que entender a mensagem que um 
    consumidor está querendo passar sobre um produto é essencial para as 
    empresas por diversos fatores, dentre eles campanhas de marketing e 
    melhoria no relacionamento com seus clientes. Nesse cenário, o estudo das 
    formas de melhorar a representação das informações textuais, de modo que 
    elas sejam processadas através de modelos de aprendizagem de máquina, é de 
    extrema importância para contribuir com o aumento de performance na 
    classificação dos sentimentos presentes nos textos. Diante disto, o 
    presente trabalho realiza um estudo experimental do comportamento de 
    diferentes técnicas de vetorização de textos, com foco nos embeddings: 
    vetores representativos compostos por valores reais capazes de armazenar 
    informações sintáticas e semânticas das palavras. Para isso, são avaliados 
    diferentes tipos de vetores de embeddings e três formas de combinação 
    desses vetores, que são utilizados no processo de classificação de cinco 
    diferentes algoritmos de aprendizagem de máquina. Além disso, também é 
    utilizado um algoritmo de aprendizagem profundo onde a etapa de embedding é 
    realizada pela própria camada da rede neural. Com o intuito de contribuir 
    com a Análise de Sentimentos de textos em Português-BR, foram estudadas 
    quatro bases de dados neste idioma: Buscapé, B2W, Olist e UTL Movies. Essas 
    bases são compostas por avaliações de usuários reais da web sobre produtos 
    e serviços. Os resultados encontrados nessa pesquisa mostraram que nem 
    todos os algoritmos de aprendizagem de máquina sofrem impacto diante da 
    mudança na técnica de vetorização, porém quando pelo menos duas técnicas 
    são combinadas a partir da concatenação entre seus vetores de pesos, é 
    possível obter melhoria na performance de algoritmos comumente utilizados 
    na área de aprendizagem de máquina, como a MLP e o XGBoost


  • Mostrar Abstract
  • A  Análise de Sentimentos é uma área de pesquisa voltada para a 
    determinação da polaridade do sentimento presente em um texto, buscando 
    identificar se a informação é de caráter positivo, negativo ou neutro, 
    dentre outras formas de classificação. Com o expressivo volume de 
    informações textuais que circulam na web diariamente, o processo de 
    análises automáticas dos sentimentos torna-se ainda mais necessário. Para 
    conteúdos relacionados à avaliação de produtos e serviços, a detecção de 
    sentimentos é de grande relevância, uma vez que entender a mensagem que um 
    consumidor está querendo passar sobre um produto é essencial para as 
    empresas por diversos fatores, dentre eles campanhas de marketing e 
    melhoria no relacionamento com seus clientes. Nesse cenário, o estudo das 
    formas de melhorar a representação das informações textuais, de modo que 
    elas sejam processadas através de modelos de aprendizagem de máquina, é de 
    extrema importância para contribuir com o aumento de performance na 
    classificação dos sentimentos presentes nos textos. Diante disto, o 
    presente trabalho realiza um estudo experimental do comportamento de 
    diferentes técnicas de vetorização de textos, com foco nos embeddings: 
    vetores representativos compostos por valores reais capazes de armazenar 
    informações sintáticas e semânticas das palavras. Para isso, são avaliados 
    diferentes tipos de vetores de embeddings e três formas de combinação 
    desses vetores, que são utilizados no processo de classificação de cinco 
    diferentes algoritmos de aprendizagem de máquina. Além disso, também é 
    utilizado um algoritmo de aprendizagem profundo onde a etapa de embedding é 
    realizada pela própria camada da rede neural. Com o intuito de contribuir 
    com a Análise de Sentimentos de textos em Português-BR, foram estudadas 
    quatro bases de dados neste idioma: Buscapé, B2W, Olist e UTL Movies. Essas 
    bases são compostas por avaliações de usuários reais da web sobre produtos 
    e serviços. Os resultados encontrados nessa pesquisa mostraram que nem 
    todos os algoritmos de aprendizagem de máquina sofrem impacto diante da 
    mudança na técnica de vetorização, porém quando pelo menos duas técnicas 
    são combinadas a partir da concatenação entre seus vetores de pesos, é 
    possível obter melhoria na performance de algoritmos comumente utilizados 
    na área de aprendizagem de máquina, como a MLP e o XGBoost

38
  • KARL VANDESMAN DE MATOS SOUSA
  • Desenvolvimento de base de dados e algoritmo de classificação 
    antecipada de exames RT-qPCR para COVID-19

  • Orientador : ADENILTON JOSÉ DA SILVA
  • MEMBROS DA BANCA :
  • ADENILTON JOSÉ DA SILVA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • GEORGE GOMES CABRAL
  • Data: 02/06/2022

  • Mostrar Resumo
  • A doença denominada COVID-19, causada pelo vírus SARS-CoV-2, foi a 
    responsável por gerar uma pandemia, preocupando diversos órgãos e 
    instituições ao redor do mundo de forma a combatê-la e reduzir o seu 
    impacto. Um dos fatores importantes para esse combate, é o diagnóstico da 
    doença, que deve considerar a assertividade e o tempo levado para sua 
    conclu- são. Este trabalho atuou nos dados quantitativos gerados pelo exame 
    RT-qPCR, obtidos pela disponibilização feita pelo Núcleo de Pesquisa em 
    Inovação Terapêutica (NUPIT) da Universidade Federal de Pernambuco. Os 
    arquivos de saída do exame foram filtrados e ajustados de forma a se ter 
    uma base de dados disponível para treinamento de algoritmos de aprendizagem 
    supervisionada, totalizando 75.716 linhas com 45 características temporais 
    (ciclos de máquina) e um alvo a ser classificado como positivo ou negativo. 
    Esses dados formam uma série temporal, sendo cada característica um valor 
    de fluorescência do processo da reação química do RT-qPCR, de forma a 
    detectar genes do SARS-CoV-2. Foram elencados diferentes algoritmos da 
    literatura, desde mais genéricos para classificação, a outros mais 
    complexos, utilizando comitês, e considerando a ordenação temporal das 
    características do problema. Primeiramente, esses algoritmos foram 
    treinados com a totalidade dos ciclos, para se ter uma referência do 
    desempenho que poderia ser obtido. Posteriormente, foram realizados 
    treinamentos com uma redução desse número de ciclos, com o intuito de 
    antecipar o exame e consequentemente diminuir o tempo necessário para sua 
    conclusão. Para comparar os desempenhos, foram analisadas as métricas AUROC 
    (do inglês, Area Under the Receiver Operating Characteristic), acurácia, 
    especificidade e sensibilidade, com média e desvio padrão calculadas em 
    cima de cem reamostragens da base de dados. Para o cenário de redução de 30 
    ciclos, foi realizada a otimização de hiperparâmetros dos três algoritmos 
    que se destacaram na etapa anterior: um baseado em redes neurais, MLP 
    (Multilayer Perceptron) e dois comitês de classificadores, o XGBoost e o 
    Time Series Forest (TSF), sendo que este último considera a relação 
    temporal das características. Testes estatísticos realizados indicaram um 
    maior desempenho do TSF (AUROC 98,98 ± 0, 07%) e do MLP (98,94 ± 0, 19%) 
    para 30 ciclos, uma melhoria de desempenho graças à otimização, mas ainda 
    com desempenho inferior ao algoritmo treinado com 35 ciclos com valores 
    padrões de hiperparâmetros. Com isso, este trabalho fornece respaldo para a 
    redução do tempo do RT-qPCR aplicado para COVID-19, por meio de algoritmos 
    de aprendizagem de máquina.


  • Mostrar Abstract
  • A doença denominada COVID-19, causada pelo vírus SARS-CoV-2, foi a 
    responsável por gerar uma pandemia, preocupando diversos órgãos e 
    instituições ao redor do mundo de forma a combatê-la e reduzir o seu 
    impacto. Um dos fatores importantes para esse combate, é o diagnóstico da 
    doença, que deve considerar a assertividade e o tempo levado para sua 
    conclu- são. Este trabalho atuou nos dados quantitativos gerados pelo exame 
    RT-qPCR, obtidos pela disponibilização feita pelo Núcleo de Pesquisa em 
    Inovação Terapêutica (NUPIT) da Universidade Federal de Pernambuco. Os 
    arquivos de saída do exame foram filtrados e ajustados de forma a se ter 
    uma base de dados disponível para treinamento de algoritmos de aprendizagem 
    supervisionada, totalizando 75.716 linhas com 45 características temporais 
    (ciclos de máquina) e um alvo a ser classificado como positivo ou negativo. 
    Esses dados formam uma série temporal, sendo cada característica um valor 
    de fluorescência do processo da reação química do RT-qPCR, de forma a 
    detectar genes do SARS-CoV-2. Foram elencados diferentes algoritmos da 
    literatura, desde mais genéricos para classificação, a outros mais 
    complexos, utilizando comitês, e considerando a ordenação temporal das 
    características do problema. Primeiramente, esses algoritmos foram 
    treinados com a totalidade dos ciclos, para se ter uma referência do 
    desempenho que poderia ser obtido. Posteriormente, foram realizados 
    treinamentos com uma redução desse número de ciclos, com o intuito de 
    antecipar o exame e consequentemente diminuir o tempo necessário para sua 
    conclusão. Para comparar os desempenhos, foram analisadas as métricas AUROC 
    (do inglês, Area Under the Receiver Operating Characteristic), acurácia, 
    especificidade e sensibilidade, com média e desvio padrão calculadas em 
    cima de cem reamostragens da base de dados. Para o cenário de redução de 30 
    ciclos, foi realizada a otimização de hiperparâmetros dos três algoritmos 
    que se destacaram na etapa anterior: um baseado em redes neurais, MLP 
    (Multilayer Perceptron) e dois comitês de classificadores, o XGBoost e o 
    Time Series Forest (TSF), sendo que este último considera a relação 
    temporal das características. Testes estatísticos realizados indicaram um 
    maior desempenho do TSF (AUROC 98,98 ± 0, 07%) e do MLP (98,94 ± 0, 19%) 
    para 30 ciclos, uma melhoria de desempenho graças à otimização, mas ainda 
    com desempenho inferior ao algoritmo treinado com 35 ciclos com valores 
    padrões de hiperparâmetros. Com isso, este trabalho fornece respaldo para a 
    redução do tempo do RT-qPCR aplicado para COVID-19, por meio de algoritmos 
    de aprendizagem de máquina.

39
  • MATEUS GONCALVES MACHADO
  • DyLam: A Dynamic Reward Weighting Method for Reinforcement Learning 
    Policy Gradient Algorithms

  • Orientador : HANSENCLEVER DE FRANCA BASSANI
  • MEMBROS DA BANCA :
  • ANNA HELENA REALI COSTA
  • HANSENCLEVER DE FRANCA BASSANI
  • TSANG ING REN
  • Data: 07/06/2022

  • Mostrar Resumo
  • Aprendizagem por Reforço (AR) é um subcampo emergente de Aprendizagem de 
    Máquina no qual um agente interage com um ambiente e aproveita suas 
    experiências para aprender, por tentativa e erro, quais ações são as mais 
    adequadas para cada estado.
    A cada passo o agente recebe um sinal de recompensa positivo ou negativo, 
    que é o principal feedback utilizado para o aprendizado.
    A AR encontra aplicações em diversas áreas, como robótica, bolsa de valores 
    e até mesmo em sistemas de refrigeração, apresentando desempenho 
    sobre-humano no aprendizado de jogos de tabuleiro (Xadrez e Go) e 
    videogames (jogos de Atari, Dota2 e StarCraft2).
    No entanto, os métodos AR ainda lutam em ambientes com recompensas escassas.
    Por exemplo, um agente pode receber poucas recompensas por gols em um jogo 
    de futebol. Assim, é difícil associar recompensas (gols) com ações.
    Os pesquisadores frequentemente introduzem várias recompensas 
    intermediárias para ajudar no aprendizado e contornar esse problema. No 
    entanto, combinar adequadamente várias recompensas para compor o sinal de 
    recompensa único usado pelos métodos AR frequentemente não é uma tarefa 
    fácil.
    Este trabalho visa resolver este problema específico através da introdução 
    do DyLam. Ele estende os métodos de gradiente de política existentes 
    decompondo a função de recompensa usada no ambiente e ponderando 
    dinamicamente cada componente em função do desempenho do agente na tarefa 
    associada.
    Provamos a convergência do método proposto e mostramos empiricamente que 
    ele supera métodos concorrentes nos ambientes avaliados em termos de 
    velocidade de aprendizado e, em alguns casos, desempenho final.


  • Mostrar Abstract
  • Aprendizagem por Reforço (AR) é um subcampo emergente de Aprendizagem de 
    Máquina no qual um agente interage com um ambiente e aproveita suas 
    experiências para aprender, por tentativa e erro, quais ações são as mais 
    adequadas para cada estado.
    A cada passo o agente recebe um sinal de recompensa positivo ou negativo, 
    que é o principal feedback utilizado para o aprendizado.
    A AR encontra aplicações em diversas áreas, como robótica, bolsa de valores 
    e até mesmo em sistemas de refrigeração, apresentando desempenho 
    sobre-humano no aprendizado de jogos de tabuleiro (Xadrez e Go) e 
    videogames (jogos de Atari, Dota2 e StarCraft2).
    No entanto, os métodos AR ainda lutam em ambientes com recompensas escassas.
    Por exemplo, um agente pode receber poucas recompensas por gols em um jogo 
    de futebol. Assim, é difícil associar recompensas (gols) com ações.
    Os pesquisadores frequentemente introduzem várias recompensas 
    intermediárias para ajudar no aprendizado e contornar esse problema. No 
    entanto, combinar adequadamente várias recompensas para compor o sinal de 
    recompensa único usado pelos métodos AR frequentemente não é uma tarefa 
    fácil.
    Este trabalho visa resolver este problema específico através da introdução 
    do DyLam. Ele estende os métodos de gradiente de política existentes 
    decompondo a função de recompensa usada no ambiente e ponderando 
    dinamicamente cada componente em função do desempenho do agente na tarefa 
    associada.
    Provamos a convergência do método proposto e mostramos empiricamente que 
    ele supera métodos concorrentes nos ambientes avaliados em termos de 
    velocidade de aprendizado e, em alguns casos, desempenho final.

40
  • PAULO J DE MORAES VASCONCELOS
  • Identificação de fungos anemófilos, em ambientes abertos, através 
    de um nariz eletrônico e modelos de Inteligência Artificial

  • Orientador : LEANDRO MACIEL ALMEIDA
  • MEMBROS DA BANCA :
  • CLEBER ZANCHETTIN
  • PAULO SALGADO GOMES DE MATTOS NETO
  • REGINALDO GONCALVES DE LIMA NETO
  • Data: 15/06/2022

  • Mostrar Resumo
  • Os fungos dispersam-se na natureza através do ar atmosférico ou por outras 
    vias, como água, insetos, humanos e animais. Os fungos que são dispersados 
    através do ar atmosférico são denominados fungos anemófilos. Sendo assim, a 
    microbiota fúngica anemófila pode ser semelhante ou diferente em cada 
    cidade ou região. Em indústrias como farmacêutica e de alimentos, a 
    preservação da qualidade do ar dos ambientes é ponto importante para a 
    garantia asséptica dos produtos. Hospitais constituem ambientes que 
    necessitam de maior atenção, no que diz respeito ao monitoramento ambiental 
    das áreas críticas. Por outro lado, em climatizadores de ar, o acúmulo de 
    umidade e material orgânico pode torná-los poderosas fontes dispersoras de 
    bioaerossóis. Outra problemática na disseminação de fungos é a produção de 
    micotoxinas. Para conhecer o objeto desse trabalho apresenta-se um estudo 
    sobre os fungos anemófilos, uma breve discursão sobre Inteligência 
    Artificial, em seguida é apresentado o nariz eletrônico utilizado nos 
    experimentos, apresenta-se e explica-se os princípios de funcionamento dos 
    modelos de aprendizagem de máquina testados como solução do problema. 
    Relata-se a exploração dos dados levantados e experimentos das bases de 
    dados de leituras do nariz eletrônico. Os resultados foram satisfatórios em 
    duas bases e insatisfatório em uma base. O classificador InceptionTime 
    obteve o melhor desempenho em uma das bases, atingindo acurácia 97,7% no 
    conjunto de teste. Em outra base o classificador HIVE-COTE 2.0 obteve os 
    melhores resultados alcançando acurácia 96,4% no conjunto de teste. Na 
    última base testada, os resultados foram insatisfatórios, com acurácia 
    máxima de apenas 41,6% no conjunto de teste. Estando no princípio da 
    pesquisa, um ou outro resultado adverso é natural, contudo, conclui-se que 
    essa dissertação contribui desenvolver produtos e serviços que monitorem a 
    qualidade do ar em áreas sensíveis como indústrias alimentícias e 
    farmacêuticas, áreas hospitalares críticas, acúmulo de umidade e material 
    orgânico em condicionadores de ar, como também a presença de micotoxinas 
    produzidas por esses microrganismos. A ampliação e a diversificação da 
    testagem de fungos anemófilos objetivando cobrir uma gama maior de 
    problemas e patologias associadas a mais espécies de fungos anemófilos, 
    como também ampliação das bases de dados, isto é, mais dados e melhores 
    dados para minimizar os erros, implica em modelos mais bem treinados, que 
    generalizam adequadamente para casos novos, que não são conhecidos pelos 
    modelos. Outra frente de trabalho importante é aprofundar o estudo dos 
    modelos de classificadores especializados em séries temporais. O objetivo é 
    encontrar o modelo com resultados mais satisfatórios e com os menores 
    custos computacionais.


  • Mostrar Abstract
  • Os fungos dispersam-se na natureza através do ar atmosférico ou por outras 
    vias, como água, insetos, humanos e animais. Os fungos que são dispersados 
    através do ar atmosférico são denominados fungos anemófilos. Sendo assim, a 
    microbiota fúngica anemófila pode ser semelhante ou diferente em cada 
    cidade ou região. Em indústrias como farmacêutica e de alimentos, a 
    preservação da qualidade do ar dos ambientes é ponto importante para a 
    garantia asséptica dos produtos. Hospitais constituem ambientes que 
    necessitam de maior atenção, no que diz respeito ao monitoramento ambiental 
    das áreas críticas. Por outro lado, em climatizadores de ar, o acúmulo de 
    umidade e material orgânico pode torná-los poderosas fontes dispersoras de 
    bioaerossóis. Outra problemática na disseminação de fungos é a produção de 
    micotoxinas. Para conhecer o objeto desse trabalho apresenta-se um estudo 
    sobre os fungos anemófilos, uma breve discursão sobre Inteligência 
    Artificial, em seguida é apresentado o nariz eletrônico utilizado nos 
    experimentos, apresenta-se e explica-se os princípios de funcionamento dos 
    modelos de aprendizagem de máquina testados como solução do problema. 
    Relata-se a exploração dos dados levantados e experimentos das bases de 
    dados de leituras do nariz eletrônico. Os resultados foram satisfatórios em 
    duas bases e insatisfatório em uma base. O classificador InceptionTime 
    obteve o melhor desempenho em uma das bases, atingindo acurácia 97,7% no 
    conjunto de teste. Em outra base o classificador HIVE-COTE 2.0 obteve os 
    melhores resultados alcançando acurácia 96,4% no conjunto de teste. Na 
    última base testada, os resultados foram insatisfatórios, com acurácia 
    máxima de apenas 41,6% no conjunto de teste. Estando no princípio da 
    pesquisa, um ou outro resultado adverso é natural, contudo, conclui-se que 
    essa dissertação contribui desenvolver produtos e serviços que monitorem a 
    qualidade do ar em áreas sensíveis como indústrias alimentícias e 
    farmacêuticas, áreas hospitalares críticas, acúmulo de umidade e material 
    orgânico em condicionadores de ar, como também a presença de micotoxinas 
    produzidas por esses microrganismos. A ampliação e a diversificação da 
    testagem de fungos anemófilos objetivando cobrir uma gama maior de 
    problemas e patologias associadas a mais espécies de fungos anemófilos, 
    como também ampliação das bases de dados, isto é, mais dados e melhores 
    dados para minimizar os erros, implica em modelos mais bem treinados, que 
    generalizam adequadamente para casos novos, que não são conhecidos pelos 
    modelos. Outra frente de trabalho importante é aprofundar o estudo dos 
    modelos de classificadores especializados em séries temporais. O objetivo é 
    encontrar o modelo com resultados mais satisfatórios e com os menores 
    custos computacionais.

41
  • DANILO AUGUSTO MENEZES CLEMENTE
  • Modelagem hierárquica da disponibilidade de serviços hospedados em Centro de Dados distribuídos

  • Orientador : PAULO ROMERO MARTINS MACIEL
  • MEMBROS DA BANCA :
  • CARLOS ALEXANDRE SILVA DE MELO
  • ERICA TEIXEIRA GOMES DE SOUSA
  • PAULO ROMERO MARTINS MACIEL
  • Data: 20/06/2022

  • Mostrar Resumo
  • A computação em nuvem fornece uma abstração das camadas físicas, permitindo 
    uma sensação de recursos infinitos. No entanto, os recursos físicos não são 
    ilimitados e precisam ser utilizados de maneira cada vez mais assertiva. Um 
    dos desafios da computação em nuvem é aprimorar esta utilização dos 
    recursos físicos sem comprometer a disponibilidade dos ambientes neles 
    hospedados. Os modelos hierárquicos possibilitam uma avaliação eficiente 
    dos sistemas que se utilizam da computação em nuvem, permitindo um melhor 
    aproveitamento dos recursos físicos. Este trabalho se utiliza desta 
    estratégia para conduzir uma avaliação de disponibilidade de um sistema 
    hospedado em uma nuvem privada. Foram realizados estudos preliminares na 
    infraestrutura física e lógica utilizada pelo sistema, visando identificar 
    possíveis pontos de melhorias nas configurações, incluindo uma análise de 
    sensibilidade que identifica os componentes que possuem a maior capacidade 
    de interferência na disponibilidade do sistema. Modelos hierárquicos foram 
    concebidos para representar o ambiente atual (baseline), possibilitando a 
    identificação da disponibilidade do sistema. Foi desenvolvido também uma 
    metodologia que permite a replicação adequada deste estudo, podendo ser 
    utilizada para este sistema ou em sistemas similares. Após a correta 
    identificação e modelagem da baseline, foram propostas alterações nos 
    componentes internos ao CD, visando um aprimoramento da disponibilidade do 
    sistema. Posteriormente da descoberta de um valor da disponibilidade 
    considerado como satisfatório pelos administradores do sistema, foram 
    adicionadas aos modelos previamente desenvolvidos, componentes físicos da 
    estrutura do CD, em conjunto com as CCF. Neste momento do estudo, foram 
    aplicadas técnicas de sintetização em modelos SPN, permitindo a realização 
    dos cálculos com um baixo custo operacional. Foram concebidos modelos que 
    possibilitam a análise de cenários em casos de redundância de CD, 
    permitindo a identificação do CD ativo, além de qual cenário possibilita 
    uma melhor disponibilidade para o sistema.


  • Mostrar Abstract
  • A computação em nuvem fornece uma abstração das camadas físicas, permitindo 
    uma sensação de recursos infinitos. No entanto, os recursos físicos não são 
    ilimitados e precisam ser utilizados de maneira cada vez mais assertiva. Um 
    dos desafios da computação em nuvem é aprimorar esta utilização dos 
    recursos físicos sem comprometer a disponibilidade dos ambientes neles 
    hospedados. Os modelos hierárquicos possibilitam uma avaliação eficiente 
    dos sistemas que se utilizam da computação em nuvem, permitindo um melhor 
    aproveitamento dos recursos físicos. Este trabalho se utiliza desta 
    estratégia para conduzir uma avaliação de disponibilidade de um sistema 
    hospedado em uma nuvem privada. Foram realizados estudos preliminares na 
    infraestrutura física e lógica utilizada pelo sistema, visando identificar 
    possíveis pontos de melhorias nas configurações, incluindo uma análise de 
    sensibilidade que identifica os componentes que possuem a maior capacidade 
    de interferência na disponibilidade do sistema. Modelos hierárquicos foram 
    concebidos para representar o ambiente atual (baseline), possibilitando a 
    identificação da disponibilidade do sistema. Foi desenvolvido também uma 
    metodologia que permite a replicação adequada deste estudo, podendo ser 
    utilizada para este sistema ou em sistemas similares. Após a correta 
    identificação e modelagem da baseline, foram propostas alterações nos 
    componentes internos ao CD, visando um aprimoramento da disponibilidade do 
    sistema. Posteriormente da descoberta de um valor da disponibilidade 
    considerado como satisfatório pelos administradores do sistema, foram 
    adicionadas aos modelos previamente desenvolvidos, componentes físicos da 
    estrutura do CD, em conjunto com as CCF. Neste momento do estudo, foram 
    aplicadas técnicas de sintetização em modelos SPN, permitindo a realização 
    dos cálculos com um baixo custo operacional. Foram concebidos modelos que 
    possibilitam a análise de cenários em casos de redundância de CD, 
    permitindo a identificação do CD ativo, além de qual cenário possibilita 
    uma melhor disponibilidade para o sistema.

42
  • CLEISON CORREIA DE AMORIM
  • Uma Abordagem Linguística para o Reconhecimento de Línguas de Sinais

  • Orientador : CLEBER ZANCHETTIN
  • MEMBROS DA BANCA :
  • BYRON LEITE DANTAS BEZERRA
  • CLEBER ZANCHETTIN
  • LEANDRO MACIEL ALMEIDA
  • Data: 05/07/2022

  • Mostrar Resumo
  • A língua de sinais é uma ferramenta essencial na vida do Surdo, capaz de 
    assegurar seu acesso à comunicação, educação, desenvolvimento cognitivo e 
    socio-emocional. Na verdade, ela é a principal força que une essa 
    comunidade e o símbolo de identificação entre seus membros. Por outro lado, 
    o número de indivíduos ouvintes que conseguem se comunicar por meio dessa 
    língua atualmente é pequeno e, na prática, isso acaba trazendo alguns 
    obstáculos para o cotidiano do Surdo. Tarefas simples como utilizar o 
    transporte público, comprar roupas, ir ao cinema ou obter assistência 
    médica acabam se tornando um desafio por conta dessa comunicação limitada. 
    O Reconhecimento de Língua de Sinais é uma das áreas de pesquisa que atuam 
    para desenvolver tecnologias capazes de reduzir essas barreiras 
    linguísticas e facilitar a comunicação entre esses indivíduos. Apesar 
    disso, ao analisarmos sua evolução ao longo das últimas décadas, percebemos 
    que seu progresso ainda não é suficiente para disponibilizar soluções 
    efetivamente aplicáveis ao mundo real. Isso ocorre principalmente porque 
    várias pesquisas nessa área acabam não se apropriando ou abordando 
    adequadamente as particularidades linguística apresentadas pelas línguas de 
    sinais, que são decorrentes de sua natureza visual. Tendo isso em vista, 
    este trabalho introduz uma abordagem linguística para o reconhecimento de 
    língua de sinais que objetiva estabelecer uma direção capaz de conduzir a 
    avanços mais efetivos para essa área e, consequentemente, contribuir com a 
    superação dos obstáculos hoje enfrentados pelo Surdo.


  • Mostrar Abstract
  • A língua de sinais é uma ferramenta essencial na vida do Surdo, capaz de 
    assegurar seu acesso à comunicação, educação, desenvolvimento cognitivo e 
    socio-emocional. Na verdade, ela é a principal força que une essa 
    comunidade e o símbolo de identificação entre seus membros. Por outro lado, 
    o número de indivíduos ouvintes que conseguem se comunicar por meio dessa 
    língua atualmente é pequeno e, na prática, isso acaba trazendo alguns 
    obstáculos para o cotidiano do Surdo. Tarefas simples como utilizar o 
    transporte público, comprar roupas, ir ao cinema ou obter assistência 
    médica acabam se tornando um desafio por conta dessa comunicação limitada. 
    O Reconhecimento de Língua de Sinais é uma das áreas de pesquisa que atuam 
    para desenvolver tecnologias capazes de reduzir essas barreiras 
    linguísticas e facilitar a comunicação entre esses indivíduos. Apesar 
    disso, ao analisarmos sua evolução ao longo das últimas décadas, percebemos 
    que seu progresso ainda não é suficiente para disponibilizar soluções 
    efetivamente aplicáveis ao mundo real. Isso ocorre principalmente porque 
    várias pesquisas nessa área acabam não se apropriando ou abordando 
    adequadamente as particularidades linguística apresentadas pelas línguas de 
    sinais, que são decorrentes de sua natureza visual. Tendo isso em vista, 
    este trabalho introduz uma abordagem linguística para o reconhecimento de 
    língua de sinais que objetiva estabelecer uma direção capaz de conduzir a 
    avanços mais efetivos para essa área e, consequentemente, contribuir com a 
    superação dos obstáculos hoje enfrentados pelo Surdo.

43
  • FERNANDO HENRIQUE DE ALBUQUERQUE ALVES
  • On the usage of functional programming concepts in JavaScript 

  • Orientador : FERNANDO JOSE CASTOR DE LIMA FILHO
  • MEMBROS DA BANCA :
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • FERNANDO JOSE CASTOR DE LIMA FILHO
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 08/07/2022

  • Mostrar Resumo
  • Constructos de linguagem de programação inspirados no paradigma funcional chegaram à maioria das linguagens convencionais. Muitos pesquisadores e desenvolvedores consideram que esses constructos levam a programas mais concisos, reutilizáveis e mais fáceis de entender. No entanto, poucos estudos investigam a prevalência dessas estruturas e as implicações de usá-las em linguagens de programação convencionais. Este trabalho quantifica a prevalência de quatro conceitos, normalmente associados à programação funcional, em JavaScript: recursão, imutabilidade, avaliação preguiçosa e funções como valores. Dividimos o último em dois grupos, funções de ordem superior e callbacks & promises. Focamos em programas JavaScript devido à disponibilidade de alguns desses conceitos na linguagem desde seu início, sua inspiração em linguagens de programação funcionais e a popularidade da linguagem. Mineramos 91 repositórios GitHub (mais de 22 milhões de linhas de código (LOC)) escritos principalmente em JavaScript (mais de 50% do código), medindo o uso desses conceitos de perspectivas estáticas e temporais. Também medimos a probabilidade de commits de correção de bugs removendo usos desses conceitos (o que sugeriria propensão a bugs) e sua associação com a presença de comentários de código (o que sugeriria um código difícil de entender). Descobrimos que esses conceitos estão em uso generalizado (478,605 ocorrências, 1 para cada 46.65 linhas de código, 43.59% de LOC). Além disso, o uso de funções de ordem superior, imutabilidade e estruturas relacionadas à avaliação preguiçosa vêm crescendo ao longo dos anos para os projetos analisados, enquanto o uso de recursão e callbacks & promises diminuiu. Também encontramos evidências estatísticas de que a remoção dessas estruturas, com exceção das associadas à imutabilidade, é menos comum em commits de correção de bugs do que em outros commits. Além disso, sua presença não está correlacionada com o tamanho do comentário associado. Nossas descobertas sugerem que os conceitos de programação funcional são importantes para desenvolvedores que usam uma linguagem multiparadigma, como JavaScript, e seu uso não torna os programas mais difíceis de entender.


  • Mostrar Abstract
  • Constructos de linguagem de programação inspirados no paradigma funcional chegaram à maioria das linguagens convencionais. Muitos pesquisadores e desenvolvedores consideram que esses constructos levam a programas mais concisos, reutilizáveis e mais fáceis de entender. No entanto, poucos estudos investigam a prevalência dessas estruturas e as implicações de usá-las em linguagens de programação convencionais. Este trabalho quantifica a prevalência de quatro conceitos, normalmente associados à programação funcional, em JavaScript: recursão, imutabilidade, avaliação preguiçosa e funções como valores. Dividimos o último em dois grupos, funções de ordem superior e callbacks & promises. Focamos em programas JavaScript devido à disponibilidade de alguns desses conceitos na linguagem desde seu início, sua inspiração em linguagens de programação funcionais e a popularidade da linguagem. Mineramos 91 repositórios GitHub (mais de 22 milhões de linhas de código (LOC)) escritos principalmente em JavaScript (mais de 50% do código), medindo o uso desses conceitos de perspectivas estáticas e temporais. Também medimos a probabilidade de commits de correção de bugs removendo usos desses conceitos (o que sugeriria propensão a bugs) e sua associação com a presença de comentários de código (o que sugeriria um código difícil de entender). Descobrimos que esses conceitos estão em uso generalizado (478,605 ocorrências, 1 para cada 46.65 linhas de código, 43.59% de LOC). Além disso, o uso de funções de ordem superior, imutabilidade e estruturas relacionadas à avaliação preguiçosa vêm crescendo ao longo dos anos para os projetos analisados, enquanto o uso de recursão e callbacks & promises diminuiu. Também encontramos evidências estatísticas de que a remoção dessas estruturas, com exceção das associadas à imutabilidade, é menos comum em commits de correção de bugs do que em outros commits. Além disso, sua presença não está correlacionada com o tamanho do comentário associado. Nossas descobertas sugerem que os conceitos de programação funcional são importantes para desenvolvedores que usam uma linguagem multiparadigma, como JavaScript, e seu uso não torna os programas mais difíceis de entender.

Teses
1
  • REGINA ROSA PARENTE
  • Classificação de Uma Classe para Seleção de Conjuntos de Dados Sintéticos em Meta-Aprendizado

  • Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBROS DA BANCA :
  • RONNIE CLEY DE OLIVEIRA ALVES
  • GISELE LOBO PAPPA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • TSANG ING REN
  • Data: 04/02/2022

  • Mostrar Resumo
  • A seleção de algoritmos é uma tarefa crucial e desafiadora no aprendizado de máquina em diferentes domínios do conhecimento. O meta-aprendizado trata a seleção de algoritmos como uma tarefa de aprendizado supervisionado. Exemplos de treinamento (ou seja, meta-exemplos) são gerados a partir de experimentos realizados com um conjunto de algoritmos candidatos em vários conjuntos de dados. Pode haver uma pequena disponibilidade de conjuntos de dados reais 
    em alguns domínios, o que torna difícil gerar bons meta-exemplos. Portanto, confiar em conjuntos de dados sintéticos pode ser uma boa alternativa para gerar meta-exemplos. No entanto, não é garantido que todos os conjuntos de dados sintéticos sejam relevantes e representativos em comparação com os conjuntos de dados reais. Desta forma, o uso indiscriminado de muitos 
    conjuntos de dados sintéticos aumenta o custo computacional da realização de experimentos sem melhorar significativamente a precisão do meta-aprendizado. Nesta tese, lidamos com a seleção de conjuntos de dados sintéticos para meta-aprendizagem como um problema de classificação de uma classe (OCC). Em OCC, os classificadores são construídos assumindo a disponibilidade de exemplos de treinamento pertencentes a uma classe única de interesse (ou seja, a classe positiva), enquanto os rótulos de classe dos outros exemplos são desconhecidos. Na solução proposta, técnicas de OCC são utilizadas para selecionar os conjuntos de dados sintéticos mais 
    relevantes (a classe desconhecida), considerando os conjuntos de dados reais (a classe positiva) disponíveis. Também conduzimos experimentos em dois estudos de caso, nos quais empregamos dois procedimentos diferentes de manipulação de dados para produzir conjuntos de dados sintéticos e duas técnicas de OCC para seleção de conjuntos de dados. Os resultados demonstraram que é possível usar um número reduzido de conjuntos de dados sintéticos selecionados, mantendo um bom desempenho de meta-aprendizagem.


  • Mostrar Abstract
  • A seleção de algoritmos é uma tarefa crucial e desafiadora no aprendizado de máquina em diferentes domínios do conhecimento. O meta-aprendizado trata a seleção de algoritmos como uma tarefa de aprendizado supervisionado. Exemplos de treinamento (ou seja, meta-exemplos) são gerados a partir de experimentos realizados com um conjunto de algoritmos candidatos em vários conjuntos de dados. Pode haver uma pequena disponibilidade de conjuntos de dados reais 
    em alguns domínios, o que torna difícil gerar bons meta-exemplos. Portanto, confiar em conjuntos de dados sintéticos pode ser uma boa alternativa para gerar meta-exemplos. No entanto, não é garantido que todos os conjuntos de dados sintéticos sejam relevantes e representativos em comparação com os conjuntos de dados reais. Desta forma, o uso indiscriminado de muitos 
    conjuntos de dados sintéticos aumenta o custo computacional da realização de experimentos sem melhorar significativamente a precisão do meta-aprendizado. Nesta tese, lidamos com a seleção de conjuntos de dados sintéticos para meta-aprendizagem como um problema de classificação de uma classe (OCC). Em OCC, os classificadores são construídos assumindo a disponibilidade de exemplos de treinamento pertencentes a uma classe única de interesse (ou seja, a classe positiva), enquanto os rótulos de classe dos outros exemplos são desconhecidos. Na solução proposta, técnicas de OCC são utilizadas para selecionar os conjuntos de dados sintéticos mais 
    relevantes (a classe desconhecida), considerando os conjuntos de dados reais (a classe positiva) disponíveis. Também conduzimos experimentos em dois estudos de caso, nos quais empregamos dois procedimentos diferentes de manipulação de dados para produzir conjuntos de dados sintéticos e duas técnicas de OCC para seleção de conjuntos de dados. Os resultados demonstraram que é possível usar um número reduzido de conjuntos de dados sintéticos selecionados, mantendo um bom desempenho de meta-aprendizagem.

2
  • WAGNER JORGE FIRMINO DA SILVA
  • Métodos de Aprendizagem Estatística para Dados Simbólicos Poligonais

  • Orientador : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBROS DA BANCA :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • BRUNO ALMEIDA PIMENTEL
  • GETULIO JOSE AMORIM DO AMARAL
  • LEANDRO CARLOS DE SOUZA
  • TELMO DE MENEZES E SILVA FILHO
  • Data: 14/02/2022

  • Mostrar Resumo
  • Ciência de Dados é um campo que diz respeito à análise e extração de conhecimento e informações valiosas de dados estruturados e não estruturados. A Análise de Dados Simbólicos fornece uma estrutura que fornece respostas para dados grandes e complexos. Nesta tese, propomos ferramentas para manipulação e extração de conhecimento em dados simbólicos poligonais, um tipo de dado simbólico multivalorado. Dessa forma, modelos bivariados poligonais são discutidos a partir de um caso especial desses modelos para dados intervalares. O modelo bivariado é menos sensível na presença de valores discrepantes de intervalo. Além disso, desenvolvemos um cluster dinâmico considerando a distância de Hausdorff para dados poligonais, onde os protótipos são obtidos a partir de uma solução analítica independente do número de lados. Outra contribuição desta tese é a criação de um pacote na linguagem R, chamado psda para análise de dados simbólicos poligonais. Este pacote fornece ferramentas que permitem agregação de dados por classes, representação de dados no centro e raio do polígono, análise descritiva e modelagem de dados poligonais. Para ilustrar a aplicabilidade do modelo, algoritmo de clusterização e do pacote, alguns exemplos são exibidos.


  • Mostrar Abstract
  • Ciência de Dados é um campo que diz respeito à análise e extração de conhecimento e informações valiosas de dados estruturados e não estruturados. A Análise de Dados Simbólicos fornece uma estrutura que fornece respostas para dados grandes e complexos. Nesta tese, propomos ferramentas para manipulação e extração de conhecimento em dados simbólicos poligonais, um tipo de dado simbólico multivalorado. Dessa forma, modelos bivariados poligonais são discutidos a partir de um caso especial desses modelos para dados intervalares. O modelo bivariado é menos sensível na presença de valores discrepantes de intervalo. Além disso, desenvolvemos um cluster dinâmico considerando a distância de Hausdorff para dados poligonais, onde os protótipos são obtidos a partir de uma solução analítica independente do número de lados. Outra contribuição desta tese é a criação de um pacote na linguagem R, chamado psda para análise de dados simbólicos poligonais. Este pacote fornece ferramentas que permitem agregação de dados por classes, representação de dados no centro e raio do polígono, análise descritiva e modelagem de dados poligonais. Para ilustrar a aplicabilidade do modelo, algoritmo de clusterização e do pacote, alguns exemplos são exibidos.

3
  • DOMINGOS SÁVIO DE OLIVEIRA SANTOS JÚNIOR
  • Método de Ensemble para correção de modelos ARIMA: uma abordagem de sistema híbrido para previsão de séries temporais

  • Orientador : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBROS DA BANCA :
  • MANOEL HENRIQUE DA NÓBREGA MARINHO
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • HUGO VALADARES SIQUEIRA
  • PAULO RENATO ALVES FIRMINO
  • RICARDO BASTOS CAVALCANTE PRUDENCIO
  • Data: 17/02/2022

  • Mostrar Resumo
  • Nas últimas décadas Sistemas Híbridos (SH) que utilizam a modelagem residual têm sido
    amplamente aplicados no contexto de previsão de séries temporais. Esta abordagem utiliza
    como previsão final a combinação da previsão de um modelo linear com a previsão do resíduo obtida por um modelo de Aprendizagem de Máquina (AM) não linear. Essa série de resíduo representa a diferença entre a previsão linear e valor real da série temporal. Uma vez que normalmente são encontrados padrões lineares e não lineares em séries temporais reais, esta classe de SH tem alcançado resultados empíricos e teóricos promissores em razão da sua arquitetura ser capaz de modelar esses padrões em etapas especificas. Contudo, são identificadas limitações na etapa de modelagem residual, sendo que por conta de sua complexidade, um modelo de AM pode apresentar problemas de má especificação de parâmetros, sobre ajuste e sub ajuste, prejudicando os resultados de todo SH. Baseado neste problema, este trabalho propõe um método de ensemble para previsão residual (Ensemble method for Residual Forecast (ERF)). O método ERF é composto por três fases gerais: (i) previsão da série temporal por meio de um modelo linear; (ii) previsão do erro realizada por um ensemble; (iii) combinação pela soma das previsões das fases (i) e (ii). A fase (ii) é a principal contribuição desta tese, na qual é proposta uma abordagem homogênea que cria um ensemble de modelos de AM diverso e de forma sistemática. O ARIMA é utilizado como modelo linear, já como modelo não linear são avaliados o MLP e SVR. Desta forma, são obtidas duas versões do método proposto: ERFMLP e ERFSVR. Essas versões são aplicadas em doze séries temporais reais com os respectivos modelos simples (ARIMA, MLP e SVR) e sete sistemas híbridos da literatura. Todos os métodos são avaliados por meio da métrica Raiz do Erro Quadrático Médio e testes estatísticos de Wilcoxon, Friedman e Nemenyi. Com base nessas formas de avaliação, visualiza-se que as abordagens propostas possuem a capacidade de encontrar bons resultados quando aplicadas em diferentes séries temporais.


  • Mostrar Abstract
  • Nas últimas décadas Sistemas Híbridos (SH) que utilizam a modelagem residual têm sido
    amplamente aplicados no contexto de previsão de séries temporais. Esta abordagem utiliza
    como previsão final a combinação da previsão de um modelo linear com a previsão do resíduo obtida por um modelo de Aprendizagem de Máquina (AM) não linear. Essa série de resíduo representa a diferença entre a previsão linear e valor real da série temporal. Uma vez que normalmente são encontrados padrões lineares e não lineares em séries temporais reais, esta classe de SH tem alcançado resultados empíricos e teóricos promissores em razão da sua arquitetura ser capaz de modelar esses padrões em etapas especificas. Contudo, são identificadas limitações na etapa de modelagem residual, sendo que por conta de sua complexidade, um modelo de AM pode apresentar problemas de má especificação de parâmetros, sobre ajuste e sub ajuste, prejudicando os resultados de todo SH. Baseado neste problema, este trabalho propõe um método de ensemble para previsão residual (Ensemble method for Residual Forecast (ERF)). O método ERF é composto por três fases gerais: (i) previsão da série temporal por meio de um modelo linear; (ii) previsão do erro realizada por um ensemble; (iii) combinação pela soma das previsões das fases (i) e (ii). A fase (ii) é a principal contribuição desta tese, na qual é proposta uma abordagem homogênea que cria um ensemble de modelos de AM diverso e de forma sistemática. O ARIMA é utilizado como modelo linear, já como modelo não linear são avaliados o MLP e SVR. Desta forma, são obtidas duas versões do método proposto: ERFMLP e ERFSVR. Essas versões são aplicadas em doze séries temporais reais com os respectivos modelos simples (ARIMA, MLP e SVR) e sete sistemas híbridos da literatura. Todos os métodos são avaliados por meio da métrica Raiz do Erro Quadrático Médio e testes estatísticos de Wilcoxon, Friedman e Nemenyi. Com base nessas formas de avaliação, visualiza-se que as abordagens propostas possuem a capacidade de encontrar bons resultados quando aplicadas em diferentes séries temporais.

4
  • JOSE GUEDES DOS SANTOS JUNIOR
  • Método Robusto à Oclusão para Rastreamento 6-DOF de Objetos em 
    Imagens RGB-D com Otimização por Enxame de Partículas

  • Orientador : VERONICA TEICHRIEB
  • MEMBROS DA BANCA :
  • JOAO PAULO PAPA
  • CLÁUDIO ROSITO JUNG
  • CLEBER ZANCHETTIN
  • PERICLES BARBOSA CUNHA DE MIRANDA
  • SILVIO DE BARROS MELO
  • Data: 17/02/2022

  • Mostrar Resumo
  • Rastreadores visuais podem ser usados para determinar a trajetória de 
    objetos 3D rígidos com 6 graus de liberdade em tempo real. Essa 
    funcionalidade é necessária para vários tipos de aplicações, como em 
    realidade aumentada ou robótica, e sua eficiência muitas vezes está 
    relacionada com a acurácia, a robustez a falha e o desempenho de tempo 
    desses rastreadores. Nos últimos anos, vários trabalhos contribuíram para a 
    melhoria dessas técnicas, apresentando métodos com boa acurácia que são 
    executados em tempo real, dentre os quais se destacam aqueles baseados em 
    otimização, baseados em aprendizagem e híbridos, ou seja, que utilizam 
    otimização e aprendizagem de forma cooperativa. Neste contexto, o presente 
    trabalho propõe melhorias no rastreamento com 6 graus de liberdade de 
    objetos 3D arbitrários que usa otimização por enxame de partículas. Dentre 
    elas, destacam-se: o aperfeiçoamento da função de aptidão usando média 
    harmônica das coordenadas 3D, cor e normais dos pontos; a seleção dinâmica 
    da região de interesse na nuvem de pontos da cena; a filtragem dos pontos 
    visíveis do modelo considerando a auto-oclusão e a oclusão por outros 
    objetos da cena; o cálculo das fronteiras do subespaço de soluções em tempo 
    de execução, observando a inércia do objeto alvo; a filtragem de poses em 
    tempo de execução a partir da trajetória encontrada; e a implementação da 
    otimização por enxame de partículas completamente em GPU. Experimentos 
    mostraram que tais mudanças possibilitaram melhorias na robustez a falhas, 
    na acurácia e no desempenho de tempo da técnica. Quando comparado com 
    métodos presentes no estado da arte, o rastreador proposto nessa proposta 
    de tese foi, em média, 19,3% e 16,3% mais acurado em relação aos erros de 
    translação e rotação, respectivamente, e apresentou um número de falhas 
    78,4% menor. O rastreador proposto ainda foi de 5 a 7 vezes mais rápido que 
    uma técnica existente baseada em otimização por enxame de partículas.


  • Mostrar Abstract
  • Rastreadores visuais podem ser usados para determinar a trajetória de 
    objetos 3D rígidos com 6 graus de liberdade em tempo real. Essa 
    funcionalidade é necessária para vários tipos de aplicações, como em 
    realidade aumentada ou robótica, e sua eficiência muitas vezes está 
    relacionada com a acurácia, a robustez a falha e o desempenho de tempo 
    desses rastreadores. Nos últimos anos, vários trabalhos contribuíram para a 
    melhoria dessas técnicas, apresentando métodos com boa acurácia que são 
    executados em tempo real, dentre os quais se destacam aqueles baseados em 
    otimização, baseados em aprendizagem e híbridos, ou seja, que utilizam 
    otimização e aprendizagem de forma cooperativa. Neste contexto, o presente 
    trabalho propõe melhorias no rastreamento com 6 graus de liberdade de 
    objetos 3D arbitrários que usa otimização por enxame de partículas. Dentre 
    elas, destacam-se: o aperfeiçoamento da função de aptidão usando média 
    harmônica das coordenadas 3D, cor e normais dos pontos; a seleção dinâmica 
    da região de interesse na nuvem de pontos da cena; a filtragem dos pontos 
    visíveis do modelo considerando a auto-oclusão e a oclusão por outros 
    objetos da cena; o cálculo das fronteiras do subespaço de soluções em tempo 
    de execução, observando a inércia do objeto alvo; a filtragem de poses em 
    tempo de execução a partir da trajetória encontrada; e a implementação da 
    otimização por enxame de partículas completamente em GPU. Experimentos 
    mostraram que tais mudanças possibilitaram melhorias na robustez a falhas, 
    na acurácia e no desempenho de tempo da técnica. Quando comparado com 
    métodos presentes no estado da arte, o rastreador proposto nessa proposta 
    de tese foi, em média, 19,3% e 16,3% mais acurado em relação aos erros de 
    translação e rotação, respectivamente, e apresentou um número de falhas 
    78,4% menor. O rastreador proposto ainda foi de 5 a 7 vezes mais rápido que 
    uma técnica existente baseada em otimização por enxame de partículas.

5
  • MARCIO ROBERIO DA COSTA FERRO
  • AStar: A Modeling Language for Document-oriented Geospatial Data Warehouses

  • Orientador : ROBSON DO NASCIMENTO FIDALGO
  • MEMBROS DA BANCA :
  • VÍTOR ESTEVÃO SILVA SOUZA
  • ANA CAROLINA BRANDAO SALGADO
  • CLAUDIO DE SOUZA BAPTISTA
  • LUCIANO DE ANDRADE BARBOSA
  • VINICIUS CARDOSO GARCIA
  • Data: 18/02/2022

  • Mostrar Resumo
  • Um Data Warehouse Geoespacial (DWG) é uma extensão de um Data Warehouse tradicional que inclui dados geoespaciais nos processos de tomada de decisão. Diversos estudos propõem o uso de bancos de dados orientados a documentos em um DWG como alternativa aos bancos de dados relacionais. Isso se deve à capacidade dos bancos de dados não relacionais de escalar horizontalmente, permitindo o armazenamento e o processamento de grandes volumes de dados. Nesse contexto, modelar por meio da análise visual a maneira como fatos e dimensões estão estruturados é importante para entender, manter e evoluir o DWG Orientado a Documentos (DWGD). No entanto, até onde sabemos, não há linguagens de modelagem conhecidas que suportem o design de fatos e dimensões como documentos referenciados (normalizados) ou embutidos (desnormalizados), particionados em uma ou mais coleções. Para superar essa lacuna, propomos Aggregate Star (AStar), uma linguagem de modelagem específica de domínio para projetar esquemas lógicos de DWGD. AStar é definida por uma sintaxe concreta (notação gráfica), uma sintaxe abstrata (metamodelo) e semântica estática (regras de boa formação). Para descrever a semântica dos conceitos definidos em AStar, semântica translacional é usada para mapear a notação gráfica para o metamodelo e o respectivo código que define o esquema no MongoDB (usando JSON Schema). Avaliamos a notação gráfica usando \textit{Physics of Notations} (PoN), que fornece um conjunto de princípios para projetar notações visuais cognitivamente eficazes. Essa avaliação revelou que AStar está de acordo com oito dos nove Princípios PoN, um nível adequado de eficácia cognitiva. Como prova de conceito, o metamodelo e as regras de boa formação foram implementados em um protótipo de ferramenta de Engenharia de Software Assistida por Computador, denominado AStarCASE. Nesta versão atual, AStarCASE pode ser usada para projetar esquemas lógicos de DWGD e gerar seu código correspondente na forma de esquemas JSON. Além disso, apresentamos uma guia que mostra como projetar esquemas que possuem fatos, dimensões convencionais e dimensões geoespaciais relacionadas como documentos referenciados ou incorporados, particionados em uma ou mais coleções. O guia também apresenta boas práticas para obter baixo volume de dados e baixo tempo de execução de consulta em um DWGD.


  • Mostrar Abstract
  • Um Data Warehouse Geoespacial (DWG) é uma extensão de um Data Warehouse tradicional que inclui dados geoespaciais nos processos de tomada de decisão. Diversos estudos propõem o uso de bancos de dados orientados a documentos em um DWG como alternativa aos bancos de dados relacionais. Isso se deve à capacidade dos bancos de dados não relacionais de escalar horizontalmente, permitindo o armazenamento e o processamento de grandes volumes de dados. Nesse contexto, modelar por meio da análise visual a maneira como fatos e dimensões estão estruturados é importante para entender, manter e evoluir o DWG Orientado a Documentos (DWGD). No entanto, até onde sabemos, não há linguagens de modelagem conhecidas que suportem o design de fatos e dimensões como documentos referenciados (normalizados) ou embutidos (desnormalizados), particionados em uma ou mais coleções. Para superar essa lacuna, propomos Aggregate Star (AStar), uma linguagem de modelagem específica de domínio para projetar esquemas lógicos de DWGD. AStar é definida por uma sintaxe concreta (notação gráfica), uma sintaxe abstrata (metamodelo) e semântica estática (regras de boa formação). Para descrever a semântica dos conceitos definidos em AStar, semântica translacional é usada para mapear a notação gráfica para o metamodelo e o respectivo código que define o esquema no MongoDB (usando JSON Schema). Avaliamos a notação gráfica usando \textit{Physics of Notations} (PoN), que fornece um conjunto de princípios para projetar notações visuais cognitivamente eficazes. Essa avaliação revelou que AStar está de acordo com oito dos nove Princípios PoN, um nível adequado de eficácia cognitiva. Como prova de conceito, o metamodelo e as regras de boa formação foram implementados em um protótipo de ferramenta de Engenharia de Software Assistida por Computador, denominado AStarCASE. Nesta versão atual, AStarCASE pode ser usada para projetar esquemas lógicos de DWGD e gerar seu código correspondente na forma de esquemas JSON. Além disso, apresentamos uma guia que mostra como projetar esquemas que possuem fatos, dimensões convencionais e dimensões geoespaciais relacionadas como documentos referenciados ou incorporados, particionados em uma ou mais coleções. O guia também apresenta boas práticas para obter baixo volume de dados e baixo tempo de execução de consulta em um DWGD.

6
  • SARA INES RIZO RODRIGUEZ
  • Clustering algorithms with new automatic variables weighting

  • Orientador : FRANCISCO DE ASSIS TENORIO DE CARVALHO
  • MEMBROS DA BANCA :
  • VINICIUS LAYTER XAVIER
  • CLEBER ZANCHETTIN
  • HELOISA DE ARRUDA CAMARGO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • TSANG ING REN
  • Data: 21/02/2022

  • Mostrar Resumo
  • Todos os dias, uma grande quantidade de informações é armazenada ou representada como dados para posterior análise e gerenciamento. A análise de dados desempenha um papel indispensável na compreensão de diferentes fenômenos. Um dos meios vitais de lidar com esses dados é classificá-los ou agrupá-los em um conjunto de categorias ou grupos. O agrupamento ou análise de agrupamento visa dividir uma coleção de itens de dados em grupos, dada uma medida de similaridade. O agrupamento tem sido usado em vários campos, como processamento de imagens, mineração de dados, reconhecimento de padrões e análise estatística. Geralmente, os métodos de agrupamento lidam com objetos descritos por variáveis de valor real. No entanto, essa representação é muito restritiva para representar dados complexos, como listas, histogramas ou mesmo intervalos. Além disso, em alguns problemas, muitas dimensões são irrelevantes e podem mascarar os grupos existentes, por exemplo, os grupos podem existir em diferentes subconjuntos das variáveis. Este trabalho enfoca a análise de agrupamento de dados descritos por variáveis de valor real e de valor de intervalo. Nesse sentido, novos algoritmos de agrupamento de subespaço flexível foram propostos, nos quais a correlação e a relevância das variáveis são consideradas para melhorar o desempenho. No caso de dados com valor de intervalo, assumimos que a importância dos limites das variáveis com valor de intervalo pode ser a mesma ou pode ser diferente para o processo de agrupamento. Como os métodos baseados em regularização são robustos à inicializações, as abordagens propostas introduzem um termo de regularização para controlar o grau de pertinência dos objetos aos grupos. Essas regularizações são populares devido ao alto desempenho no agrupamento de dados em grande escala e baixa complexidade computacional. Esses algoritmos iterativos de três etapas fornecem uma partição difusa, um representante para cada grupo, e o peso de relevância das variáveis ou sua correlação, minimizando uma função objetivo adequada. Experimentos com conjuntos de dados sintéticos e reais corroboram a robustez e utilidade dos métodos de agrupamento propostos.


  • Mostrar Abstract
  • Todos os dias, uma grande quantidade de informações é armazenada ou representada como dados para posterior análise e gerenciamento. A análise de dados desempenha um papel indispensável na compreensão de diferentes fenômenos. Um dos meios vitais de lidar com esses dados é classificá-los ou agrupá-los em um conjunto de categorias ou grupos. O agrupamento ou análise de agrupamento visa dividir uma coleção de itens de dados em grupos, dada uma medida de similaridade. O agrupamento tem sido usado em vários campos, como processamento de imagens, mineração de dados, reconhecimento de padrões e análise estatística. Geralmente, os métodos de agrupamento lidam com objetos descritos por variáveis de valor real. No entanto, essa representação é muito restritiva para representar dados complexos, como listas, histogramas ou mesmo intervalos. Além disso, em alguns problemas, muitas dimensões são irrelevantes e podem mascarar os grupos existentes, por exemplo, os grupos podem existir em diferentes subconjuntos das variáveis. Este trabalho enfoca a análise de agrupamento de dados descritos por variáveis de valor real e de valor de intervalo. Nesse sentido, novos algoritmos de agrupamento de subespaço flexível foram propostos, nos quais a correlação e a relevância das variáveis são consideradas para melhorar o desempenho. No caso de dados com valor de intervalo, assumimos que a importância dos limites das variáveis com valor de intervalo pode ser a mesma ou pode ser diferente para o processo de agrupamento. Como os métodos baseados em regularização são robustos à inicializações, as abordagens propostas introduzem um termo de regularização para controlar o grau de pertinência dos objetos aos grupos. Essas regularizações são populares devido ao alto desempenho no agrupamento de dados em grande escala e baixa complexidade computacional. Esses algoritmos iterativos de três etapas fornecem uma partição difusa, um representante para cada grupo, e o peso de relevância das variáveis ou sua correlação, minimizando uma função objetivo adequada. Experimentos com conjuntos de dados sintéticos e reais corroboram a robustez e utilidade dos métodos de agrupamento propostos.

7
  • DAILYS MAITE ALIAGA REYES
  • Predição para Dados Simbólicos Multi-valorados de Tipo Quartis: 
    Caso Especial Dados Representados por Boxplots

  • Orientador : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBROS DA BANCA :
  • FRANCISCO CRIBARI NETO
  • LEANDRO CARLOS DE SOUZA
  • NIVAN ROBERTO FERREIRA JUNIOR
  • PAULO SALGADO GOMES DE MATTOS NETO
  • TELMO DE MENEZES E SILVA FILHO
  • Data: 23/02/2022

  • Mostrar Resumo
  • Um dado simbólico de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 pode ser considerado como um caso particular das
    variáveis numéricas multi-valoradas no contexto da Análises de Dados Simbólicos (ADS). Este tipo de dado tem uma estrutura simples que permite resumir informações de unidades agregadas, chamadas de classes. No entanto, esse tipo de estrutura tem sido pouco explorada na literatura de ADS. Este trabalho apresenta duas novas abordagens de predição com o objetivo de extrair conhecimento e fazer inferência usando dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A primeira abordagem considera um modelo de regressão para 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 através da equação paramétrica da reta. Esta parametrização permite o ajuste dos pontos nas variáveis regressoras que permite melhorar a qualidade da variável resposta. Nessa direção, um critério é também proposto para verificar a coerência matemática da predição. Se a coerência não é garantida, uma nova estratégia, através de transformações 𝐵𝑜𝑥 −𝐶𝑜𝑥 é aplicada sobre a variável resposta de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A segunda abordagem proposta nesse trabalho consiste de um modelo que combina agregação, seleção de protótipos e previsão de series temporais. Inicialmente, as séries temporais são agregadas em classes de entidades e representadas por 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠. Um processo de seleção de protótipos baseado na informação mútua é aplicado para mitigar ruídos no conjunto de dados. Por último, um modelo multivariado para previsão de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠 é construído. Ambos modelos são avaliados com conjuntos de dados sintéticos e reais. Uma comparação entre as
    abordagens propostas e outros métodos de predição da literatura de ADS é também descrita. Além disso, este trabalho apresenta uma aplicação do mundo real no Setor Elétrico Brasileiro para fazer predição da temperatura dos motores usando a abordagem de regressão paramétrica para dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡.


  • Mostrar Abstract
  • Um dado simbólico de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 pode ser considerado como um caso particular das
    variáveis numéricas multi-valoradas no contexto da Análises de Dados Simbólicos (ADS). Este tipo de dado tem uma estrutura simples que permite resumir informações de unidades agregadas, chamadas de classes. No entanto, esse tipo de estrutura tem sido pouco explorada na literatura de ADS. Este trabalho apresenta duas novas abordagens de predição com o objetivo de extrair conhecimento e fazer inferência usando dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A primeira abordagem considera um modelo de regressão para 𝑏𝑜𝑥𝑝𝑙𝑜𝑡 através da equação paramétrica da reta. Esta parametrização permite o ajuste dos pontos nas variáveis regressoras que permite melhorar a qualidade da variável resposta. Nessa direção, um critério é também proposto para verificar a coerência matemática da predição. Se a coerência não é garantida, uma nova estratégia, através de transformações 𝐵𝑜𝑥 −𝐶𝑜𝑥 é aplicada sobre a variável resposta de tipo 𝑏𝑜𝑥𝑝𝑙𝑜𝑡. A segunda abordagem proposta nesse trabalho consiste de um modelo que combina agregação, seleção de protótipos e previsão de series temporais. Inicialmente, as séries temporais são agregadas em classes de entidades e representadas por 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠. Um processo de seleção de protótipos baseado na informação mútua é aplicado para mitigar ruídos no conjunto de dados. Por último, um modelo multivariado para previsão de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡𝑠 é construído. Ambos modelos são avaliados com conjuntos de dados sintéticos e reais. Uma comparação entre as
    abordagens propostas e outros métodos de predição da literatura de ADS é também descrita. Além disso, este trabalho apresenta uma aplicação do mundo real no Setor Elétrico Brasileiro para fazer predição da temperatura dos motores usando a abordagem de regressão paramétrica para dados de 𝑏𝑜𝑥𝑝𝑙𝑜𝑡.

8
  • ALYSSON BISPO PEREIRA
  • FILTRAGEM ROBUSTA DE RUÍDO DE RÓTULO PARA PREVISÃO DE DEFEITOS DE 
    SOFTWARE

  • Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBROS DA BANCA :
  • ANA CAROLINA LORENA
  • ALEXANDRE CABRAL MOTA
  • ANNE MAGALY DE PAULA CANUTO
  • CLEBER ZANCHETTIN
  • LUCIANO DE ANDRADE BARBOSA
  • Data: 23/02/2022

  • Mostrar Resumo
  • Várias métricas de software e métodos estatísticos foram desenvolvidos para 
    ajudar as empresas a prever defeitos de software. Tradicionalmente, para 
    garantir a qualidade do software, o código-fonte pode ser inspecionado 
    estaticamente por processos de revisão de código ou mesmo avaliado por meio 
    da execução de testes por meio da execução do software. Por outro lado, os 
    métodos de aprendizado de máquina foram treinados usando conjuntos de dados 
    rotulados com base nas alterações de código e bugs relatados. Estudos 
    anteriores demonstraram que esses conjuntos de dados são geralmente 
    barulhentos devido a bugs não relatados ou devido a inconsistências nos 
    relatórios de bug. Nesses casos, muitas instâncias de treinamento são 
    atribuídas ao rótulo de classe errado. Como em qualquer outro contexto de 
    aprendizado de máquina, o desempenho de um preditor de defeito depende de 
    um conjunto de dados de treinamento confiável. Assim, evitar o uso de 
    instâncias ruidosas na fase de treinamento pode ser crucial. As abordagens 
    usadas até agora para detectar ruídos não consideraram métodos tradicionais 
    de garantia de qualidade de software, como revisão de código. Neste artigo, 
    propomos Robust Label Noise Filtering (RLNF) para aplicar técnicas de 
    detecção de ruído de rótulo para identificar defeitos de software não 
    relatados, identificando artefatos de software rotulados como livres de 
    defeitos quando na verdade possuem defeitos ainda não encontrados pelos 
    usuários finais. Para isso, estamos utilizando diferentes estratégias de 
    detecção de ruído de rótulo para reproduzir os mecanismos usados no 
    processo de revisão de código. Os experimentos foram realizados em um 
    conjunto de benchmarking de projetos de software, alcançando resultados 
    promissores.


  • Mostrar Abstract
  • Várias métricas de software e métodos estatísticos foram desenvolvidos para 
    ajudar as empresas a prever defeitos de software. Tradicionalmente, para 
    garantir a qualidade do software, o código-fonte pode ser inspecionado 
    estaticamente por processos de revisão de código ou mesmo avaliado por meio 
    da execução de testes por meio da execução do software. Por outro lado, os 
    métodos de aprendizado de máquina foram treinados usando conjuntos de dados 
    rotulados com base nas alterações de código e bugs relatados. Estudos 
    anteriores demonstraram que esses conjuntos de dados são geralmente 
    barulhentos devido a bugs não relatados ou devido a inconsistências nos 
    relatórios de bug. Nesses casos, muitas instâncias de treinamento são 
    atribuídas ao rótulo de classe errado. Como em qualquer outro contexto de 
    aprendizado de máquina, o desempenho de um preditor de defeito depende de 
    um conjunto de dados de treinamento confiável. Assim, evitar o uso de 
    instâncias ruidosas na fase de treinamento pode ser crucial. As abordagens 
    usadas até agora para detectar ruídos não consideraram métodos tradicionais 
    de garantia de qualidade de software, como revisão de código. Neste artigo, 
    propomos Robust Label Noise Filtering (RLNF) para aplicar técnicas de 
    detecção de ruído de rótulo para identificar defeitos de software não 
    relatados, identificando artefatos de software rotulados como livres de 
    defeitos quando na verdade possuem defeitos ainda não encontrados pelos 
    usuários finais. Para isso, estamos utilizando diferentes estratégias de 
    detecção de ruído de rótulo para reproduzir os mecanismos usados no 
    processo de revisão de código. Os experimentos foram realizados em um 
    conjunto de benchmarking de projetos de software, alcançando resultados 
    promissores.

9
  • GUSTAVO HENRIQUE FERREIRA DE MIRANDA OLIVEIRA
  • TACKLING VIRTUAL AND REAL CONCEPT DRIFTS VIA ADAPTIVE GAUSSIAN MIXTURE MODEL APPROACHES

  • Orientador : ADRIANO LORENA INACIO DE OLIVEIRA
  • MEMBROS DA BANCA :
  • LUIZ EDUARDO SOARES OLIVEIRA
  • JOAO GAMA
  • FRANCISCO DE ASSIS TENORIO DE CARVALHO
  • GEORGE DARMITON DA CUNHA CAVALCANTI
  • TERESA BERNARDA LUDERMIR
  • Data: 24/02/2022

  • Mostrar Resumo
  • As aplicações do mundo real têm lidado com uma grande quantidade de 
    informações, que chegam de forma contínua e sequencialmente ao longo do 
    tempo, caracterizadas como fluxos de dados. Esse tipo de dado desafia os 
    algoritmos de aprendizado de máquina devido à mudança de conceito. A 
    mudança de conceito é uma mudança na distribuição de probabilidade conjunta 
    do problema e tem duas variações: a mudança virtual que afeta a 
    distribuição de probabilidade incondicional p(x); e a mudança real que 
    afeta a distribuição de probabilidade condicional p(y|x). Essas mudanças 
    podem ocorrer separadamente e simultaneamente e ter impactos diferentes no 
    desempenho do classificador. Os trabalhos da literatura geralmente não 
    compreendem bem esses aspectos. Devido a isso, se concentram apenas nas 
    mudanças reais, por que elas causam degradação direta no desempenho do 
    classificador. No entanto, desvios virtuais também podem causar essa 
    degradação de forma indireta. Novas observações podem chegar em uma região 
    não treinada pelo classificador, forçando-o a confundir sua verdadeira 
    classe, assim cometendo erros de classificação. O ideal seria ter 
    classificadores que entendam que tipo de mudança ocorre em determinado 
    momento para ativar estratégias apropriadas para lidar com este desafio. 
    Este processo é chamado de entendimento da mudança. Como as abordagens da 
    literatura não compreendem bem os diferentes impactos causados pelas 
    mudanças virtuais e reais, o seu desempenho fica limitado. Motivados por 
    isso, propomos três abordagens para entender o tipo da mudança e usar a 
    estratégia correta para se adaptar, sendo elas: (i) (GMM-VRD) Gaussian 
    Mixture Model For Dealing With Virtual and Real Concept Drifts; (ii) 
    (OGMMF-VRD) On-line Gaussian Mixture Model With Noise Filter For Handling 
    Virtual And Real Concept Drifts ; e (iii) (GLDD-DU) Gaussian Local Drift 
    Detector for Drift Understanding. Essas abordagens atualizam e criam 
    Gaussians on-line para lidar com mudanças virtuais, usam detectores de 
    mudança para reinicializar o conhecimento do sistema para lidar com 
    mudanças reais e recuperam modelos do pool para acelerar a adaptação a um 
    novo conceito. Os principais resultados mostraram que todas as abordagens 
    apresentam desempenho competitivo, mas o OGMMF-VRD foi mais consistente ao 
    longo dos conjuntos de dados, apresentando melhor desempenho.


  • Mostrar Abstract
  • As aplicações do mundo real têm lidado com uma grande quantidade de 
    informações, que chegam de forma contínua e sequencialmente ao longo do 
    tempo, caracterizadas como fluxos de dados. Esse tipo de dado desafia os 
    algoritmos de aprendizado de máquina devido à mudança de conceito. A 
    mudança de conceito é uma mudança na distribuição de probabilidade conjunta 
    do problema e tem duas variações: a mudança virtual que afeta a 
    distribuição de probabilidade incondicional p(x); e a mudança real que 
    afeta a distribuição de probabilidade condicional p(y|x). Essas mudanças 
    podem ocorrer separadamente e simultaneamente e ter impactos diferentes no 
    desempenho do classificador. Os trabalhos da literatura geralmente não 
    compreendem bem esses aspectos. Devido a isso, se concentram apenas nas 
    mudanças reais, por que elas causam degradação direta no desempenho do 
    classificador. No entanto, desvios virtuais também podem causar essa 
    degradação de forma indireta. Novas observações podem chegar em uma região 
    não treinada pelo classificador, forçando-o a confundir sua verdadeira 
    classe, assim cometendo erros de classificação. O ideal seria ter 
    classificadores que entendam que tipo de mudança ocorre em determinado 
    momento para ativar estratégias apropriadas para lidar com este desafio. 
    Este processo é chamado de entendimento da mudança. Como as abordagens da 
    literatura não compreendem bem os diferentes impactos causados pelas 
    mudanças virtuais e reais, o seu desempenho fica limitado. Motivados por 
    isso, propomos três abordagens para entender o tipo da mudança e usar a 
    estratégia correta para se adaptar, sendo elas: (i) (GMM-VRD) Gaussian 
    Mixture Model For Dealing With Virtual and Real Concept Drifts; (ii) 
    (OGMMF-VRD) On-line Gaussian Mixture Model With Noise Filter For Handling 
    Virtual And Real Concept Drifts ; e (iii) (GLDD-DU) Gaussian Local Drift 
    Detector for Drift Understanding. Essas abordagens atualizam e criam 
    Gaussians on-line para lidar com mudanças virtuais, usam detectores de 
    mudança para reinicializar o conhecimento do sistema para lidar com 
    mudanças reais e recuperam modelos do pool para acelerar a adaptação a um 
    novo conceito. Os principais resultados mostraram que todas as abordagens 
    apresentam desempenho competitivo, mas o OGMMF-VRD foi mais consistente ao 
    longo dos conjuntos de dados, apresentando melhor desempenho.

10
  • LEUSON MARIO PEDRO DA SILVA
  • Detectando, Entendendo e Resolvendo Conflitos de Build e Teste

  • Orientador : PAULO HENRIQUE MONTEIRO BORBA
  • MEMBROS DA BANCA :
  • EVERTON LEANDRO GALDINO ALVES
  • MARCIO DE OLIVEIRA BARROS
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • MARCIO LOPES CORNELIO
  • RODRIGO BONIFACIO DE ALMEIDA
  • Data: 24/02/2022

  • Mostrar Resumo
  • Durante o desenvolvimento colaborativo de software, desenvolvedores geralmente adotam práticas de criação e integração (merge) de ramos de desenvolvimento quando trabalham em suas contribuições, permitindo que eles contribuam para um projeto de software independentemente. Apesar destes benefícios, estas práticas vem com um custo, a necessidade de integrar software e resolver conflitos de merge, que frequentemente ocorrem na prática. Enquanto técnicas modernas de merge, tais como merge estruturado ou 3-way, podem automaticamente resolver muitos destes conflitos, elas falham quando o conflito surge no nível semântico conhecidos como conflitos semânticos. Estes conflitos são revelados por falhas durante o processo de build e execução de testes do código integrado conhecidos como conflitos de build e teste, respectivamente. Detectar estes conflitos semânticos requer um entendimento do comportamento do software, o que está além da capacidade da maioria das ferramentas de integração de código e assistentes. Para resolver a necessidade de melhores ferramentas assistentes, nós investigamos a ocorrência de conflitos semânticos identificando suas causas e propondo ferramentas que possam apoiar os desenvolvedores quando eles enfrentam estes conflitos durante integrações de código em cenários de merge. Inicialmente, nós realizamos um estudo identificando a frequência, estrutura e padrões de resolução adotados em conflitos de build analisando empiricamente  451 projetos Java open-source. Como resultado, nós provemos um catálogo de conflitos com 239 ocorrências divididos em seis categorias. A maioria dos conflitos de build são causados por declarações não-resolvidas, removidas ou renomeadas por um desenvolvedor mas referenciadas por outra pessoa. Além disso, analisando alguns destes conflitos, nós também reportamos um catálogo de padrões de resolução. Por exemplo, conflitos causados por ações de renomeações são frequentemente resolvidas por meio da atualização da referência não-resolvida, enquanto que declarações removidas são frequentemente reintroduzidas. Ferramentas de reparo automático podem se beneficiar deste último catálogo para resolver conflitos automaticamente; nós ilustramos isto com uma implementação de prova de conceito de uma ferramenta que recomenda soluções para três categorias de conflitos de build. Para avaliar a ocorrência de conflitos de teste, nós adotamos uma abordagem diferente, pois estes conflitos envolvem a semântica de um programa. Consequentemente, eles não podem ser detectados durante a fase de compilação do processo de build. Desta forma, inicialmente, nós realizamos um segundo estudo investigando sua ocorrência, explorando a criação automática de testes unitários como especificações parciais para detectar conflitos. Baseando-se em um conjunto de dados de mais de 80 mudanças mútuas em elementos de classes de 51 cenários de merge com ground-truth, nós manualmente analisamos e investigamos se conflitos de teste existiam. Em seguida, nós exploramos sistematicamente a detecção de conflitos por meio de ferramentas de geração de testes, como também a adoção de Transformações de Testabilidade visando aumentas a testabilidade do código em análise. Como resultado, nós apresentamos um catálogo de 28 conflitos de testes, dos quais 9 foram detectados por nossa abordagem. Nossos resultados mostram que a melhor abordagem para detectar conflitos envolve a combinação das ferramentas Differential EvoSuite e EvoSuite aplicadas com Transformações de Testabilidade. Como contribuição final, nós apresentamos SAM, uma ferramenta de merge semântica baseada na geração de testes unitários, que avisa desenvolvedores sobre proeminentes conflitos em cenários de merge em andamento. No geral, nossos resultados se atentam a uma lacuna na literatura sobre a ocorrência de conflitos de integração de código semânticos durante o desenvolvimento de software. Baseado no tipo de conflito, nós investigamos suas causas e opções para lidar com eles. Enquanto conflitos de build podem ser detectados e solucionados por uma ferramenta de reparo automático, conflitos de teste poderiam ser detectados por uma ferramenta de merge semântica baseada na geração de testes unitários.


  • Mostrar Abstract
  • Durante o desenvolvimento colaborativo de software, desenvolvedores geralmente adotam práticas de criação e integração (merge) de ramos de desenvolvimento quando trabalham em suas contribuições, permitindo que eles contribuam para um projeto de software independentemente. Apesar destes benefícios, estas práticas vem com um custo, a necessidade de integrar software e resolver conflitos de merge, que frequentemente ocorrem na prática. Enquanto técnicas modernas de merge, tais como merge estruturado ou 3-way, podem automaticamente resolver muitos destes conflitos, elas falham quando o conflito surge no nível semântico conhecidos como conflitos semânticos. Estes conflitos são revelados por falhas durante o processo de build e execução de testes do código integrado conhecidos como conflitos de build e teste, respectivamente. Detectar estes conflitos semânticos requer um entendimento do comportamento do software, o que está além da capacidade da maioria das ferramentas de integração de código e assistentes. Para resolver a necessidade de melhores ferramentas assistentes, nós investigamos a ocorrência de conflitos semânticos identificando suas causas e propondo ferramentas que possam apoiar os desenvolvedores quando eles enfrentam estes conflitos durante integrações de código em cenários de merge. Inicialmente, nós realizamos um estudo identificando a frequência, estrutura e padrões de resolução adotados em conflitos de build analisando empiricamente  451 projetos Java open-source. Como resultado, nós provemos um catálogo de conflitos com 239 ocorrências divididos em seis categorias. A maioria dos conflitos de build são causados por declarações não-resolvidas, removidas ou renomeadas por um desenvolvedor mas referenciadas por outra pessoa. Além disso, analisando alguns destes conflitos, nós também reportamos um catálogo de padrões de resolução. Por exemplo, conflitos causados por ações de renomeações são frequentemente resolvidas por meio da atualização da referência não-resolvida, enquanto que declarações removidas são frequentemente reintroduzidas. Ferramentas de reparo automático podem se beneficiar deste último catálogo para resolver conflitos automaticamente; nós ilustramos isto com uma implementação de prova de conceito de uma ferramenta que recomenda soluções para três categorias de conflitos de build. Para avaliar a ocorrência de conflitos de teste, nós adotamos uma abordagem diferente, pois estes conflitos envolvem a semântica de um programa. Consequentemente, eles não podem ser detectados durante a fase de compilação do processo de build. Desta forma, inicialmente, nós realizamos um segundo estudo investigando sua ocorrência, explorando a criação automática de testes unitários como especificações parciais para detectar conflitos. Baseando-se em um conjunto de dados de mais de 80 mudanças mútuas em elementos de classes de 51 cenários de merge com ground-truth, nós manualmente analisamos e investigamos se conflitos de teste existiam. Em seguida, nós exploramos sistematicamente a detecção de conflitos por meio de ferramentas de geração de testes, como também a adoção de Transformações de Testabilidade visando aumentas a testabilidade do código em análise. Como resultado, nós apresentamos um catálogo de 28 conflitos de testes, dos quais 9 foram detectados por nossa abordagem. Nossos resultados mostram que a melhor abordagem para detectar conflitos envolve a combinação das ferramentas Differential EvoSuite e EvoSuite aplicadas com Transformações de Testabilidade. Como contribuição final, nós apresentamos SAM, uma ferramenta de merge semântica baseada na geração de testes unitários, que avisa desenvolvedores sobre proeminentes conflitos em cenários de merge em andamento. No geral, nossos resultados se atentam a uma lacuna na literatura sobre a ocorrência de conflitos de integração de código semânticos durante o desenvolvimento de software. Baseado no tipo de conflito, nós investigamos suas causas e opções para lidar com eles. Enquanto conflitos de build podem ser detectados e solucionados por uma ferramenta de reparo automático, conflitos de teste poderiam ser detectados por uma ferramenta de merge semântica baseada na geração de testes unitários.

11
  • MANOELA MILENA OLIVEIRA DA SILVA
  • Desenvolvimento de Princípios de Design para Autoria de Realidade Aumentada na Educação com Base na Perspectiva Docente

  • Orientador : VERONICA TEICHRIEB
  • MEMBROS DA BANCA :
  • CREDINE SILVA DE MENEZES
  • APUENA VIEIRA GOMES
  • GIORDANO RIBEIRO EULALIO CABRAL
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • ROMERO TORI
  • Data: 04/03/2022

  • Mostrar Resumo
  • Realidade Aumentada (RA) tem um impacto positivo na motivação e no desempenho cognitivo dos alunos de várias idades e em diferentes contextos. Porém, seu uso ainda está longe de ser difundido na educação. Poucas ferramentas de autoria de RA disponíveis são pensadas do ponto de vista educacional, o que evidencia a necessidade de novas pesquisas sobre ferramentas de autoria para a criação de atividades de RA. Assim, este trabalho investiga quais características são importantes na autoria de RA para a educação. Através da pesquisa baseada em design, com a participação de uma equipe interdisciplinar para investigar e propor princípios de design para autoria educacional de RA, buscamos identificar como os professores gostariam de criar experiências de RA com base em suas necessidades pedagógicas. Nosso estudo desenvolveu-se em quatro etapas: (1) análise dos problemas de RA a partir da literatura e práticos por pesquisadores e profissionais em colaboração, (2) desenvolvimento de soluções a partir de princípios de design existentes e inovações tecnológicas advindos da etapa 1, (3) ciclos iterativos de teste e refinamento das soluções identificadas na prática, e (4) desenvolvimento dos princípios de design para autoria docente de RA. Na etapa 1, realizamos entrevistas com 15 professores que usavam tecnologia; 7 professores e 2 coordenadores que utilizaram RA juntamente com uma pesquisa com 106 professores de contextos variados. Essa etapa também abrangeu a revisão da literatura. Embora os professores pareçam interessados e ávidos por aprender sobre RA, seu uso ainda não atingiu níveis mais elevados de maturidade nas escolas. Diferentes aspectos estão relacionados a isso, como falta de infraestrutura, ferramentas de autoria e tempo. Observamos a necessidade de ferramentas de RA para apoiar a colaboração, a criatividade por meio da criação de conteúdo e a capacidade de avaliar os alunos de maneiras mais flexíveis. A partir dos resultados iniciais, definimos um estudo de caso focado na aprendizagem de línguas para crianças e adolescentes. A etapa 2 consistiu em uma série de sessões interativas com um grupo interdisciplinar a fim de mapear os problemas, esboçar as soluções possíveis e decidir aquela a ser prototipada e testada. Na etapa 3, uma ferramenta de RA, Virtual Playground, que permite a criação de narrativas aumentadas de forma colaborativa, bem como sua ferramenta de autoria foi concebida, prototipada e testada com os usuários por meio de uma série de interações e ciclos iterativos de teste e refinamento de soluções. A primeira e a segunda rodada de testes foram realizadas com 5 e 6 professores de inglês com experiência prévia em RA, respectivamente. Os principais problemas relacionaram-se à limitada biblioteca 3D e à falta de possibilidades de criação. Os resultados foram usados para melhorar a UI e UX dos protótipos. Também analisamos ferramentas de autoria de RA que não exigem programação. Boa parte delas carecem de recursos importantes para os professores, especificamente os pedagógicos. Finalmente, na etapa 4, através da reflexão sobre os resultados das etapas anteriores, desenvolvemos princípios de design e aprimoramos a implementação da solução. O principal resultado deste estudo são 11 princípios de design identificados e divididos em três aspectos: infraestrutura, realidade aumentada e pedagogia. Esses princípios foram validados durante a segunda rodada de testes. O protótipo da ferramenta de autoria de RA foi baseado em sete dos princípios de design identificados e apresenta as seguintes características: é flexível e permite que os professores criem planos de aula diferentes, bem como trabalhem com diferentes habilidades e competências.


  • Mostrar Abstract
  • Realidade Aumentada (RA) tem um impacto positivo na motivação e no desempenho cognitivo dos alunos de várias idades e em diferentes contextos. Porém, seu uso ainda está longe de ser difundido na educação. Poucas ferramentas de autoria de RA disponíveis são pensadas do ponto de vista educacional, o que evidencia a necessidade de novas pesquisas sobre ferramentas de autoria para a criação de atividades de RA. Assim, este trabalho investiga quais características são importantes na autoria de RA para a educação. Através da pesquisa baseada em design, com a participação de uma equipe interdisciplinar para investigar e propor princípios de design para autoria educacional de RA, buscamos identificar como os professores gostariam de criar experiências de RA com base em suas necessidades pedagógicas. Nosso estudo desenvolveu-se em quatro etapas: (1) análise dos problemas de RA a partir da literatura e práticos por pesquisadores e profissionais em colaboração, (2) desenvolvimento de soluções a partir de princípios de design existentes e inovações tecnológicas advindos da etapa 1, (3) ciclos iterativos de teste e refinamento das soluções identificadas na prática, e (4) desenvolvimento dos princípios de design para autoria docente de RA. Na etapa 1, realizamos entrevistas com 15 professores que usavam tecnologia; 7 professores e 2 coordenadores que utilizaram RA juntamente com uma pesquisa com 106 professores de contextos variados. Essa etapa também abrangeu a revisão da literatura. Embora os professores pareçam interessados e ávidos por aprender sobre RA, seu uso ainda não atingiu níveis mais elevados de maturidade nas escolas. Diferentes aspectos estão relacionados a isso, como falta de infraestrutura, ferramentas de autoria e tempo. Observamos a necessidade de ferramentas de RA para apoiar a colaboração, a criatividade por meio da criação de conteúdo e a capacidade de avaliar os alunos de maneiras mais flexíveis. A partir dos resultados iniciais, definimos um estudo de caso focado na aprendizagem de línguas para crianças e adolescentes. A etapa 2 consistiu em uma série de sessões interativas com um grupo interdisciplinar a fim de mapear os problemas, esboçar as soluções possíveis e decidir aquela a ser prototipada e testada. Na etapa 3, uma ferramenta de RA, Virtual Playground, que permite a criação de narrativas aumentadas de forma colaborativa, bem como sua ferramenta de autoria foi concebida, prototipada e testada com os usuários por meio de uma série de interações e ciclos iterativos de teste e refinamento de soluções. A primeira e a segunda rodada de testes foram realizadas com 5 e 6 professores de inglês com experiência prévia em RA, respectivamente. Os principais problemas relacionaram-se à limitada biblioteca 3D e à falta de possibilidades de criação. Os resultados foram usados para melhorar a UI e UX dos protótipos. Também analisamos ferramentas de autoria de RA que não exigem programação. Boa parte delas carecem de recursos importantes para os professores, especificamente os pedagógicos. Finalmente, na etapa 4, através da reflexão sobre os resultados das etapas anteriores, desenvolvemos princípios de design e aprimoramos a implementação da solução. O principal resultado deste estudo são 11 princípios de design identificados e divididos em três aspectos: infraestrutura, realidade aumentada e pedagogia. Esses princípios foram validados durante a segunda rodada de testes. O protótipo da ferramenta de autoria de RA foi baseado em sete dos princípios de design identificados e apresenta as seguintes características: é flexível e permite que os professores criem planos de aula diferentes, bem como trabalhem com diferentes habilidades e competências.

12
  • AMIRTON BEZERRA CHAGAS
  • A Recommender System to Support the Development of Context-Aware 
    Intelligent Transportation Systems

  • Orientador : CARLOS ANDRE GUIMARAES FERRAZ
  • MEMBROS DA BANCA :
  • THAIS VASCONCELOS BATISTA
  • ABEL GUILHERMINO DA SILVA FILHO
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • VANINHA VIEIRA DOS SANTOS
  • Data: 08/03/2022

  • Mostrar Resumo
  • O desenvolvimento de Sistemas de Transporte Inteligentes (ITS, do inglês 
    Intelligent Transportation Systems) Sensíveis ao Contexto necessita de uma 
    cuidadosa análise para identificar quais Elementos Contextuais podem 
    contribuir na definição do Contexto da aplicação. Esta atividade é 
    complexa, principalmente no cenário de ITS, muito vasto e com centenas de 
    possibilidades. Há um conhecimento tácito em outros projetos da área e este 
    não é utilizado atualmente em todo seu potencial por projetistas de 
    sistemas. O objetivo desta pesquisa é analisar o uso de sensibilidade ao 
    contexto em ITS e propor alternativas de organização desta informação para 
    permitir a criação de ferramentas que contribuam para automatizar parte da 
    tarefa de identificação dos elementos contextuais úteis para o 
    desenvolvimento de uma nova aplicação. Uma revisão da literatura de 
    projetos de ITS serviu para mapear o uso de elementos contextuais. Foram 
    encontados 70 projetos acadêmicos, aos quais adicionou-se 3 projetos 
    comerciais, chegando a um total de 73 projetos. Com o mapeamento, 
    procedeu-se à definição de uma Taxonomia de Categorias de Elementos 
    Contextuais, para aumentar a granularidade da informação e facilitar seu 
    uso em um sistema automatizado. A taxonomia conta com 79 categorias no 
    total. Uma base de conhecimento foi construída relacionando os 73 projetos 
    às categorias da taxonomia. A partir da taxonomia e da base de 
    conhecimento, foi projetado um Sistema de Recomendação de Categorias de 
    Elementos Contextuais para ITS, que utilizando um subconjunto inicial de 
    Elementos Contextuais já identificados como necessários para uma nova 
    aplicação, é capaz de recomendar categorias de Elementos Contextuais para a 
    posterior análise do projetista da aplicação. A validação do sistema de 
    recomendação indicou sua capacidade de recomendar categorias que são 
    relevantes aos projetos. Ao utilizar um número n >= 8 de projetos similares 
    para identificar as categorias, mesmo limitando a quantidade de 
    recomendações em 15 itens, em mais de 75% das vezes o sistema recomendou 
    categorias sabidamente utilizadas para o subconjunto informado como 
    entrada. A criação de uma taxonomia associada ao desenvolvimento de um 
    sistema de recomendação utilizando uma base de conhecimento de projetos da 
    área de ITS apresentou potencial de contribuir positivamente no projeto e 
    desenvolvimento de aplicações deste domínio, permitindo a identificação e 
    consequente uso de mais elementos contextuais relevantes para a aplicação 
    em projeto.


  • Mostrar Abstract
  • O desenvolvimento de Sistemas de Transporte Inteligentes (ITS, do inglês 
    Intelligent Transportation Systems) Sensíveis ao Contexto necessita de uma 
    cuidadosa análise para identificar quais Elementos Contextuais podem 
    contribuir na definição do Contexto da aplicação. Esta atividade é 
    complexa, principalmente no cenário de ITS, muito vasto e com centenas de 
    possibilidades. Há um conhecimento tácito em outros projetos da área e este 
    não é utilizado atualmente em todo seu potencial por projetistas de 
    sistemas. O objetivo desta pesquisa é analisar o uso de sensibilidade ao 
    contexto em ITS e propor alternativas de organização desta informação para 
    permitir a criação de ferramentas que contribuam para automatizar parte da 
    tarefa de identificação dos elementos contextuais úteis para o 
    desenvolvimento de uma nova aplicação. Uma revisão da literatura de 
    projetos de ITS serviu para mapear o uso de elementos contextuais. Foram 
    encontados 70 projetos acadêmicos, aos quais adicionou-se 3 projetos 
    comerciais, chegando a um total de 73 projetos. Com o mapeamento, 
    procedeu-se à definição de uma Taxonomia de Categorias de Elementos 
    Contextuais, para aumentar a granularidade da informação e facilitar seu 
    uso em um sistema automatizado. A taxonomia conta com 79 categorias no 
    total. Uma base de conhecimento foi construída relacionando os 73 projetos 
    às categorias da taxonomia. A partir da taxonomia e da base de 
    conhecimento, foi projetado um Sistema de Recomendação de Categorias de 
    Elementos Contextuais para ITS, que utilizando um subconjunto inicial de 
    Elementos Contextuais já identificados como necessários para uma nova 
    aplicação, é capaz de recomendar categorias de Elementos Contextuais para a 
    posterior análise do projetista da aplicação. A validação do sistema de 
    recomendação indicou sua capacidade de recomendar categorias que são 
    relevantes aos projetos. Ao utilizar um número n >= 8 de projetos similares 
    para identificar as categorias, mesmo limitando a quantidade de 
    recomendações em 15 itens, em mais de 75% das vezes o sistema recomendou 
    categorias sabidamente utilizadas para o subconjunto informado como 
    entrada. A criação de uma taxonomia associada ao desenvolvimento de um 
    sistema de recomendação utilizando uma base de conhecimento de projetos da 
    área de ITS apresentou potencial de contribuir positivamente no projeto e 
    desenvolvimento de aplicações deste domínio, permitindo a identificação e 
    consequente uso de mais elementos contextuais relevantes para a aplicação 
    em projeto.

13
  • SYLVIA EMMANUELLE CASTELO BRANCO DE HOLANDA VICTOR
  • Otimização de Aspectos do Aprendizado para Lidar com Fluxo de Dados

  • Orientador : SILVIO DE BARROS MELO
  • MEMBROS DA BANCA :
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • CLEBER ZANCHETTIN
  • EMERSON ALEXANDRE DE OLIVEIRA
  • FRANCISCO MADEIRO BERNARDINO JUNIOR
  • SERGIO DE CARVALHO BEZERRA
  • Data: 08/03/2022

  • Mostrar Resumo
  • Muitos desafios de aplicações comerciais envolvem mineração de dados 
    aplicado a classificação em fluxo de dados. Onde os classificadores são 
    métodos incrementais de instâncias que aprendem com cada exemplo conforme 
    chegam e são capazes de lidar com um fluxo teoricamente infinito de 
    instâncias, suscetível a mudança de conceito, com severas restrições de 
    tempo de processamento e quantidade de memória, além disso, também precisam 
    ser capazes de predizer um padrão a qualquer momento. Assim sendo, 
    diferentes modelos de classificação foram adaptados para manipular fluxos 
    de dados nessas condições, destacando-se para este trabalho a estratégia de 
    aprendizado adaptativo aplicado a classificação com detecção, na qual a 
    adaptação do modelo de aprendizado leva em consideração sinais de detecção 
    do método de detecção de mudança de conceito. Normalmente, os trabalhos da 
    literatura de detecção de mudança de conceito escolhem essa estratégia. 
    Entretanto, é comum nas avaliações de desempenho entre métodos detectores 
    não fazer distinção entre métodos que consideram dos que não consideram, 
    sinais de detecção Warning. Neste trabalho, foram analisados os impactos do 
    sinal de detecção Warning na acurácia de modelos e para isso são fornecidas 
    evidências empíricas, referências e justificativas para descrever os 
    efeitos do Warning na acurácia. Deste modo, sendo possível concluir que os 
    sinais de detecção Warning na maioria das situações analisadas, quando são 
    omitidos degradam da acurácia Prequential, resultando em diferenças 
    estatísticas. Baseando-se nesses resultados, foram desenvolvidas duas 
    estratégias para melhor lidar com os efeitos do sinal de detecção Warning. 
    Elas possuem mecanismos capazes de garantir que novos modelos sejam 
    treinados antes de serem testados sem depender dos sinais de detecção 
    Warning do método de detecção de mudança de conceito. Assim sendo, foi 
    possível fornecer uma análise aprofundada comparando os impactos dos sinais 
    de detecção Warning na acurácia Prequential, incluindo um estudo empírico 
    para comparar várias versões diferentes de métodos de detecção de mudança 
    de conceito em cada estratégia. Por fim, os experimentos empíricos, tanto 
    com bases artificiais como reais e os novos algoritmos foram implementados 
    no framework Massive Online Analysis (MOA) e executados na ferramenta 
    MOAManager, alcançando resultados promissores nos novos algoritmos.


  • Mostrar Abstract
  • Muitos desafios de aplicações comerciais envolvem mineração de dados 
    aplicado a classificação em fluxo de dados. Onde os classificadores são 
    métodos incrementais de instâncias que aprendem com cada exemplo conforme 
    chegam e são capazes de lidar com um fluxo teoricamente infinito de 
    instâncias, suscetível a mudança de conceito, com severas restrições de 
    tempo de processamento e quantidade de memória, além disso, também precisam 
    ser capazes de predizer um padrão a qualquer momento. Assim sendo, 
    diferentes modelos de classificação foram adaptados para manipular fluxos 
    de dados nessas condições, destacando-se para este trabalho a estratégia de 
    aprendizado adaptativo aplicado a classificação com detecção, na qual a 
    adaptação do modelo de aprendizado leva em consideração sinais de detecção 
    do método de detecção de mudança de conceito. Normalmente, os trabalhos da 
    literatura de detecção de mudança de conceito escolhem essa estratégia. 
    Entretanto, é comum nas avaliações de desempenho entre métodos detectores 
    não fazer distinção entre métodos que consideram dos que não consideram, 
    sinais de detecção Warning. Neste trabalho, foram analisados os impactos do 
    sinal de detecção Warning na acurácia de modelos e para isso são fornecidas 
    evidências empíricas, referências e justificativas para descrever os 
    efeitos do Warning na acurácia. Deste modo, sendo possível concluir que os 
    sinais de detecção Warning na maioria das situações analisadas, quando são 
    omitidos degradam da acurácia Prequential, resultando em diferenças 
    estatísticas. Baseando-se nesses resultados, foram desenvolvidas duas 
    estratégias para melhor lidar com os efeitos do sinal de detecção Warning. 
    Elas possuem mecanismos capazes de garantir que novos modelos sejam 
    treinados antes de serem testados sem depender dos sinais de detecção 
    Warning do método de detecção de mudança de conceito. Assim sendo, foi 
    possível fornecer uma análise aprofundada comparando os impactos dos sinais 
    de detecção Warning na acurácia Prequential, incluindo um estudo empírico 
    para comparar várias versões diferentes de métodos de detecção de mudança 
    de conceito em cada estratégia. Por fim, os experimentos empíricos, tanto 
    com bases artificiais como reais e os novos algoritmos foram implementados 
    no framework Massive Online Analysis (MOA) e executados na ferramenta 
    MOAManager, alcançando resultados promissores nos novos algoritmos.

14
  • DAVI HIRAFUJI NEIVA
  • Tradução entre línguas de sinais utilizando Deep Learning

  • Orientador : CLEBER ZANCHETTIN
  • MEMBROS DA BANCA :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • ANDRÉ CÂMARA ALVES DO NASCIMENTO
  • FRANCISCO CARLOS MONTEIRO SOUZA
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • LEANDRO MACIEL ALMEIDA
  • Data: 11/03/2022

  • Mostrar Resumo
  • A linguagem de sinais é a forma de expressão usada por pessoas surdas para se comunicar. É com o movimento do corpo, especialmente as mãos, que uma pessoa surda consegue se expressar. Contudo, as línguas de sinais não são universais, isso quer dizer que uma pessoa surda Alemã não poderá se comunicar adequadamente com uma pessoa surda Brasileira, por exemplo. Soluções baseadas em software utilizam aprendizagem de máquina para reconhecer gestos e traduzir de língua falada e escrita para outra, mas trabalhos que combinem esses algoritmos visando uma tradução entre língua de sinais não são frequentes. Nesta pesquisa, propomos o sAIgns, uma plataforma colaborativa web e móvel para tradução entre línguas de sinais. Utilizando a câmera do celular para capturar vídeos de uma pessoa fazendo um gesto em uma língua de sinais, o usuário poderá visualizar o gesto correspondente na sua língua de sinais materna. Nós utilizamos uma combinação de algoritmos de Deep Learning, tais como Mask R-CNN, CNN e Transformers para realizar remoção de plano de fundo, extração de características, reconhecimento de sinais e tradução. Nós propomos ainda uma abordagem de reconhecimento de sentenças em língua de sinais utilizando um conjunto de dados de palavras. Além disso, propomos uma webpage para hospedar diferentes línguas de sinais, visualizar sinais individualmente ou em sentenças e criar máscaras customizadas para as mãos. Utilizando duas bases públicas de sinais (base alemã PHOENIX-14T e base Libras V-Librasil) nossa abordagem apresentou uma melhora de WER de 4% na base PHOENIX-14T e enquanto na V-Librasil, conseguimos um WER de 21.7% e 5% para palavras e sentenças respectivamente.


  • Mostrar Abstract
  • A linguagem de sinais é a forma de expressão usada por pessoas surdas para se comunicar. É com o movimento do corpo, especialmente as mãos, que uma pessoa surda consegue se expressar. Contudo, as línguas de sinais não são universais, isso quer dizer que uma pessoa surda Alemã não poderá se comunicar adequadamente com uma pessoa surda Brasileira, por exemplo. Soluções baseadas em software utilizam aprendizagem de máquina para reconhecer gestos e traduzir de língua falada e escrita para outra, mas trabalhos que combinem esses algoritmos visando uma tradução entre língua de sinais não são frequentes. Nesta pesquisa, propomos o sAIgns, uma plataforma colaborativa web e móvel para tradução entre línguas de sinais. Utilizando a câmera do celular para capturar vídeos de uma pessoa fazendo um gesto em uma língua de sinais, o usuário poderá visualizar o gesto correspondente na sua língua de sinais materna. Nós utilizamos uma combinação de algoritmos de Deep Learning, tais como Mask R-CNN, CNN e Transformers para realizar remoção de plano de fundo, extração de características, reconhecimento de sinais e tradução. Nós propomos ainda uma abordagem de reconhecimento de sentenças em língua de sinais utilizando um conjunto de dados de palavras. Além disso, propomos uma webpage para hospedar diferentes línguas de sinais, visualizar sinais individualmente ou em sentenças e criar máscaras customizadas para as mãos. Utilizando duas bases públicas de sinais (base alemã PHOENIX-14T e base Libras V-Librasil) nossa abordagem apresentou uma melhora de WER de 4% na base PHOENIX-14T e enquanto na V-Librasil, conseguimos um WER de 21.7% e 5% para palavras e sentenças respectivamente.

15
  • MARCOS ROCHA DE MORAES FALCAO
  • RESOURCE ALLOCATION FOR URLLC IN NFV-MEC

  • Orientador : KELVIN LOPES DIAS
  • MEMBROS DA BANCA :
  • EDMUNDO ROBERTO MAURO MADEIRA
  • ANTONIO ALFREDO FERREIRA LOUREIRO
  • DIVANILSON RODRIGO DE SOUSA CAMPELO
  • PAULO ROBERTO FREIRE CUNHA
  • RENATO MARIZ DE MORAES
  • Data: 14/03/2022

  • Mostrar Resumo
  • As redes móveis 5G foram projetadas para atender a três casos de uso 
    principais: banda larga móvel aprimorada (eMBB), comunicação massiva do 
    tipo máquina (mMTC) e comunicação de baixa latência ultra confiável 
    (URLLC), sendo os requisitos conflitantes de latência e confiabilidade 
    definidos pelo URLLC considerados um problema desafiador. Nesse contexto, a 
    Computação de Borda Multiacesso (MEC) e a Virtualização de Funções de Rede 
    (NFV) surgem como paradigmas complementares que devem suportar URLLC, 
    oferecendo recursos distribuídos sob demanda e de maneira granular mais 
    próximos do Equipamento do Usuário (UE), mitigando assim problemas de 
    camada física. Por outro lado, a adoção do NFV-MEC inevitavelmente eleva os 
    custos de implantação e operação, muitos dos quais estão relacionados ao 
    consumo de energia. Neste trabalho, realizamos uma análise de desempenho 
    para a camada de virtualização da arquitetura NFV-MEC da perspectiva de um 
    Provedor de Serviços (SP), que inclui disponibilidade de nós e consumo de 
    energia, além dos requisitos conflitantes de URLLC. Projetamos um modelo 
    para representar um nó NFV-MEC baseado em Cadeias Contínuas de Markov 
    (CTMC) que contém um esquema de dimensionamento de recursos virtuais para 
    otimizar a alocação dinâmica de recursos (DRA), que visa permitir a análise 
    de como as solicitações críticas são processadas pelos recursos de 
    virtualização subjacentes de um nó NFV-MEC .Para tornar o modelo mais 
    realista, incorporamos falhas de recursos, tempos de configuração/reparo e 
    atrasos de sobrecarga de processamento em nossa formulação, pois esses 
    aspectos podem afetar a utilização de recursos no contexto de futuras 
    aplicações críticas. Além disso, o Veículo Aéreo Não Tripulado (UAV) 
    habilitado para MEC é uma opção para implantação de infraestrutura URLLC 
    sob o paradigma NFV-MEC, que pode fornecer Linha de Visada (LoS) entre o 
    UAV e os nós de transmissão terrestres, o que é uma vantagem desta 
    abordagem. No entanto, neste contexto, o compromisso entre os recursos 
    computacionais e o desempenho do URLLC torna-se ainda mais desafiador,uma 
    vez que, em geral, os veículos aéreos não tripulados são limitados devido 
    ao seu tamanho, peso e potência, o que impõe um ônus às funções de rede 
    (NFs) convencionais. Portanto, também formulamos um problema multiobjetivo 
    relacionado ao dimensionamento de nós de UAV habilitado para NFV-MEC e 
    projetamos uma abordagem baseada em Algoritmos Genéticos (GA) para 
    resolvê-lo.



  • Mostrar Abstract
  • As redes móveis 5G foram projetadas para atender a três casos de uso 
    principais: banda larga móvel aprimorada (eMBB), comunicação massiva do 
    tipo máquina (mMTC) e comunicação de baixa latência ultra confiável 
    (URLLC), sendo os requisitos conflitantes de latência e confiabilidade 
    definidos pelo URLLC considerados um problema desafiador. Nesse contexto, a 
    Computação de Borda Multiacesso (MEC) e a Virtualização de Funções de Rede 
    (NFV) surgem como paradigmas complementares que devem suportar URLLC, 
    oferecendo recursos distribuídos sob demanda e de maneira granular mais 
    próximos do Equipamento do Usuário (UE), mitigando assim problemas de 
    camada física. Por outro lado, a adoção do NFV-MEC inevitavelmente eleva os 
    custos de implantação e operação, muitos dos quais estão relacionados ao 
    consumo de energia. Neste trabalho, realizamos uma análise de desempenho 
    para a camada de virtualização da arquitetura NFV-MEC da perspectiva de um 
    Provedor de Serviços (SP), que inclui disponibilidade de nós e consumo de 
    energia, além dos requisitos conflitantes de URLLC. Projetamos um modelo 
    para representar um nó NFV-MEC baseado em Cadeias Contínuas de Markov 
    (CTMC) que contém um esquema de dimensionamento de recursos virtuais para 
    otimizar a alocação dinâmica de recursos (DRA), que visa permitir a análise 
    de como as solicitações críticas são processadas pelos recursos de 
    virtualização subjacentes de um nó NFV-MEC .Para tornar o modelo mais 
    realista, incorporamos falhas de recursos, tempos de configuração/reparo e 
    atrasos de sobrecarga de processamento em nossa formulação, pois esses 
    aspectos podem afetar a utilização de recursos no contexto de futuras 
    aplicações críticas. Além disso, o Veículo Aéreo Não Tripulado (UAV) 
    habilitado para MEC é uma opção para implantação de infraestrutura URLLC 
    sob o paradigma NFV-MEC, que pode fornecer Linha de Visada (LoS) entre o 
    UAV e os nós de transmissão terrestres, o que é uma vantagem desta 
    abordagem. No entanto, neste contexto, o compromisso entre os recursos 
    computacionais e o desempenho do URLLC torna-se ainda mais desafiador,uma 
    vez que, em geral, os veículos aéreos não tripulados são limitados devido 
    ao seu tamanho, peso e potência, o que impõe um ônus às funções de rede 
    (NFs) convencionais. Portanto, também formulamos um problema multiobjetivo 
    relacionado ao dimensionamento de nós de UAV habilitado para NFV-MEC e 
    projetamos uma abordagem baseada em Algoritmos Genéticos (GA) para 
    resolvê-lo.


16
  • FERNANDO KENJI KAMEI
  • Supporting the Use of Grey Literature in Software Engineering 
    Research

  • Orientador : SERGIO CASTELO BRANCO SOARES
  • MEMBROS DA BANCA :
  • TAYANA UCHÔA CONTE
  • KATIA ROMERO FELIZARDO SCANNAVINO
  • ANDRE LUIS DE MEDEIROS SANTOS
  • FABIO QUEDA BUENO DA SILVA
  • MARCOS KALINOWSKI
  • Data: 22/03/2022

  • Mostrar Resumo
  • Recentemente, é crescente o interesse em explorar a Literatura Cinza (LC) na pesquisa de Engenharia de Software (ES). Apesar disso, estudos indicaram a necessidade de entender por que e como a LC pode apoiar a pesquisa em ES, pois alguns pesquisadores são céticos quanto à sua importância e credibilidade. Por isso, focamos em melhorar a compreensão da LC e propor um conjunto de recomendações para apoiar seu uso em Estudos Secundários, com base nas opiniões dos pesquisadores e de estudos anteriores. Para atingir nosso objetivo, realizamos um conjunto de estudos empíricos. Investigamos 76 pesquisadores brasileiros para entender suas percepções sobre os benefícios e desafios da LC. Identificamos blogs e sites da comunidade como fontes comumente usadas. Motivações para usar e para evitar, e benefícios e limitações também foram explorados. Como critério para avaliar a credibilidade da LC, identificamos que a reputação do produtor da LC na comunidade é importante. Em seguida, coletamos as percepções sobre os tipos de LC e como 34 pesquisadores brasileiros avaliam sua credibilidade. Embora tenhamos identificado entendimentos controversos, a maioria das fontes da LC tem controle e credibilidade de baixa a moderada. Com base em um estudo terciário, analisamos 126 estudos secundários para apresentar tendências, conceitos empregados, tipos de LC e métodos usados para selecionar e realizar a avaliação da qualidade da LC. Nossas descobertas mostram um crescimento no uso da LC nos últimos anos. Não identificamos uma definição comum da LC, e há diferentes interpretações sobre seus tipos entre os estudos. Curiosamente, apenas sete estudos empregaram critérios específicos para avaliar a qualidade do LC, e cerca de 1/4 da LC não estão mais disponíveis. Realizamos outro estudo terciário para avaliar como o uso de LC contribuiu para nove revisões multivocais da literatura. Identificamos evidências que não seriam encontradas se a LC não fosse considerada. Essas fontes forneceram principalmente recomendações e explicaram tópicos.
    Por fim, realizamos dois grupos focais com dez pesquisadores de ES para avaliar as diretrizes de Garousi. Em geral, as diretrizes são úteis, embora problemas tenham sido percebidos. Fornecemos recomendações para lidar com esses problemas e melhorar as diretrizes de Garousi. Nossas investigações mostram a importância do uso de LC na pesquisa de ES. No entanto, também identificamos desafios que os pesquisadores podem enfrentar. Nos esforçamos para mitigá-los, fornecendo critérios para avaliar a credibilidade e recomendações aos  pesquisadores para lidar melhor com a LC.


  • Mostrar Abstract
  • Recentemente, é crescente o interesse em explorar a Literatura Cinza (LC) na pesquisa de Engenharia de Software (ES). Apesar disso, estudos indicaram a necessidade de entender por que e como a LC pode apoiar a pesquisa em ES, pois alguns pesquisadores são céticos quanto à sua importância e credibilidade. Por isso, focamos em melhorar a compreensão da LC e propor um conjunto de recomendações para apoiar seu uso em Estudos Secundários, com base nas opiniões dos pesquisadores e de estudos anteriores. Para atingir nosso objetivo, realizamos um conjunto de estudos empíricos. Investigamos 76 pesquisadores brasileiros para entender suas percepções sobre os benefícios e desafios da LC. Identificamos blogs e sites da comunidade como fontes comumente usadas. Motivações para usar e para evitar, e benefícios e limitações também foram explorados. Como critério para avaliar a credibilidade da LC, identificamos que a reputação do produtor da LC na comunidade é importante. Em seguida, coletamos as percepções sobre os tipos de LC e como 34 pesquisadores brasileiros avaliam sua credibilidade. Embora tenhamos identificado entendimentos controversos, a maioria das fontes da LC tem controle e credibilidade de baixa a moderada. Com base em um estudo terciário, analisamos 126 estudos secundários para apresentar tendências, conceitos empregados, tipos de LC e métodos usados para selecionar e realizar a avaliação da qualidade da LC. Nossas descobertas mostram um crescimento no uso da LC nos últimos anos. Não identificamos uma definição comum da LC, e há diferentes interpretações sobre seus tipos entre os estudos. Curiosamente, apenas sete estudos empregaram critérios específicos para avaliar a qualidade do LC, e cerca de 1/4 da LC não estão mais disponíveis. Realizamos outro estudo terciário para avaliar como o uso de LC contribuiu para nove revisões multivocais da literatura. Identificamos evidências que não seriam encontradas se a LC não fosse considerada. Essas fontes forneceram principalmente recomendações e explicaram tópicos.
    Por fim, realizamos dois grupos focais com dez pesquisadores de ES para avaliar as diretrizes de Garousi. Em geral, as diretrizes são úteis, embora problemas tenham sido percebidos. Fornecemos recomendações para lidar com esses problemas e melhorar as diretrizes de Garousi. Nossas investigações mostram a importância do uso de LC na pesquisa de ES. No entanto, também identificamos desafios que os pesquisadores podem enfrentar. Nos esforçamos para mitigá-los, fornecendo critérios para avaliar a credibilidade e recomendações aos  pesquisadores para lidar melhor com a LC.

17
  • EDUARDO SANTOS SILVA
  • VioLED: instrumento musical aumentado + software como serviço para 
    adesão e engajamento do público no aprendizado musical

  • Orientador : GIORDANO RIBEIRO EULALIO CABRAL
  • MEMBROS DA BANCA :
  • JEAN-PIERRE MICHEL BRIOT
  • FLÁVIO LUIZ SCHIAVONI
  • ANDRE MENEZES MARQUES DAS NEVES
  • FILIPE CARLOS DE ALBUQUERQUE CALEGARIO
  • LUCAS SILVA FIGUEIREDO
  • Data: 25/03/2022

  • Mostrar Resumo
  • Nos últimos anos, a área de computação musical tem presenciado o surgimento 
    de diversas tecnologias que permitem novas formas de interação com música, 
    variando desde novas formas de reprodução musical aos chamados Instrumentos 
    Musicais Digitais (DMIs) e smart instruments. Particularmente, os avanços 
    nas áreas de Internet das Coisas (IoT) e interfaces gestuais proporcionam a 
    criação instrumentos musicais aumentados, que utilizam estas tecnologias 
    para incorporar novas funcionalidades. No contexto de aprendizado musical, 
    surgem sistemas que utilizam LEDs para exibir o conteúdo musical 
    diretamente no corpo do instrumento – e.g. Fretlight, Fret Zealot e 
    populele –, os quais serão referenciados como instrumentos musicais 
    aumentados para estudo (AMIS, do inglês Augmented Musical Instruments for 
    Study). Isto gera novas oportunidades para auxiliar o aprendizado de 
    instrumentos musicais, que envolve a aquisição de habilidades cognitivas e 
    motoras para entendimento de conceitos musicais e tradução destes conceitos 
    para o instrumento. Desta forma, é possível que estas tecnologias possam 
    ser utilizadas para solucionar alguns dos obstáculos relacionados com este 
    aprendizado, e.g., guiar e motivar o estudante no aprendizado, auxiliar na 
    aquisição destas habilidades, etc. Entretanto, estes sistemas estão 
    inseridos em um contexto de design de interação que envolve demandas em 
    diferentes dimensões: sistemas interativos, design simultâneo de hardware e 
    software, sistemas de “tempo real” e o aprendizado musical. Isto demanda de 
    aspectos de engenharia (e.g. consumo de energia, latência, confiabilidade); 
    de usabilidade (e.g. legibilidade, antecipação e oclusão de informação); do 
    processo de design (e.g. exploração de ideias, prototipação, seleção dos 
    recursos, adaptabilidade a mudanças de sistema); do aprendizado musical 
    (e.g. motivação do usuário, diferentes formas de aprendizado, etc.); além 
    do fato de ser uma área relativamente nova, carente de métodos e diretrizes 
    de design estruturados. Assim, este projeto busca investigar se estes AMIS 
    podem ser utilizados para auxiliar o aprendizado, buscando atingir uma 
    parcela do público não coberta pelas soluções existentes para o aprendizado 
    de instrumentos, focando especialmente no processo de ativação e 
    engajamento dos estudantes no aprendizado. Desta forma, busca-se atender as 
    demandas dos usuários e possivelmente levantar insights que possam auxiliar 
    futuros designers de sistemas similares. Para isso, está sendo 
    desenvolvido, em parceria com a empresa Daccord Music Software, um violão 
    com LEDs capaz de exibir notas/acordes musicais na escala do instrumento, 
    focando principalmente no serviço para este AMIS. Foram realizados dois 
    ciclos de desenvolvimento para ambos o hardware e o aplicativo do sistema 
    além de testes com potenciais usuários. Identificou-se também obstáculos no 
    processo que apontam para decisões de design, como antecipação de conteúdo, 
    oclusão, consumo de energia, etc. que podem auxiliar futuros designers na 
    criação de sistemas similares.


  • Mostrar Abstract
  • Nos últimos anos, a área de computação musical tem presenciado o surgimento 
    de diversas tecnologias que permitem novas formas de interação com música, 
    variando desde novas formas de reprodução musical aos chamados Instrumentos 
    Musicais Digitais (DMIs) e smart instruments. Particularmente, os avanços 
    nas áreas de Internet das Coisas (IoT) e interfaces gestuais proporcionam a 
    criação instrumentos musicais aumentados, que utilizam estas tecnologias 
    para incorporar novas funcionalidades. No contexto de aprendizado musical, 
    surgem sistemas que utilizam LEDs para exibir o conteúdo musical 
    diretamente no corpo do instrumento – e.g. Fretlight, Fret Zealot e 
    populele –, os quais serão referenciados como instrumentos musicais 
    aumentados para estudo (AMIS, do inglês Augmented Musical Instruments for 
    Study). Isto gera novas oportunidades para auxiliar o aprendizado de 
    instrumentos musicais, que envolve a aquisição de habilidades cognitivas e 
    motoras para entendimento de conceitos musicais e tradução destes conceitos 
    para o instrumento. Desta forma, é possível que estas tecnologias possam 
    ser utilizadas para solucionar alguns dos obstáculos relacionados com este 
    aprendizado, e.g., guiar e motivar o estudante no aprendizado, auxiliar na 
    aquisição destas habilidades, etc. Entretanto, estes sistemas estão 
    inseridos em um contexto de design de interação que envolve demandas em 
    diferentes dimensões: sistemas interativos, design simultâneo de hardware e 
    software, sistemas de “tempo real” e o aprendizado musical. Isto demanda de 
    aspectos de engenharia (e.g. consumo de energia, latência, confiabilidade); 
    de usabilidade (e.g. legibilidade, antecipação e oclusão de informação); do 
    processo de design (e.g. exploração de ideias, prototipação, seleção dos 
    recursos, adaptabilidade a mudanças de sistema); do aprendizado musical 
    (e.g. motivação do usuário, diferentes formas de aprendizado, etc.); além 
    do fato de ser uma área relativamente nova, carente de métodos e diretrizes 
    de design estruturados. Assim, este projeto busca investigar se estes AMIS 
    podem ser utilizados para auxiliar o aprendizado, buscando atingir uma 
    parcela do público não coberta pelas soluções existentes para o aprendizado 
    de instrumentos, focando especialmente no processo de ativação e 
    engajamento dos estudantes no aprendizado. Desta forma, busca-se atender as 
    demandas dos usuários e possivelmente levantar insights que possam auxiliar 
    futuros designers de sistemas similares. Para isso, está sendo 
    desenvolvido, em parceria com a empresa Daccord Music Software, um violão 
    com LEDs capaz de exibir notas/acordes musicais na escala do instrumento, 
    focando principalmente no serviço para este AMIS. Foram realizados dois 
    ciclos de desenvolvimento para ambos o hardware e o aplicativo do sistema 
    além de testes com potenciais usuários. Identificou-se também obstáculos no 
    processo que apontam para decisões de design, como antecipação de conteúdo, 
    oclusão, consumo de energia, etc. que podem auxiliar futuros designers na 
    criação de sistemas similares.

18
  • FLAVIA MERYLYN CARNEIRO FALCAO
  • Design seguro e construtivo com componentes UML 

  • Orientador : AUGUSTO CEZAR ALVES SAMPAIO
  • MEMBROS DA BANCA :
  • ALEXANDRE CABRAL MOTA
  • ANA CRISTINA VIEIRA DE MELO
  • JULIANO MANABU IYODA
  • MARCEL VINICIUS MEDEIROS OLIVEIRA
  • MARCIO LOPES CORNELIO
  • Data: 29/03/2022

  • Mostrar Resumo
  • A Engenharia de Software baseada em modelos surgiu como uma abordagem para lidar com a complexidade do desenvolvimento de sistemas atuais. Em particular, as estratégias de composição assumem que os sistemas podem ser construídos a partir de unidades reutilizáveis e fracamente acopladas. No entanto, ainda é um desafio garantir que propriedades desejadas sejam válidas para a integração de componentes. Apresentamos um modelo baseado em componentes para UML, incluindo um metamodelo, condições de boa formação e semântica formal via tradução para BRIC; a apresentação da semântica é dada por um conjunto de regras que abrangem todos os elementos do metamodelo e os mapeiam para suas respectivas denotações BRIC. Usamos BRIC como um framework de desenvolvimento de componentes subjacente (e totalmente oculto) para que nossa abordagem se beneficie de toda a infraestrutura formal desenvolvida para BRIC usando CSP (Communicating Sequential Processes). A composição do componente especificada por meio de diagramas estruturais UML, garante a aderência às propriedades concorrentes clássicas: nosso foco é a preservação da ausência de deadlock. O suporte automatizado é desenvolvido como um plug-in para a ferramenta de modelagem As tah. A verificação é realizada usando FDR (um verificador de modelos para CSP), mas isso é transparente para o usuário. Um diferencial de nossa abordagem é o suporte à rastreabilidade. Por exemplo, quando o FDR descobre um deadlock, um diagrama de sequência é construído a partir do trace de deadlock e apresentado ao usuário como um modelo UML. Ilustramos a aplicabilidade da nossa abordagem com um exemplo apresentado de forma recorrente no texto e dois estudos de caso adicionais. Destacamos também as contribuições do modelo de componentes proposto e da estratégia de modelagem por meio de uma comparação com outras abordagens da literatura. 


  • Mostrar Abstract
  • AAAA

19
  • MARCOS JOSÉ CANÊJO ESTEVÃO DE AZEVEDO
  • Segmentação de Imagens de Cenas Naturais Baseada no \textit{Speed 
    Drawing Challenge} com Aplicação em Segmentação de Mapas e Plantas Baixas

  • Orientador : CARLOS ALEXANDRE BARROS DE MELLO
  • MEMBROS DA BANCA :
  • CLEBER ZANCHETTIN
  • FRANCISCO MADEIRO BERNARDINO JUNIOR
  • MARCELO WALTER
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • TSANG ING REN
  • Data: 30/03/2022

  • Mostrar Resumo
  • O Speed Drawing Challenge consiste em um desafio em que artistas devem 
    representar um desenho em segundos sem perder as principais características 
    que o tornam fiel ao desenho original. À medida que o tempo é reduzido, o 
    artista se encaminha a produzir um desenho mais simples, se aproximando de 
    um desenho contendo apenas os traços mais representativos, focando nos 
    contornos. Para o problema de detecção de contorno, uma imagem de borda 
    representa um desenho produzido sem uma grande limitação de tempo. Assim, o 
    método proposto faz uso dos conceitos de superpixel, detecção de bordas e 
    mapas de saliência para produção de uma imagem, simulando a variação de 
    tempo do Speed Drawing Challenge: a modelagem do desafio em poucos segundos 
    expressa uma imagem com apenas os contorno mais relevantes detectados. 
    Diferente das técnicas do estado-da-arte, o método proposto gera uma imagem 
    de bordas já final, sem necessidade de posterior pós-processamento como 
    binarização. Mais do que um algoritmo apenas, propomos uma metodologia que 
    pode ser aplicada de formas diferentes, mas seguindo a mesma ideia, em 
    outros domínios, como na segmentação de mapas e plantas baixas. Os 
    resultados alcançados foram bastante promissores quando o método é aplicado 
    a imagens de cenas naturais e plantas baixas.


  • Mostrar Abstract
  • O Speed Drawing Challenge consiste em um desafio em que artistas devem 
    representar um desenho em segundos sem perder as principais características 
    que o tornam fiel ao desenho original. À medida que o tempo é reduzido, o 
    artista se encaminha a produzir um desenho mais simples, se aproximando de 
    um desenho contendo apenas os traços mais representativos, focando nos 
    contornos. Para o problema de detecção de contorno, uma imagem de borda 
    representa um desenho produzido sem uma grande limitação de tempo. Assim, o 
    método proposto faz uso dos conceitos de superpixel, detecção de bordas e 
    mapas de saliência para produção de uma imagem, simulando a variação de 
    tempo do Speed Drawing Challenge: a modelagem do desafio em poucos segundos 
    expressa uma imagem com apenas os contorno mais relevantes detectados. 
    Diferente das técnicas do estado-da-arte, o método proposto gera uma imagem 
    de bordas já final, sem necessidade de posterior pós-processamento como 
    binarização. Mais do que um algoritmo apenas, propomos uma metodologia que 
    pode ser aplicada de formas diferentes, mas seguindo a mesma ideia, em 
    outros domínios, como na segmentação de mapas e plantas baixas. Os 
    resultados alcançados foram bastante promissores quando o método é aplicado 
    a imagens de cenas naturais e plantas baixas.

20
  • JEFERSON KENEDY MORAIS VIEIRA
  •                 Observatórios de Projetos: Um Modelo Conceitual

  • Orientador : HERMANO PERRELLI DE MOURA
  • MEMBROS DA BANCA :
  • EDSON LUIZ RICCIO
  • DORZELI SALETE TRZECIAK
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • DANIEL CARVALHO DA CUNHA
  • JOSE ADSON OLIVEIRA GUEDES DA CUNHA
  • Data: 01/04/2022

  • Mostrar Resumo
  • A transparência tem sido utilizada pelos teóricos como o construto mais 
    recente na tentativa de compreender a observação no contexto do 
    gerenciamento. A literatura aponta que o desenvolvimento de ferramentas 
    para sistematizar essa transparência tem se apresentado como um desafio 
    para as organizações. Nesse sentido, os observatórios são apresentados como 
    sistemas de informação que podem apoiar a observação e, consequentemente, a 
    transparência nas mais diversas áreas do conhecimento, tais como, saúde, 
    meio ambiente, mídias sociais, cidades, web, entre outros. Além disso, os 
    projetos e seu gerenciamento também podem se beneficiar do desenvolvimento 
    de observatórios. Esse uso dos observatórios nas mais variadas áreas de 
    conhecimento tem agregado a eles uma característica relevante, a 
    diversidade tipológica. Isso fez surgir a necessidade de desenvolver 
    modelos que auxiliem na conceituação e concepção desses observatórios, 
    respeitando as especificidades dos seus contextos de aplicação. A partir 
    dessa conjuntura, este trabalho tem como objetivo principal a proposição de 
    um modelo conceitual para observatórios de projetos, contemplando aspectos 
    relacionados as suas estruturas, processos e atores envolvidos. Para 
    alcançar o objetivo proposto, esta pesquisa foi conduzida em duas fases: 
    (1) concepção e (2) evolução e avaliação. A fase de concepção, que deu 
    origem a primeira versão do modelo, contemplou a realização de uma revisão 
    ad hoc da literatura e de um mapeamento sistemático da literatura sobre 
    observatórios, além do desenvolvimento de dez projetos-pilotos de 
    observatórios de projetos. Durante a segunda fase, o modelo foi avaliado e 
    evoluído em mais três versões, a partir da execução de três grupos focais, 
    um survey e um estudo de múltiplos casos. A versão final do modelo, 
    denominada Model for Projects Observatories (MPO), está organizada a partir 
    de um conjunto de 61 conceitos estruturados em três níveis hierárquicos 
    (conceitos gerais, intermediários e específicos). Para cada um desses 
    conceitos é apresentada uma definição e, para o caso dos conceitos 
    específicos, uma priorização é proposta, além disso, um cenário de uso 
    também é apresentado. A contribuição mais relevante deste trabalho de 
    pesquisa reside na proposição do MPO, um modelo conceitual que pode 
    contribuir tanto para a compreensão como para o desenvolvimento de 
    observatórios de projetos.


  • Mostrar Abstract
  • Ao trigésimo dia do mês de setembro do ano de dois mil e vinte, às catorze horas e trinta minutos, no Centro de Informática da Universidade Federal de Pernambuco, teve início a defesa de Proposta de Tese de Doutorado em Ciência da Computação do aluno Jeferson Kenedy Morais Vieira intitulada MPO: A Model for Projects Observatories” elaborada sob a orientação do professor Hermano Perrelli de Moura. A Banca Examinadora, composta pelos professores Alexandre Marcos Lins de Vasconcelos, Daniel Carvalho da Cunha, ambos pertencentes ao Centro de Informática desta Universidade e Edson Luiz Riccio pertencente ao Departamento de Contabilidade Atuária da Universidade de São Paulo, sendo o primeiro presidente da Banca Examinadora decidiu: Aprovar o trabalho. E para constar lavrei a presente ata que vai por mim assinada e pela Banca Examinadora. Recife, 30 de setembro de 2020.

21
  • ANDREA MARIA NOGUEIRA CAVALCANTI RIBEIRO
  • Gerenciamento de energia elétrica de uma indústria de resinas termoplásticas

  • Orientador : DJAMEL FAWZI HADJ SADOK
  • MEMBROS DA BANCA :
  • ALUIZIO FAUSTO RIBEIRO ARAUJO
  • EDUARDO JAMES PEREIRA SOUTO
  • GLAUCO ESTACIO GONÇALVES
  • GUSTAVO MEDEIROS DE SOUZA AZEVEDO
  • NELSON SOUTO ROSA
  • Data: 01/04/2022

  • Mostrar Resumo
  • A eletricidade se tornou uma das principais fontes de calor e de força nas 
    indústrias, representando um percentual importante nos custos da produção.       
    É possível afirmar que no contexto mundial o setor industrial é o maior 
    consumidor de energia elétrica e a fabricação com uso de energia-intensiva 
    é o maior componente desse setor. No contexto nacional o consumo de energia 
    elétrica pelas indústrias atualmente representa 35% do consumo total de 
    energia consumida no país. A busca por uma melhor eficiência energética 
    pelo setor industrial, vem tornando, cada vez mais frequente. O uso de 
    dispositivos de Internet of Things (IoT), energias renováveis, 
    gerenciamento e monitoramento de energia, bem como Inteligência Artificial 
    (IA) são alternativas para alcançar a redução e o consumo consciente da 
    energia elétrica. Desta forma, esta pesquisa de doutorado teve como 
    objetivo o desenvolvimento de um framework de gerenciamento de energia 
    elétrica em uma indústria de resinas termoplásticas. O framework recebe 
    como entrada dados de variáveis elétricas e variáveis de processo da planta 
    industrial e produz como saída informações para auxiliar a tomada de 
    decisão: gráficos com a predição do identificador de desempenho energético; 
    alertas; faixas de vazão de produção e tempo de produção; retorno do 
    investimento de um dado equipamento ou material, entre outros. O 
    processamento desses dados é realizado através da integração entre três 
    modelos baseados em técnicas de IA, otimização linear e lei da afinidade - 
    modelo de predição do consumo de energia elétrica, escalonamento da vazão 
    de produção e viabilidade de materiais e equipamentos. Para validação do 
    framework um estudo de caso foi realizado e foi verificado uma economia de 
    9,74% oriunda da aplicação do modulo de escalonamento e uma economia mensal 
    de aproximadamente R$ 9.000 oriunda do módulo de viabilidade. Além disso, o 
    framework contribuiu para a manutenção do certificado da ISO 50001.


  • Mostrar Abstract
  • A eletricidade se tornou uma das principais fontes de calor e de força nas 
    indústrias, representando um percentual importante nos custos da produção.       
    É possível afirmar que no contexto mundial o setor industrial é o maior 
    consumidor de energia elétrica e a fabricação com uso de energia-intensiva 
    é o maior componente desse setor. No contexto nacional o consumo de energia 
    elétrica pelas indústrias atualmente representa 35% do consumo total de 
    energia consumida no país. A busca por uma melhor eficiência energética 
    pelo setor industrial, vem tornando, cada vez mais frequente. O uso de 
    dispositivos de Internet of Things (IoT), energias renováveis, 
    gerenciamento e monitoramento de energia, bem como Inteligência Artificial 
    (IA) são alternativas para alcançar a redução e o consumo consciente da 
    energia elétrica. Desta forma, esta pesquisa de doutorado teve como 
    objetivo o desenvolvimento de um framework de gerenciamento de energia 
    elétrica em uma indústria de resinas termoplásticas. O framework recebe 
    como entrada dados de variáveis elétricas e variáveis de processo da planta 
    industrial e produz como saída informações para auxiliar a tomada de 
    decisão: gráficos com a predição do identificador de desempenho energético; 
    alertas; faixas de vazão de produção e tempo de produção; retorno do 
    investimento de um dado equipamento ou material, entre outros. O 
    processamento desses dados é realizado através da integração entre três 
    modelos baseados em técnicas de IA, otimização linear e lei da afinidade - 
    modelo de predição do consumo de energia elétrica, escalonamento da vazão 
    de produção e viabilidade de materiais e equipamentos. Para validação do 
    framework um estudo de caso foi realizado e foi verificado uma economia de 
    9,74% oriunda da aplicação do modulo de escalonamento e uma economia mensal 
    de aproximadamente R$ 9.000 oriunda do módulo de viabilidade. Além disso, o 
    framework contribuiu para a manutenção do certificado da ISO 50001.

22
  • CECILIA CORDEIRO DA SILVA
  • Uma metodologia para construção de preditores de doenças baseada em 
    Aprendizado de Máquina, Computação Bioinspirada e Análise Espaço-Temporal

  • Orientador : ABEL GUILHERMINO DA SILVA FILHO
  • MEMBROS DA BANCA :
  • ANA LUCIA BEZERRA CANDEIAS
  • GISELLE MACHADO MAGALHAES MORENO
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • MANOEL EUSEBIO DE LIMA
  • TIAGO LIMA MASSONI
  • Data: 20/06/2022

  • Mostrar Resumo
  • Em um mundo cada vez mais conectado por meio de vias físicas e virtuais, 
    pessoas e dados circulam com cada vez mais facilidade. As mudanças 
    demográficas e o intenso fluxo migratório das zonas rurais para as regiões 
    urbanas geraram um crescimento desordenado das cidades. Isso combinado à 
    ausência de boas condições de saneamento básico contribui para a 
    proliferação do vetor. A emergência de surtos epidêmicos, como a dengue, a 
    febre chikungunya, a zika e outras doenças tem contribuído para construir 
    um cenário cada vez mais desafiador. A recente pandemia de Covid-19 trouxe 
    grandes mudanças em escala mundial. Nesse cenário, cresceu fortemente o 
    interesse por técnicas para predição espacial e temporal da distribuição de 
    doenças a partir de tecnologias como a Internet das Coisas, aprendizado de 
    máquina e múltiplas bases de dados. Este trabalho tem como objetivo geral 
    propor uma metodologia para construção de preditores capazes de prever a 
    distribuição espaço-temporal de doenças e apontar os fatores mais 
    relevantes para a predição a partir de uma arquitetura baseada no acesso a 
    múltiplas bases de dados. Para validação da proposta, foi adotada como 
    estudo de caso a predição de casos de arboviroses por meio de séries 
    históricas georreferenciadas de informações climáticas e ambientais 
    utilizando técnicas de aprendizado de máquina. Essas informações são 
    coletadas de múltiplos bancos de dados georreferenciados, previamente 
    construídos a partir da coleta de informações por redes de sensores e do 
    Sistema Único de Saúde. Foram utilizadas informações da Cidade do Recife, 
    de casos de arboviroses (dengue, chikungunya e zika) de 2013 a 2016, e 
    informações climáticas e ambientais do mesmo período, da APAC e doINMET. 
    Os sistemas de predição de doenças construídos utilizando a metodologia 
    proposta neste trabalho também devem ser capazes de apontar os fatores mais 
    relevantes para a predição por meio do Comitê de Especialistas Artificiais, 
    proposto neste trabalho e composto de um conjunto de algoritmos de seleção 
    de atributos baseados em métodos de otimização por Computação 
    Evolucionária. O Comitê de Especialistas Artificiais decide por votação. Os 
    melhores resultados de predição de casos foram obtidos com regressão por 
    Random Forest. Os valores do coeficiente de correlação de Pearson foram 
    superiores a 0,99, enquanto o RMSE (%) se manteve inferior a 6%. Os índices 
    de Kendall e Spearman também se mantiveram altos: seus valores foram 
    superiores a 0,99 para Spearman e maiores que 0,90 para Kendall. O 
    desempenho superior da Random Forest mostra que o problema de regressão é 
    de difícil generalização, dado que a Random Forest é baseada em comitês de 
    árvores de decisão e a regressão é realizada por uma média ponderada dos 
    resultados das diferentes árvores de decisão que compõem o modelo.


  • Mostrar Abstract
  • Em um mundo cada vez mais conectado por meio de vias físicas e virtuais, 
    pessoas e dados circulam com cada vez mais facilidade. As mudanças 
    demográficas e o intenso fluxo migratório das zonas rurais para as regiões 
    urbanas geraram um crescimento desordenado das cidades. Isso combinado à 
    ausência de boas condições de saneamento básico contribui para a 
    proliferação do vetor. A emergência de surtos epidêmicos, como a dengue, a 
    febre chikungunya, a zika e outras doenças tem contribuído para construir 
    um cenário cada vez mais desafiador. A recente pandemia de Covid-19 trouxe 
    grandes mudanças em escala mundial. Nesse cenário, cresceu fortemente o 
    interesse por técnicas para predição espacial e temporal da distribuição de 
    doenças a partir de tecnologias como a Internet das Coisas, aprendizado de 
    máquina e múltiplas bases de dados. Este trabalho tem como objetivo geral 
    propor uma metodologia para construção de preditores capazes de prever a 
    distribuição espaço-temporal de doenças e apontar os fatores mais 
    relevantes para a predição a partir de uma arquitetura baseada no acesso a 
    múltiplas bases de dados. Para validação da proposta, foi adotada como 
    estudo de caso a predição de casos de arboviroses por meio de séries 
    históricas georreferenciadas de informações climáticas e ambientais 
    utilizando técnicas de aprendizado de máquina. Essas informações são 
    coletadas de múltiplos bancos de dados georreferenciados, previamente 
    construídos a partir da coleta de informações por redes de sensores e do 
    Sistema Único de Saúde. Foram utilizadas informações da Cidade do Recife, 
    de casos de arboviroses (dengue, chikungunya e zika) de 2013 a 2016, e 
    informações climáticas e ambientais do mesmo período, da APAC e doINMET. 
    Os sistemas de predição de doenças construídos utilizando a metodologia 
    proposta neste trabalho também devem ser capazes de apontar os fatores mais 
    relevantes para a predição por meio do Comitê de Especialistas Artificiais, 
    proposto neste trabalho e composto de um conjunto de algoritmos de seleção 
    de atributos baseados em métodos de otimização por Computação 
    Evolucionária. O Comitê de Especialistas Artificiais decide por votação. Os 
    melhores resultados de predição de casos foram obtidos com regressão por 
    Random Forest. Os valores do coeficiente de correlação de Pearson foram 
    superiores a 0,99, enquanto o RMSE (%) se manteve inferior a 6%. Os índices 
    de Kendall e Spearman também se mantiveram altos: seus valores foram 
    superiores a 0,99 para Spearman e maiores que 0,90 para Kendall. O 
    desempenho superior da Random Forest mostra que o problema de regressão é 
    de difícil generalização, dado que a Random Forest é baseada em comitês de 
    árvores de decisão e a regressão é realizada por uma média ponderada dos 
    resultados das diferentes árvores de decisão que compõem o modelo.

23
  • DAVID LOPES DE MACEDO
  • Towards Robust Deep Learning usingEntropic Losses

  • Orientador : TERESA BERNARDA LUDERMIR
  • MEMBROS DA BANCA :
  • RICARDO MATSUMURA DE ARAÚJO
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • BYRON LEITE DANTAS BEZERRA
  • JOÃO FAUSTO LORENZATO DE OLIVEIRA
  • TSANG ING REN
  • Data: 27/06/2022

  • Mostrar Resumo
  • Apesar das conquistas teóricas e resultados práticos encorajadores, o aprendizado profundo ainda apresenta limitações em muitas áreas, como raciocínio, inferência causal, interpretabilidade e explicabilidade. Do ponto de vista da aplicação, uma das restrições mais impactantes está relacionada à robustez desses sistemas. De fato, as soluções atuais de aprendizado profundo são bem conhecidas por não informar se podem classificar um exemplo de maneira confiável durante a inferência. As redes neurais modernas geralmente são superconfiantes, mesmo quando estão erradas. Portanto, construir aplicativos robustos de aprendizado profundo é atualmente um tópico de pesquisa de ponta em visão computacional, processamento de linguagem natural e muitas outras áreas. Uma das maneiras mais eficazes de construir soluções de aprendizado profundo mais confiáveis é melhorar seu desempenho na chamada tarefa de detecção fora de distribuição, que consiste essencialmente em ``saber que você não sabe'' ou ``conhecer o desconhecido''. Em outras palavras, sistemas com capacidade de detecção fora de distribuição podem rejeitar a realização de uma classificação sem sentido quando submetidos a instâncias de classes nas quais a rede neural não foi treinada. Esta tese aborda a desafiadora tarefa de detecção fora da distribuição, propondo novas funções de perda e pontuações de detecção. A estimativa de incerteza também é uma tarefa auxiliar crucial na construção de sistemas de aprendizado profundo mais robustos. Portanto, tratamos também dessa tarefa relacionada à robustez, que avalia quão realistas são as probabilidades apresentadas pela rede neural profunda. Para demonstrar a eficácia de nossa abordagem, além de um conjunto substancial de experimentos, que incluí resultados estado-da-arte, utilizamos argumentos baseados no princípio da máxima entropia para estabelecer a fundamentação teórica das abordagens propostas. Ao contrário da maioria dos métodos atuais, além de apresentarem inferência rápida e eficiente, nossas perdas e pontuações são soluções baseadas em princípios e não produzem efeitos colaterais indesejados. Além disso, nossas abordagens podem ser incorporadas em projetos atuais e futuros simplesmente substituindo a perda usada para treinar a rede neural profunda e computando uma pontuação rápida para detecção.


  • Mostrar Abstract
  • Apesar das conquistas teóricas e resultados práticos encorajadores, o aprendizado profundo ainda apresenta limitações em muitas áreas, como raciocínio, inferência causal, interpretabilidade e explicabilidade. Do ponto de vista da aplicação, uma das restrições mais impactantes está relacionada à robustez desses sistemas. De fato, as soluções atuais de aprendizado profundo são bem conhecidas por não informar se podem classificar um exemplo de maneira confiável durante a inferência. As redes neurais modernas geralmente são superconfiantes, mesmo quando estão erradas. Portanto, construir aplicativos robustos de aprendizado profundo é atualmente um tópico de pesquisa de ponta em visão computacional, processamento de linguagem natural e muitas outras áreas. Uma das maneiras mais eficazes de construir soluções de aprendizado profundo mais confiáveis é melhorar seu desempenho na chamada tarefa de detecção fora de distribuição, que consiste essencialmente em ``saber que você não sabe'' ou ``conhecer o desconhecido''. Em outras palavras, sistemas com capacidade de detecção fora de distribuição podem rejeitar a realização de uma classificação sem sentido quando submetidos a instâncias de classes nas quais a rede neural não foi treinada. Esta tese aborda a desafiadora tarefa de detecção fora da distribuição, propondo novas funções de perda e pontuações de detecção. A estimativa de incerteza também é uma tarefa auxiliar crucial na construção de sistemas de aprendizado profundo mais robustos. Portanto, tratamos também dessa tarefa relacionada à robustez, que avalia quão realistas são as probabilidades apresentadas pela rede neural profunda. Para demonstrar a eficácia de nossa abordagem, além de um conjunto substancial de experimentos, que incluí resultados estado-da-arte, utilizamos argumentos baseados no princípio da máxima entropia para estabelecer a fundamentação teórica das abordagens propostas. Ao contrário da maioria dos métodos atuais, além de apresentarem inferência rápida e eficiente, nossas perdas e pontuações são soluções baseadas em princípios e não produzem efeitos colaterais indesejados. Além disso, nossas abordagens podem ser incorporadas em projetos atuais e futuros simplesmente substituindo a perda usada para treinar a rede neural profunda e computando uma pontuação rápida para detecção.

24
  • RODRIGO GOMES DE SOUZA
  • Seleção automática de fatias em volumes de imagens tomográficas: 
    Estudo de caso no apoio ao diagnóstico da Doença de Alzheimer

  • Orientador : MANOEL EUSEBIO DE LIMA
  • MEMBROS DA BANCA :
  • ABEL GUILHERMINO DA SILVA FILHO
  • GISELLE MACHADO MAGALHAES MORENO
  • MARCELO CAIRRAO ARAUJO RODRIGUES
  • RICARDO EMMANUEL DE SOUZA
  • SIDNEY MARLON LOPES DE LIMA
  • Data: 30/06/2022

  • Mostrar Resumo
  • Com o advento da Quarta Revolução Industrial, as tecnologias da Indústria 4.0 têm acele-
    rado o processo de transformação digital dos sistemas nacionais de saúde, tanto públicos
    quanto complementares, incorporando a Inteligência Artificial, a Internet das Coisas, a
    Robótica e a Biotecnologia à prática clínica, terapêutica e de gestão de recursos em saúde.
    Com a pandemia de Covid-19, também se intensificou o uso de técnicas avançadas de
    diagnóstico por imagem. Apesar da sofisticação do diagnóstico por imagem por conta da
    possibilidade de gerar laudos rápidos e precisos, esses exames exigem um alto conheci-
    mento especialista. Contudo, a dependência do conhecimento especialista humano pode
    acarretar em diagnósticos tardios e, por conseguinte, maus prognósticos. Esse problema é
    especialmente mais grave quando se consideram imagens volumétricas: estruturas associ-
    adas a determinadas doenças com bons prognósticos quando detectadas precocemente
    podem ser ignoradas até mesmo por especialistas com grande experiência, por razões
    diversas, incluindo aí a fadiga humana, dada a complexidade envolvida na análise humana
    de volumes. Devido ao potencial dos impactos à saude pública e à economia de forma geral, a Doença de Alzheimer, DA, tornou-se um dos maiores desafios à ciência na última década. Contudo, grande parte dos estudos que propõem métodos de suporte ao diagnóstico da doença apresentam dificuldades para sua adoção na prática clínica. Este trabalho tem como objetivo geral construir uma metodologia para selecionar planos de visualização e cortes ou fatias em imagens biomédicas volumétricas, de forma que se otimize o diagnóstico por meio da transformação de um problema tridimensional em bidimensional. A seleção da fatia e dos planos de visualização é feita com o auxílio de um algoritmo evolucionário guiado por um classificador. Como estudo de caso, foi escolhido o problema do apoio ao diagnóstico da doença de Alzheimer. Utilizando volumes MRI da base ADNI-3, este estudo apresenta um modelo baseado em computação evolucionária e aprendizado de máquina capaz de identificar e utilizar o conjunto de fatias 2D mais adequado para maximizar cada uma das métrica relacionadas ao diagnóstico da doença de Alzheimer. Por meio de uma seleção ótima de fatias os melhores resultados para especificidade, sensibilidade e acurácia obtidos em cada classe foram respectivamente: normal (94,58%, 81,08%, 86.64%), déficit cognitivo leve (94,83%, 89,32%, 89,89%) e Alzheimer (92,99%, 92,06%, 90,61%) para mulheres, e normal (91,93%, 93,42%, 91.30%), déficit cognitivo leve (98,17%, 80,53%, 86,29%) e Alzheimer (95,86%, 90,91%, 94,31%) para homens. Assim, este trabalho apresenta um modelo para apoiar o diagnóstico de doença de Alzheimer e déficit cognitivo leve, apresentando bom desempenho de classificação, considerando também as informações de gênero para produzir melhorias significativas no diagnóstico da doença de Alzheimer.


  • Mostrar Abstract
  • Com o advento da Quarta Revolução Industrial, as tecnologias da Indústria 4.0 têm acele-
    rado o processo de transformação digital dos sistemas nacionais de saúde, tanto públicos
    quanto complementares, incorporando a Inteligência Artificial, a Internet das Coisas, a
    Robótica e a Biotecnologia à prática clínica, terapêutica e de gestão de recursos em saúde.
    Com a pandemia de Covid-19, também se intensificou o uso de técnicas avançadas de
    diagnóstico por imagem. Apesar da sofisticação do diagnóstico por imagem por conta da
    possibilidade de gerar laudos rápidos e precisos, esses exames exigem um alto conheci-
    mento especialista. Contudo, a dependência do conhecimento especialista humano pode
    acarretar em diagnósticos tardios e, por conseguinte, maus prognósticos. Esse problema é
    especialmente mais grave quando se consideram imagens volumétricas: estruturas associ-
    adas a determinadas doenças com bons prognósticos quando detectadas precocemente
    podem ser ignoradas até mesmo por especialistas com grande experiência, por razões
    diversas, incluindo aí a fadiga humana, dada a complexidade envolvida na análise humana
    de volumes. Devido ao potencial dos impactos à saude pública e à economia de forma geral, a Doença de Alzheimer, DA, tornou-se um dos maiores desafios à ciência na última década. Contudo, grande parte dos estudos que propõem métodos de suporte ao diagnóstico da doença apresentam dificuldades para sua adoção na prática clínica. Este trabalho tem como objetivo geral construir uma metodologia para selecionar planos de visualização e cortes ou fatias em imagens biomédicas volumétricas, de forma que se otimize o diagnóstico por meio da transformação de um problema tridimensional em bidimensional. A seleção da fatia e dos planos de visualização é feita com o auxílio de um algoritmo evolucionário guiado por um classificador. Como estudo de caso, foi escolhido o problema do apoio ao diagnóstico da doença de Alzheimer. Utilizando volumes MRI da base ADNI-3, este estudo apresenta um modelo baseado em computação evolucionária e aprendizado de máquina capaz de identificar e utilizar o conjunto de fatias 2D mais adequado para maximizar cada uma das métrica relacionadas ao diagnóstico da doença de Alzheimer. Por meio de uma seleção ótima de fatias os melhores resultados para especificidade, sensibilidade e acurácia obtidos em cada classe foram respectivamente: normal (94,58%, 81,08%, 86.64%), déficit cognitivo leve (94,83%, 89,32%, 89,89%) e Alzheimer (92,99%, 92,06%, 90,61%) para mulheres, e normal (91,93%, 93,42%, 91.30%), déficit cognitivo leve (98,17%, 80,53%, 86,29%) e Alzheimer (95,86%, 90,91%, 94,31%) para homens. Assim, este trabalho apresenta um modelo para apoiar o diagnóstico de doença de Alzheimer e déficit cognitivo leve, apresentando bom desempenho de classificação, considerando também as informações de gênero para produzir melhorias significativas no diagnóstico da doença de Alzheimer.

25
  • MICHAEL OLIVEIRA DA CRUZ
  • Applying Language Modeling to Detect Anomalies in Bus Trajectories

  • Orientador : LUCIANO DE ANDRADE BARBOSA
  • MEMBROS DA BANCA :
  • CLODOVEU AUGUSTO DAVIS JUNIOR
  • CLAUDIO DE SOUZA BAPTISTA
  • JOSE ANTONIO FERNANDES DE MACEDO
  • KIEV SANTOS DA GAMA
  • PAULO SALGADO GOMES DE MATTOS NETO
  • Data: 01/07/2022

  • Mostrar Resumo
  • A descoberta de trajetórias anômalas de ônibus no tráfego urbano pode ajudar as agências de transporte a melhorar seus serviços, fornecendo um melhor planejamento para lidar com eventos inesperados, como fenômenos climáticos, desvios ou acidentes. Para ajudar a identificar a causa potencial da anomalia, podemos detectar trajetórias anômalas e também identificar onde a anomalia está localizada.
    No entanto, um grande desafio para realizar esta tarefa é a falta de dados de trajetória anômala rotulados. A falta desses dados rotulados dificulta a avaliação de modelos e a construção de abordagens de aprendizagem indutivas. Além disso, as abordagens anteriores dependem fortemente de tarefas de pré-processamento para segmentar trajetórias antes de detectar a anomalia. Essa estratégia não é apenas cara, mas também pode perder informações importantes porque os segmentos são analisados individualmente sem considerar o relacionamento entre os segmentos. Por fim, poucas estratégias na literatura propõem soluções online, o que restringe sua contribuição em tempo real. Com base nisso, esta tese tem como objetivo propor uma abordagem online
    baseado em aprendizado indutivo para detectar trajetórias anômalas de ônibus e identificar os segmentos anômalos. Para isso, inicialmente observamos que as trajetórias de ônibus são pré-definidas e bem formadas, e incluem a informação de rotas. Com base nisso, supomos que uma abordagem supervisionada poderia aprender a classificar essas trajetórias de ônibus de acordo com as rotas e detectar indiretamente quais delas são anômalas. Assim, propomos um classificador multiclasse chamado Spatial-Temporal Outlier Detection como nossa primeira solução para detectar trajetórias anômalas. Usamos a incerteza da classificação aplicando a função de entropia sobre a distribuição de classes para gerar um score de anomalia. Embora experimentos extensivos tenham mostrado resultados promissores, nossa primeira solução não pode identificar onde ocorrem os segmentos anômalos. Para superar essa restrição, nossa intuição é que as trajetórias podem ser representadas como uma sequência de tokens semelhantes a
    frases de palavras que nos permitem aplicar um modelo de linguagem. Consequentemente, propomos usar uma abordagem baseada na arquitetura generativa de redes neuronais profundas chamada encoder-decoder Transformer para aprender a relação entre pontos de trajetória sequenciais com base no mecanismo de autoatenção. Nossa solução final não requer nenhuma extração manual de recursos e pode ser facilmente adaptada a outros tipos de trajetórias (por exemplo, carro, pessoas e embarcações). Realizamos uma extensa avaliação experimental que mostra: (1) nossa abordagem é eficaz para detecção de anomalias de trajetória e subtrajetória; e (2) supera os métodos usados para comparação em alguns cenários e alcança estatisticamente resultados comparáveis em outros cenários.


  • Mostrar Abstract
  • A descoberta de trajetórias anômalas de ônibus no tráfego urbano pode ajudar as agências de transporte a melhorar seus serviços, fornecendo um melhor planejamento para lidar com eventos inesperados, como fenômenos climáticos, desvios ou acidentes. Para ajudar a identificar a causa potencial da anomalia, podemos detectar trajetórias anômalas e também identificar onde a anomalia está localizada.
    No entanto, um grande desafio para realizar esta tarefa é a falta de dados de trajetória anômala rotulados. A falta desses dados rotulados dificulta a avaliação de modelos e a construção de abordagens de aprendizagem indutivas. Além disso, as abordagens anteriores dependem fortemente de tarefas de pré-processamento para segmentar trajetórias antes de detectar a anomalia. Essa estratégia não é apenas cara, mas também pode perder informações importantes porque os segmentos são analisados individualmente sem considerar o relacionamento entre os segmentos. Por fim, poucas estratégias na literatura propõem soluções online, o que restringe sua contribuição em tempo real. Com base nisso, esta tese tem como objetivo propor uma abordagem online
    baseado em aprendizado indutivo para detectar trajetórias anômalas de ônibus e identificar os segmentos anômalos. Para isso, inicialmente observamos que as trajetórias de ônibus são pré-definidas e bem formadas, e incluem a informação de rotas. Com base nisso, supomos que uma abordagem supervisionada poderia aprender a classificar essas trajetórias de ônibus de acordo com as rotas e detectar indiretamente quais delas são anômalas. Assim, propomos um classificador multiclasse chamado Spatial-Temporal Outlier Detection como nossa primeira solução para detectar trajetórias anômalas. Usamos a incerteza da classificação aplicando a função de entropia sobre a distribuição de classes para gerar um score de anomalia. Embora experimentos extensivos tenham mostrado resultados promissores, nossa primeira solução não pode identificar onde ocorrem os segmentos anômalos. Para superar essa restrição, nossa intuição é que as trajetórias podem ser representadas como uma sequência de tokens semelhantes a
    frases de palavras que nos permitem aplicar um modelo de linguagem. Consequentemente, propomos usar uma abordagem baseada na arquitetura generativa de redes neuronais profundas chamada encoder-decoder Transformer para aprender a relação entre pontos de trajetória sequenciais com base no mecanismo de autoatenção. Nossa solução final não requer nenhuma extração manual de recursos e pode ser facilmente adaptada a outros tipos de trajetórias (por exemplo, carro, pessoas e embarcações). Realizamos uma extensa avaliação experimental que mostra: (1) nossa abordagem é eficaz para detecção de anomalias de trajetória e subtrajetória; e (2) supera os métodos usados para comparação em alguns cenários e alcança estatisticamente resultados comparáveis em outros cenários.

2021
Dissertações
1
  • ESAU BERMUDEZ SANCHEZ
  • UM ESTUDO DE CONSUMO DE ENERGIA DE LoRaWAN

  • Orientador : DJAMEL FAWZI HADJ SADOK
  • MEMBROS DA BANCA :
  • NELSON SOUTO ROSA
  • DJAMEL FAWZI HADJ SADOK
  • GLAUCO ESTACIO GONÇALVES
  • Data: 10/06/2021

  • Mostrar Resumo
  • No universo da Internet das Coisas (UIoT), LoRa e seu protocolo LoRaWAN tornaram tecnologias representativas em Redes de baixa potência e longa distância (LPWAN). Neste dissertação se discute o protocolo LoRaWAN, que funciona no espectro que está abaixo de um Giga Hertz. A análise começa com uma visão geral de seu alcance, desempenho, tempo útil para carga e comparações de alguns de seus processos e desempenho. Por outro lado, o conceito de consumo de energia em LPWANs é abordado também, já que é um dos tópicos mais comentados e ganhou interesse especial neste tipo de tecnologia. O consumo de energia em LPWANs, como em LoRaWAN, desempenha um papel importante na determinação da vida útil em redes de sensores sem fio. A dissertação, examina o uso de diferentes tecnologias de baterias e o impacto das camadas de controle de acesso ao meio (MAC) e física (PHY). Examinamos o impacto de parâmetros como fator de propagação, detecção de atividade de canal, Taxa de código e frequências de canal no consumo de energia. Entre as métricas que monitoramos neste cenário, a eficiência energética e seu impacto na vida útil da bateria para um melhor desempenho. Nós descobrimos que ambas as tecnologias descarregam de maneiras semelhantes, enquanto as baterias de lítio duram mais tempo e são mais econômicas. A análise é realizada com a plataforma CupCarbon, uma vez que possui um ambiente gráfico muito amigável e seu resultado final está de acordo com o que é necessário para este tipo de tecnologia.


  • Mostrar Abstract
  • No universo da Internet das Coisas (UIoT), LoRa e seu protocolo LoRaWAN tornaram tecnologias representativas em Redes de baixa potência e longa distância (LPWAN). Neste dissertação se discute o protocolo LoRaWAN, que funciona no espectro que está abaixo de um Giga Hertz. A análise começa com uma visão geral de seu alcance, desempenho, tempo útil para carga e comparações de alguns de seus processos e desempenho. Por outro lado, o conceito de consumo de energia em LPWANs é abordado também, já que é um dos tópicos mais comentados e ganhou interesse especial neste tipo de tecnologia. O consumo de energia em LPWANs, como em LoRaWAN, desempenha um papel importante na determinação da vida útil em redes de sensores sem fio. A dissertação, examina o uso de diferentes tecnologias de baterias e o impacto das camadas de controle de acesso ao meio (MAC) e física (PHY). Examinamos o impacto de parâmetros como fator de propagação, detecção de atividade de canal, Taxa de código e frequências de canal no consumo de energia. Entre as métricas que monitoramos neste cenário, a eficiência energética e seu impacto na vida útil da bateria para um melhor desempenho. Nós descobrimos que ambas as tecnologias descarregam de maneiras semelhantes, enquanto as baterias de lítio duram mais tempo e são mais econômicas. A análise é realizada com a plataforma CupCarbon, uma vez que possui um ambiente gráfico muito amigável e seu resultado final está de acordo com o que é necessário para este tipo de tecnologia.

2
  • JOHN JAIRO DOMINGUEZ
  • RELAÇÃO ENTRE O GÊNERO TEXTUAL DIGITAL E O PENSAMENTO CRÍTICO

  • Orientador : ALEX SANDRO GOMES
  • MEMBROS DA BANCA :
  • ROSSANA VIANA GAIA
  • ALEX SANDRO GOMES
  • RICARDO MASSA FERREIRA LIMA
  • Data: 28/06/2021

  • Mostrar Resumo
  • Uma das competências específicas necessárias para enfrentar desafios 
    globais complexos é, sem dúvida, o pensamento crítico, razão pela qual nos 
    princípios dos projetos de programas de aprendizagem em rede há uma 
    motivação para desenvolver esse tipo de habilidade. No entanto, ela não foi 
    desenvolvida totalmente devido, entre outros fatores, ao fato de os modelos 
    pedagógicos dos cursos on-line tenderem a ser excessivamente homogêneos, 
    descontextualizados, despersonalizados e individualistas. Verifica-se, 
    ainda, que muitos desses cursos apresentam, frequentemente, uma sequência 
    rígida de conteúdos, com ferramentas de socialização muito limitadas e 
    processos de avaliação altamente estruturados. Desse modo, o presente 
    estudo tem como objetivo identificar as relações entre as estratégias 
    utilizadas durante as discussões assíncronas baseadas em texto, por meio de 
    Ambiente Virtual de Aprendizagem (AVA) e sua relação com o pensamento 
    crítico de estudantes do ensino médio. A partir do método de triangulação, 
    foram observados dados com diferentes naturezas para identificar relações 
    entre estratégias de comunicação na rede educacional Redu. Assim, o 
    propósito da análise foi verificar de que modo as interações assíncronas, 
    eventualmente, deram suporte à estruturação de situações para promover o 
    desenvolvimento do pensamento crítico, bem como identificar as limitações 
    da plataforma para apoiar o progresso dessa habilidade. Os resultados 
    evidenciaram que existe uma dissociação entre o desenho dos Ambientes 
    Virtuais de Aprendizagem e as metodologias usadas pelos professores para 
    estimular o desenvolvimento do pensamento crítico. Verificou-se, também, 
    que os ritmos e estilos de aprendizagem são outra variável desconsiderada 
    nos ambientes de aprendizagem. Isto ocorre porque tais ambientes favorecem 
    somente a um tipo de estudante, com determinadas características. 
    Finalmente, os resultados obtidos destacam que um dos métodos de maior 
    contribuição para desenvolver competências do raciocínio de alto nível é a 
    pergunta.


  • Mostrar Abstract
  • Uma das competências específicas necessárias para enfrentar desafios 
    globais complexos é, sem dúvida, o pensamento crítico, razão pela qual nos 
    princípios dos projetos de programas de aprendizagem em rede há uma 
    motivação para desenvolver esse tipo de habilidade. No entanto, ela não foi 
    desenvolvida totalmente devido, entre outros fatores, ao fato de os modelos 
    pedagógicos dos cursos on-line tenderem a ser excessivamente homogêneos, 
    descontextualizados, despersonalizados e individualistas. Verifica-se, 
    ainda, que muitos desses cursos apresentam, frequentemente, uma sequência 
    rígida de conteúdos, com ferramentas de socialização muito limitadas e 
    processos de avaliação altamente estruturados. Desse modo, o presente 
    estudo tem como objetivo identificar as relações entre as estratégias 
    utilizadas durante as discussões assíncronas baseadas em texto, por meio de 
    Ambiente Virtual de Aprendizagem (AVA) e sua relação com o pensamento 
    crítico de estudantes do ensino médio. A partir do método de triangulação, 
    foram observados dados com diferentes naturezas para identificar relações 
    entre estratégias de comunicação na rede educacional Redu. Assim, o 
    propósito da análise foi verificar de que modo as interações assíncronas, 
    eventualmente, deram suporte à estruturação de situações para promover o 
    desenvolvimento do pensamento crítico, bem como identificar as limitações 
    da plataforma para apoiar o progresso dessa habilidade. Os resultados 
    evidenciaram que existe uma dissociação entre o desenho dos Ambientes 
    Virtuais de Aprendizagem e as metodologias usadas pelos professores para 
    estimular o desenvolvimento do pensamento crítico. Verificou-se, também, 
    que os ritmos e estilos de aprendizagem são outra variável desconsiderada 
    nos ambientes de aprendizagem. Isto ocorre porque tais ambientes favorecem 
    somente a um tipo de estudante, com determinadas características. 
    Finalmente, os resultados obtidos destacam que um dos métodos de maior 
    contribuição para desenvolver competências do raciocínio de alto nível é a 
    pergunta.

3
  • THIAGO MOURA DA ROCHA BASTOS
  • Avaliação de Filmes Metalizados Por Algoritmos de Aprendizagem de Máquina Através de Dados Operacionais de Processo Industrial e de Qualidade

  • Orientador : CLEBER ZANCHETTIN
  • MEMBROS DA BANCA :
  • LEANDRO MACIEL ALMEIDA
  • CLEBER ZANCHETTIN
  • FREDERICO DUARTE DE MENEZES
  • Data: 30/06/2021

  • Mostrar Resumo
  • Os processos industriais de manufatura são parte importante do revolução 
    tecnológica vivida na atualidade, e o uso da Inteligência Artificial se 
    mostra como alternativa para superar dificuldades enfrentadas por modelos 
    tradicionais de monitoramento e controle destas operações. Esse trabalho 
    objetiva utilizar sistemas baseados em Aprendizagem de Máquina na 
    interpretação e predição de variáveis de processo e qualidade presentes na 
    produção de filmes metalizados por deposição à vácuo. Comparamos diferentes 
    classificadores associados a diversas condições de preprocessamento de 
    dados e hiperparâmetros na predição da qualidade do produto, tendo o modelo 
    Random Forest apresentado o melhor desempenho com 85,4% de acurácia. 
    Utilizando ferramentas de visualização de dados, foram construídos gráficos 
    e visualizações que permitem a interpretação da predição realizada pelos 
    modelos para complementar as métricas de performance. Por outro lado, 
    através da segmentação semântica dos perfis de densidade  ótica dos 
    produtos plásticos, foi possível a identificação de falhas, e o 
    monitoramento da qualidade final dos filmes produzidos através de um modelo 
    de rede neural com 86,67% de acurácia. Além disso, a aplicação das 
    visualizações fornecem auxílio no entendimento e validação dos produtos 
    obtidos no processo de metalização e do impacto de diferentes condições 
    operacionais sobre os produtos manufaturados. Este estudo de caso demostra 
    o potencial de suporte que pode ser oferecido a analistas e operadores na 
    interpretação de variáveis operacionais, uma vez que apresentam informações 
    relevantes para monitoramento e manutenção do processo de metalização de 
    filme por deposição à vácuo.


  • Mostrar Abstract
  • Os processos industriais de manufatura são parte importante do revolução 
    tecnológica vivida na atualidade, e o uso da Inteligência Artificial se 
    mostra como alternativa para superar dificuldades enfrentadas por modelos 
    tradicionais de monitoramento e controle destas operações. Esse trabalho 
    objetiva utilizar sistemas baseados em Aprendizagem de Máquina na 
    interpretação e predição de variáveis de processo e qualidade presentes na 
    produção de filmes metalizados por deposição à vácuo. Comparamos diferentes 
    classificadores associados a diversas condições de preprocessamento de 
    dados e hiperparâmetros na predição da qualidade do produto, tendo o modelo 
    Random Forest apresentado o melhor desempenho com 85,4% de acurácia. 
    Utilizando ferramentas de visualização de dados, foram construídos gráficos 
    e visualizações que permitem a interpretação da predição realizada pelos 
    modelos para complementar as métricas de performance. Por outro lado, 
    através da segmentação semântica dos perfis de densidade  ótica dos 
    produtos plásticos, foi possível a identificação de falhas, e o 
    monitoramento da qualidade final dos filmes produzidos através de um modelo 
    de rede neural com 86,67% de acurácia. Além disso, a aplicação das 
    visualizações fornecem auxílio no entendimento e validação dos produtos 
    obtidos no processo de metalização e do impacto de diferentes condições 
    operacionais sobre os produtos manufaturados. Este estudo de caso demostra 
    o potencial de suporte que pode ser oferecido a analistas e operadores na 
    interpretação de variáveis operacionais, uma vez que apresentam informações 
    relevantes para monitoramento e manutenção do processo de metalização de 
    filme por deposição à vácuo.

4
  • ALUISIO JOSÉ PEREIRA
  • ESPECIFICAÇÃO DE SISTEMA DE RECOMENDAÇÃO A PARTIR DE ANÁLISE DE INTERAÇÕES EM REDE SOCIAL EDUCACIONAL

  • Orientador : ALEX SANDRO GOMES
  • MEMBROS DA BANCA :
  • RICARDO MASSA FERREIRA LIMA
  • ALEX SANDRO GOMES
  • ELISEO BERNI REATEGUI
  • Data: 09/08/2021

  • Mostrar Resumo
  • A especificação de Sistemas de Recomendação Educacional (SRE), atualmente, 
    centra esforços no estudo dos dados relacionais, nas técnicas de 
    aprendizagem de máquina, recuperação e filtragem da informação e nos 
    algoritmos para realizar as recomendações. Esses mecanismos por si só podem 
    não fornecer insumos suficientes para construção de um modelo preciso de 
    recomendação diante de uma heterogeneidade de fatores humanos nas 
    interações dos atores envolvidos no contexto educacional. Sendo assim, o 
    objetivo deste trabalho é especificar uma abordagem de SRE com potenciais 
    mecanismos para estimular a dinâmica de interação entre estudante-professor 
    e conteúdos escolares na Rede Social Educacional (Redu). Para tanto, a 
    pesquisa tem como caráter uma abordagem projetiva a qual adota técnicas 
    quali-quantitativas para analisar o contexto de aplicação e dados gerados 
    por estudantes e professores na utilização do Redu no contexto do 
    aprendizado remoto em uma instituição pública de educação básica do Recife. 
    Foram conduzidas observações presenciais e on-line. Um questionário foi 
    aplicado a 187 estudantes e 62 professores. Foram realizadas análises de 
    agrupamento por uma abordagem não-supervisionada para identificar os níveis 
    de interação a partir de dados educacionais de 963 estudantes que usaram o 
    ambiente virtual no letivo de 2020. Foram conduzidas entrevistas 
    semiestruturadas com 13 estudantes e 10 professores para coletar 
    informações sobre as estratégias e dificuldades de interação. Os estudos 
    conduzidos possibilitaram identificar os principais assuntos tratados nas 
    interações no ambiente Redu. Formar clusters e caracterizar os padrões 
    (mais interagem, interagem esporadicamente ou raramente) dos estudantes. 
    Categorizar as respostas das entrevistas e identificar as estratégias de 
    interação dos estudantes e professores no uso do ambiente virtual, as 
    improvisações realizadas fora do ambiente virtual e um conjunto de 
    dificuldades para interagirem. Os resultados permitiram especificar uma 
    abordagem de SRE para atender a necessidades essenciais na dinâmica de 
    interação e possibilitaram chegar a elementos nos quais estratégias de 
    especificação centradas nos algoritmos não seriam decisivas em alcançar 
    para definir em quais pontos a abordagem poderia atuar.


  • Mostrar Abstract
  • A especificação de Sistemas de Recomendação Educacional (SRE), atualmente, 
    centra esforços no estudo dos dados relacionais, nas técnicas de 
    aprendizagem de máquina, recuperação e filtragem da informação e nos 
    algoritmos para realizar as recomendações. Esses mecanismos por si só podem 
    não fornecer insumos suficientes para construção de um modelo preciso de 
    recomendação diante de uma heterogeneidade de fatores humanos nas 
    interações dos atores envolvidos no contexto educacional. Sendo assim, o 
    objetivo deste trabalho é especificar uma abordagem de SRE com potenciais 
    mecanismos para estimular a dinâmica de interação entre estudante-professor 
    e conteúdos escolares na Rede Social Educacional (Redu). Para tanto, a 
    pesquisa tem como caráter uma abordagem projetiva a qual adota técnicas 
    quali-quantitativas para analisar o contexto de aplicação e dados gerados 
    por estudantes e professores na utilização do Redu no contexto do 
    aprendizado remoto em uma instituição pública de educação básica do Recife. 
    Foram conduzidas observações presenciais e on-line. Um questionário foi 
    aplicado a 187 estudantes e 62 professores. Foram realizadas análises de 
    agrupamento por uma abordagem não-supervisionada para identificar os níveis 
    de interação a partir de dados educacionais de 963 estudantes que usaram o 
    ambiente virtual no letivo de 2020. Foram conduzidas entrevistas 
    semiestruturadas com 13 estudantes e 10 professores para coletar 
    informações sobre as estratégias e dificuldades de interação. Os estudos 
    conduzidos possibilitaram identificar os principais assuntos tratados nas 
    interações no ambiente Redu. Formar clusters e caracterizar os padrões 
    (mais interagem, interagem esporadicamente ou raramente) dos estudantes. 
    Categorizar as respostas das entrevistas e identificar as estratégias de 
    interação dos estudantes e professores no uso do ambiente virtual, as 
    improvisações realizadas fora do ambiente virtual e um conjunto de 
    dificuldades para interagirem. Os resultados permitiram especificar uma 
    abordagem de SRE para atender a necessidades essenciais na dinâmica de 
    interação e possibilitaram chegar a elementos nos quais estratégias de 
    especificação centradas nos algoritmos não seriam decisivas em alcançar 
    para definir em quais pontos a abordagem poderia atuar.

5
  • DANIEL CIRNE VILAS BOAS DOS SANTOS
  • Estudo comparativo entre abordagens estilométricas e textuais para atribuição de autoria em trabalhos escolares

  • Orientador : CLEBER ZANCHETTIN
  • MEMBROS DA BANCA :
  • CLEBER ZANCHETTIN
  • FLAVIA DE ALMEIDA BARROS
  • GEORGE GOMES CABRAL
  • Data: 13/08/2021

  • Mostrar Resumo
  • O aumento no volume de documentos digitais associado ao seu uso em várias 
    áreas de conhecimento demandam recursos computacionais para sua compreensão 
    e análise. Em casos de verificação ou atribuição de autoria, é necessário 
    confirmar ou identificar os autores do texto. A literatura propõe 
    promissoras abordagens que associam aprendizagem de máquina e processamento 
    de linguagem natural para distinguir os autores pelo seu estilo de escrita. 
    Estes trabalhos envolvem majoritariamente contextos literários ou 
    jornalísticos e textos em inglês. Por outro lado, no contexto educacional, 
    poucos trabalhos exploram a análise de autoria como ferramenta de apoio à 
    verificação de aprendizagem dentro da língua portuguesa. Tal cenário é 
    desafiador, pois apresenta um baixo volume de documentos por autor, um 
    conjunto de autores mais homogêneos e restrições de formato, tema e idioma. 
    Este trabalho explora técnicas e abordagens reconhecidas na literatura, 
    como modelos de aprendizagem de máquina, técnicas para representação de 
    documentos e extração de características estilométricas, com propósito de 
    apoiar a análise de autoria em uma base de dados composta por atividades 
    pedagógicas de estudantes de graduação. Devido ao volume de exemplos, 
    utilizamos bases de dados jornalísticas mais robustas como referência. Por 
    meio dos experimentos, foi verificado que em domínios restritos, 
    representações baseadas em características de estilo são superiores à 
    abordagens meramente textuais, que sofrem maior influência do tópico em 
    corpora mais abrangente. Este trabalho revelou que o modelo Extremelly 
    Randomized Trees foi superior aos demais modelos, como Naive Bayes, SVM, 
    Random Forest, Regressão logística, Redes neurais em todas as bases 
    utilizadas, alcançando uma média de 0.70 na taxa de acerto e AUC 0.81. Além 
    disso, o trabalho detalha sua metodologia para extração de características 
    de estilo por meio do processamento de linguem natural e quais destas mais 
    se destacaram durante os experimentos de acordo com seus valores Shapley.


  • Mostrar Abstract
  • O aumento no volume de documentos digitais associado ao seu uso em várias 
    áreas de conhecimento demandam recursos computacionais para sua compreensão 
    e análise. Em casos de verificação ou atribuição de autoria, é necessário 
    confirmar ou identificar os autores do texto. A literatura propõe 
    promissoras abordagens que associam aprendizagem de máquina e processamento 
    de linguagem natural para distinguir os autores pelo seu estilo de escrita. 
    Estes trabalhos envolvem majoritariamente contextos literários ou 
    jornalísticos e textos em inglês. Por outro lado, no contexto educacional, 
    poucos trabalhos exploram a análise de autoria como ferramenta de apoio à 
    verificação de aprendizagem dentro da língua portuguesa. Tal cenário é 
    desafiador, pois apresenta um baixo volume de documentos por autor, um 
    conjunto de autores mais homogêneos e restrições de formato, tema e idioma. 
    Este trabalho explora técnicas e abordagens reconhecidas na literatura, 
    como modelos de aprendizagem de máquina, técnicas para representação de 
    documentos e extração de características estilométricas, com propósito de 
    apoiar a análise de autoria em uma base de dados composta por atividades 
    pedagógicas de estudantes de graduação. Devido ao volume de exemplos, 
    utilizamos bases de dados jornalísticas mais robustas como referência. Por 
    meio dos experimentos, foi verificado que em domínios restritos, 
    representações baseadas em características de estilo são superiores à 
    abordagens meramente textuais, que sofrem maior influência do tópico em 
    corpora mais abrangente. Este trabalho revelou que o modelo Extremelly 
    Randomized Trees foi superior aos demais modelos, como Naive Bayes, SVM, 
    Random Forest, Regressão logística, Redes neurais em todas as bases 
    utilizadas, alcançando uma média de 0.70 na taxa de acerto e AUC 0.81. Além 
    disso, o trabalho detalha sua metodologia para extração de características 
    de estilo por meio do processamento de linguem natural e quais destas mais 
    se destacaram durante os experimentos de acordo com seus valores Shapley.

6
  • GRENNDA GUERRA
  • GOED: Framework para Governança em Ecossistemas de Dados

  • Orientador : BERNADETTE FARIAS LOSCIO
  • MEMBROS DA BANCA :
  • EVELINE RUSSO SACRAMENTO FERREIRA
  • BERNADETTE FARIAS LOSCIO
  • VINICIUS CARDOSO GARCIA
  • Data: 13/08/2021

  • Mostrar Resumo
  • Ecossistemas de Dados (EDs) são ambientes compostos por redes de atores 
    autônomos que consomem, produzem ou fornecem direta ou indiretamente dados 
    e outros recursos relacionados a dados (software, serviços e 
    infraestrutura). Os relacionamentos em um ED podem influenciar diretamente 
    em sua sustentabilidade e no alcance de sua finalidade.  No entanto, há uma 
    escassez no desenvolvimento de tecnologias que os auxiliem na coordenação 
    dos diferentes atores e relacionamentos, bem como que promovam estímulo ao 
    desenvolvimento e uso/reúso de recursos. Por isso, muitas iniciativas de 
    ecossistemas têm falhado em estabelecer um gerenciamento efetivo de seus 
    recursos e dos atores.  Nesse contexto, torna-se cada vez mais relevante 
    estudos e iniciativas que possam promover uma estrutura organizada para o 
    desenvolvimento desses ecossistemas. Nessa perspectiva, a Governança de TI 
    propõe um conjunto de processos que visam promover o melhor direcionamento 
    dos recursos de TI, de forma que eles estejam alinhados às partes 
    interessadas aos objetivos da organização. É implementada através da 
    definição de estratégias, atividades, métricas, políticas operacionais, 
    entre outros. Por isso, sua aplicação permite um melhor monitoramento sobre 
    todo o funcionamento das atividades relacionadas aos recursos de TI. É 
    nessa perspectiva que este trabalho buscou estudar modelos, frameworks e 
    práticas já consolidadas no âmbito de Governança que pudessem servir de 
    referência para promover uma estrutura de governança no contexto de EDs. 
    Dessa maneira, este trabalho teve como objetivo a criação de um framework, 
    denominado FRAGED, que visa propor um conjunto de processos e atividades 
    que auxiliem na criação, coordenação e manutenção de um ED. A partir desse 
    estudo, espera-se compreender como a governança em ecossistemas de dados 
    pode ser abordada para melhorar a dinâmica entre os atores, otimizar suas 
    interações e contribuir para sua sustentabilidade. Para o desenvolvimento 
    dessa pesquisa, as principais etapas realizadas foram: (1) Revisão de 
    literatura; (2) Identificação de um conjunto de conhecimentos que poderiam 
    ser aplicados na construção do framework; (4) Construção do Framework e (5) 
    Avaliação.


  • Mostrar Abstract
  • Ecossistemas de Dados (EDs) são ambientes compostos por redes de atores 
    autônomos que consomem, produzem ou fornecem direta ou indiretamente dados 
    e outros recursos relacionados a dados (software, serviços e 
    infraestrutura). Os relacionamentos em um ED podem influenciar diretamente 
    em sua sustentabilidade e no alcance de sua finalidade.  No entanto, há uma 
    escassez no desenvolvimento de tecnologias que os auxiliem na coordenação 
    dos diferentes atores e relacionamentos, bem como que promovam estímulo ao 
    desenvolvimento e uso/reúso de recursos. Por isso, muitas iniciativas de 
    ecossistemas têm falhado em estabelecer um gerenciamento efetivo de seus 
    recursos e dos atores.  Nesse contexto, torna-se cada vez mais relevante 
    estudos e iniciativas que possam promover uma estrutura organizada para o 
    desenvolvimento desses ecossistemas. Nessa perspectiva, a Governança de TI 
    propõe um conjunto de processos que visam promover o melhor direcionamento 
    dos recursos de TI, de forma que eles estejam alinhados às partes 
    interessadas aos objetivos da organização. É implementada através da 
    definição de estratégias, atividades, métricas, políticas operacionais, 
    entre outros. Por isso, sua aplicação permite um melhor monitoramento sobre 
    todo o funcionamento das atividades relacionadas aos recursos de TI. É 
    nessa perspectiva que este trabalho buscou estudar modelos, frameworks e 
    práticas já consolidadas no âmbito de Governança que pudessem servir de 
    referência para promover uma estrutura de governança no contexto de EDs. 
    Dessa maneira, este trabalho teve como objetivo a criação de um framework, 
    denominado FRAGED, que visa propor um conjunto de processos e atividades 
    que auxiliem na criação, coordenação e manutenção de um ED. A partir desse 
    estudo, espera-se compreender como a governança em ecossistemas de dados 
    pode ser abordada para melhorar a dinâmica entre os atores, otimizar suas 
    interações e contribuir para sua sustentabilidade. Para o desenvolvimento 
    dessa pesquisa, as principais etapas realizadas foram: (1) Revisão de 
    literatura; (2) Identificação de um conjunto de conhecimentos que poderiam 
    ser aplicados na construção do framework; (4) Construção do Framework e (5) 
    Avaliação.

7
  • PEDRO JORGE AMERICO ISHIMARU
  • DESENVOLVIMENTO DE MÓDULO PARA  SEGMENTAÇÃO DE ESPAÇO LIVRE EM IMAGENS ESTÉREO COM PROTOTIPAÇÃO EM FPGA

  • Orientador : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBROS DA BANCA :
  • ADRIANO AUGUSTO DE MORAES SARMENTO
  • EDNA NATIVIDADE DA SILVA BARROS
  • VICTOR WANDERLEY COSTA DE MEDEIROS
  • Data: 13/08/2021

  • Mostrar Resumo
  • No contexto da robótica e de veículos autônomos terrestres, a segmentação 
    de chão e espaço livre é uma questão de suma importância para o bom 
    funcionamento dos sistemas. Este problema, relacionado à área de percepção 
    de espaço, é amplamente discutido na literatura, havendo diversas técnicas 
    implementadas, tais como Redes Neurais, grafos e processamento de imagem, 
    para diferentes tipos de sinais de entrada como, por exemplo, imagem, som, 
    LIDAR, imagens estéreo, etc. Todavia, geralmente os métodos propostos para 
    solucionar este problema são computacionalmente custosos, envolvendo 
    manipulação de matrizes e operações de convolução e são implementados em 
    plataformas complexas, isto diverge da natureza das aplicações nas quais, 
    frequentemente, os dispositivos finais estão inseridos em cenários de 
    sistemas embarcados, nos quais há restrições de capacidade de 
    processamento, memória, consumo de potência, custo, e desempenho.
    Diante deste cenário, este trabalho propõe uma arquitetura em FPGA para 
    segmentação de chão com técnicas de visão computacional estéreo, partindo 
    de mapas de disparidade gerados a partir de duas imagens captadas de locais 
    ligeiramente distintos. A arquitetura foi baseada no desenvolvimento de um 
    algoritmo que adapta para a implementação em FPGA técnicas algébricas que 
    exploram informações de tridimensionalidade para detectar na imagem regiões 
    de obstáculos, regiões livres e detecção de horizonte, a partir da extração 
    algébrica dos perfis destas. O algoritmo adaptado e a arquitetura foram 
    validados utilizando o Dataset do KITTI para segmentação de pista, que 
    utilizam imagens de cenário automotivo rodoviário real, e obtiveram baixa 
    perda de desempenho em termos de precisão e revocação em comparação com o 
    modelo de referência, com grandes ganhos em performance na taxa de frames 
    por segundo, consolidando um módulo de grande utilidade para aplicações 
    envolvendo robótica e visão computacional estéreo.


  • Mostrar Abstract
  • No contexto da robótica e de veículos autônomos terrestres, a segmentação 
    de chão e espaço livre é uma questão de suma importância para o bom 
    funcionamento dos sistemas. Este problema, relacionado à área de percepção 
    de espaço, é amplamente discutido na literatura, havendo diversas técnicas 
    implementadas, tais como Redes Neurais, grafos e processamento de imagem, 
    para diferentes tipos de sinais de entrada como, por exemplo, imagem, som, 
    LIDAR, imagens estéreo, etc. Todavia, geralmente os métodos propostos para 
    solucionar este problema são computacionalmente custosos, envolvendo 
    manipulação de matrizes e operações de convolução e são implementados em 
    plataformas complexas, isto diverge da natureza das aplicações nas quais, 
    frequentemente, os dispositivos finais estão inseridos em cenários de 
    sistemas embarcados, nos quais há restrições de capacidade de 
    processamento, memória, consumo de potência, custo, e desempenho.
    Diante deste cenário, este trabalho propõe uma arquitetura em FPGA para 
    segmentação de chão com técnicas de visão computacional estéreo, partindo 
    de mapas de disparidade gerados a partir de duas imagens captadas de locais 
    ligeiramente distintos. A arquitetura foi baseada no desenvolvimento de um 
    algoritmo que adapta para a implementação em FPGA técnicas algébricas que 
    exploram informações de tridimensionalidade para detectar na imagem regiões 
    de obstáculos, regiões livres e detecção de horizonte, a partir da extração 
    algébrica dos perfis destas. O algoritmo adaptado e a arquitetura foram 
    validados utilizando o Dataset do KITTI para segmentação de pista, que 
    utilizam imagens de cenário automotivo rodoviário real, e obtiveram baixa 
    perda de desempenho em termos de precisão e revocação em comparação com o 
    modelo de referência, com grandes ganhos em performance na taxa de frames 
    por segundo, consolidando um módulo de grande utilidade para aplicações 
    envolvendo robótica e visão computacional estéreo.

8
  • MIRELLA SANTOS PESSOA DE MELO
  • MAPEAMENTO DE REGIÃO NAVEGÁVEL A PARTIR DE UM SISTEMA SLAM E SEGMENTAÇÃO DE IMAGEM

  • Orientador : EDNA NATIVIDADE DA SILVA BARROS
  • MEMBROS DA BANCA :
  • EDNA NATIVIDADE DA SILVA BARROS
  • FRANCISCO PAULO MAGALHAES SIMOES
  • HANSENCLEVER DE FRANCA BASSANI
  • Data: 13/08/2021

  • Mostrar Resumo
  • Agentes robóticos que se utilizam de algoritmos de localização e mapeamento 
    simultâneos - SLAM, realizam a construção incremental do mapa de um 
    ambiente desconhecido enquanto, simultaneamente, determinam sua localização 
    dentro desse mapa. Estes são chamados de sistemas SLAM visual (vSLAM) 
    quando se utilizam de dados proveniente de uma câmera e, pela forma com que 
    as imagens são interpretadas, são categorizados em método direto ou 
    indireto. O vSLAM de método indireto é eficiente, rápido e pode oferecer um 
    sistema de localização preciso; por outro lado, representa o ambiente 
    mapeado através de uma nuvem de pontos esparsa, sendo esta imprópria para o 
    planejamento de rotas. Portanto, nosso trabalho tem como objetivo 
    desenvolver um elo entre esses algoritmos e atividades de navegação, tendo 
    como prioridade o baixo custo computacional, fazendo uso apenas de um 
    sensor de câmera estéreo. A representação adotada para modelar o ambiente é 
    um mapa de grade de ocupação 2D - OGM 2D, uma das opções predominantemente 
    utilizadas na robótica. Para criar o OGM, associamos o estágio de 
    mapeamento do vSLAM com uma técnica de segmentação de chão. A proposta 
    representa um módulo complementar que além de transformar a nuvem de pontos 
    esparsa em um OGM 2D, também resulta numa nuvem de pontos segmentada entre 
    chão e não-chão. Avaliações sobre o mapa gerado foram feitas em ambientes 
    sintéticos e reais, considerando algoritmos de planejamento de rota, 
    sobreposição de mapas e métricas computacionais. Resultados revelam mapas 
    com alta precisão enquanto exigem baixíssimo acréscimo do consumo de 
    memória, e tempo de processamento que permite que a aplicação seja 
    executada junto ao SLAM em tempo real. O mapa gerado permite um elo entre 
    um algoritmo SLAM de mapeamento esparso e atividades de navegação.


  • Mostrar Abstract
  • Agentes robóticos que se utilizam de algoritmos de localização e mapeamento 
    simultâneos - SLAM, realizam a construção incremental do mapa de um 
    ambiente desconhecido enquanto, simultaneamente, determinam sua localização 
    dentro desse mapa. Estes são chamados de sistemas SLAM visual (vSLAM) 
    quando se utilizam de dados proveniente de uma câmera e, pela forma com que 
    as imagens são interpretadas, são categorizados em método direto ou 
    indireto. O vSLAM de método indireto é eficiente, rápido e pode oferecer um 
    sistema de localização preciso; por outro lado, representa o ambiente 
    mapeado através de uma nuvem de pontos esparsa, sendo esta imprópria para o 
    planejamento de rotas. Portanto, nosso trabalho tem como objetivo 
    desenvolver um elo entre esses algoritmos e atividades de navegação, tendo 
    como prioridade o baixo custo computacional, fazendo uso apenas de um 
    sensor de câmera estéreo. A representação adotada para modelar o ambiente é 
    um mapa de grade de ocupação 2D - OGM 2D, uma das opções predominantemente 
    utilizadas na robótica. Para criar o OGM, associamos o estágio de 
    mapeamento do vSLAM com uma técnica de segmentação de chão. A proposta 
    representa um módulo complementar que além de transformar a nuvem de pontos 
    esparsa em um OGM 2D, também resulta numa nuvem de pontos segmentada entre 
    chão e não-chão. Avaliações sobre o mapa gerado foram feitas em ambientes 
    sintéticos e reais, considerando algoritmos de planejamento de rota, 
    sobreposição de mapas e métricas computacionais. Resultados revelam mapas 
    com alta precisão enquanto exigem baixíssimo acréscimo do consumo de 
    memória, e tempo de processamento que permite que a aplicação seja 
    executada junto ao SLAM em tempo real. O mapa gerado permite um elo entre 
    um algoritmo SLAM de mapeamento esparso e atividades de navegação.

9
  • EDUARDO FELIPE FONSÊCA DE FREITAS
  • Experimental Evaluation on Packet Processing Frameworks under Virtual Environments

  • Orientador : DJAMEL FAWZI HADJ SADOK
  • MEMBROS DA BANCA :
  • DJAMEL FAWZI HADJ SADOK
  • GLAUCO ESTACIO GONÇALVES
  • NELSON SOUTO ROSA
  • Data: 26/08/2021

  • Mostrar Resumo
  • O kernel Linux é um componente central das aplicações de rede, estando presente
    na maioria dos servidores em data centers. Com o tempo, à medida que servidores
    e placas de rede evoluíram para atender tecnologias de rede com demandas de alto
    throughput e baixa latência, o kernel tornou-se um gargalo, impedindo as
    aplicações de rede de utilizarem a capacidade máxima do hardware. Nesse cenário,
    diferentes frameworks de processamento de pacotes surgiram para solucionar esse
    gargalo. Os dois principais são o DPDK e XDP, com propostas diferentes para
    atingir altas taxas de processamento. DPDK adota o bypass do kernel, excluindo-o
    do processamento e levando os pacotes para o user-space. Já o XDP, por outro lado,
    processa os pacotes dentro do kernel, de forma antecipada comparada ao
    processamento padrão. Em conjunto com isso, o paradigma de computação em nuvem,
    atualmente disponível na maioria dos data centers, traz a virtualização como
    tecnologia fundamental. Com múltiplas aplicações e sistemas sendo executados no
    mesmo host, surge outro problema, o de competição de recursos. Assim, essa
    dissertação executa experimentos que buscam avaliar como a presença de um
    ambiente virtual de computação em nuvem pode interferir no desempenho de ambos
    DPDK e XDP. Os resultados mostram que embora o processamento “dentro do kernel”
    traga mais segurança e integração com sistema, essas exatas medidas de segurança
    causam perda de desempenho ao XDP. Além disso, o XDP também demonstra ser o mais
    afetado pela presença do ambiente virtual, considerando a taxa de throughput e
    também a perda de pacotes. Por outro lado, existe um dilema ao utilizar o XDP,
    que não somente é possível alcançar maior segurança, mas também em relação ao uso
    de recursos, já que o DPDK aloca um núcleo de CPU completo para utilizar no
    processamento de pacotes. Também, dependendo do processamento sendo feito pelo
    framework, como quando depende de uso intenso de CPU, o DPDK oferece uma perda
    considerável de desempenho do throughput.


  • Mostrar Abstract
  • O kernel Linux é um componente central das aplicações de rede, estando presente
    na maioria dos servidores em data centers. Com o tempo, à medida que servidores
    e placas de rede evoluíram para atender tecnologias de rede com demandas de alto
    throughput e baixa latência, o kernel tornou-se um gargalo, impedindo as
    aplicações de rede de utilizarem a capacidade máxima do hardware. Nesse cenário,
    diferentes frameworks de processamento de pacotes surgiram para solucionar esse
    gargalo. Os dois principais são o DPDK e XDP, com propostas diferentes para
    atingir altas taxas de processamento. DPDK adota o bypass do kernel, excluindo-o
    do processamento e levando os pacotes para o user-space. Já o XDP, por outro lado,
    processa os pacotes dentro do kernel, de forma antecipada comparada ao
    processamento padrão. Em conjunto com isso, o paradigma de computação em nuvem,
    atualmente disponível na maioria dos data centers, traz a virtualização como
    tecnologia fundamental. Com múltiplas aplicações e sistemas sendo executados no
    mesmo host, surge outro problema, o de competição de recursos. Assim, essa
    dissertação executa experimentos que buscam avaliar como a presença de um
    ambiente virtual de computação em nuvem pode interferir no desempenho de ambos
    DPDK e XDP. Os resultados mostram que embora o processamento “dentro do kernel”
    traga mais segurança e integração com sistema, essas exatas medidas de segurança
    causam perda de desempenho ao XDP. Além disso, o XDP também demonstra ser o mais
    afetado pela presença do ambiente virtual, considerando a taxa de throughput e
    também a perda de pacotes. Por outro lado, existe um dilema ao utilizar o XDP,
    que não somente é possível alcançar maior segurança, mas também em relação ao uso
    de recursos, já que o DPDK aloca um núcleo de CPU completo para utilizar no
    processamento de pacotes. Também, dependendo do processamento sendo feito pelo
    framework, como quando depende de uso intenso de CPU, o DPDK oferece uma perda
    considerável de desempenho do throughput.

10
  • CLAUDIO LUIS ALVES MONTEIRO
  • Quantum Neurons with Real Weights For Diabetes Prediction

  • Orientador : FERNANDO MACIANO DE PAULA NETO
  • MEMBROS DA BANCA :
  • FERNANDO MACIANO DE PAULA NETO
  • PAULO SALGADO GOMES DE MATTOS NETO
  • WILSON ROSA DE OLIVEIRA JUNIOR
  • Data: 01/09/2021

  • Mostrar Resumo
  • Este trabalho apresenta resultados preliminares relevantes da aplicação de 
    algoritmos de aprendizagem de máquina quântica no setor de saúde. 
    Desenvolvemos e testamos um modelo de neurônio quântico capaz de armazenar 
    pesos reais e também comparamos dois outros algoritmos para construir 
    neurônios quânticos que podem transportar uma quantidade exponencial de 
    informação para um número linear de unidades de informação quântica 
    (qubits) usando a propriedade quântica de superposição. Comparamos o 
    desempenho desses modelos nos seguintes problemas: simular o operador XOR, 
    resolver um problema não linear genérico e previsão de diabetes em 
    pacientes. Os resultados dos experimentos mostraram que um único modelo de 
    neurônio quântico é capaz de atingir uma taxa de precisão de 100% no 
    problema XOR e uma taxa de 100% em um conjunto de dados não linear, 
    demonstrando a plausibilidade de modelos quânticos com pesos reais na 
    modelagem de problemas não linearmente separáveis. No problema de 
    diagnóstico de diabetes, os neurônios quânticos alcançaram uma taxa de 
    precisão de 72% . Esses resultados indicam que um único modelo de neurônio 
    quântico tem boa capacidade de generalização, demonstrando potencial para 
    uso em aplicações para o setor de saúde em um futuro próximo. É também uma 
    contribuição crucial para o desenvolvimento de redes neurais quânticas 
    avançadas com melhores desempenhos.


  • Mostrar Abstract
  • Este trabalho apresenta resultados preliminares relevantes da aplicação de 
    algoritmos de aprendizagem de máquina quântica no setor de saúde. 
    Desenvolvemos e testamos um modelo de neurônio quântico capaz de armazenar 
    pesos reais e também comparamos dois outros algoritmos para construir 
    neurônios quânticos que podem transportar uma quantidade exponencial de 
    informação para um número linear de unidades de informação quântica 
    (qubits) usando a propriedade quântica de superposição. Comparamos o 
    desempenho desses modelos nos seguintes problemas: simular o operador XOR, 
    resolver um problema não linear genérico e previsão de diabetes em 
    pacientes. Os resultados dos experimentos mostraram que um único modelo de 
    neurônio quântico é capaz de atingir uma taxa de precisão de 100% no 
    problema XOR e uma taxa de 100% em um conjunto de dados não linear, 
    demonstrando a plausibilidade de modelos quânticos com pesos reais na 
    modelagem de problemas não linearmente separáveis. No problema de 
    diagnóstico de diabetes, os neurônios quânticos alcançaram uma taxa de 
    precisão de 72% . Esses resultados indicam que um único modelo de neurônio 
    quântico tem boa capacidade de generalização, demonstrando potencial para 
    uso em aplicações para o setor de saúde em um futuro próximo. É também uma 
    contribuição crucial para o desenvolvimento de redes neurais quânticas 
    avançadas com melhores desempenhos.

11
  • PABLO PHILIPE PESSOA
  • Uma Metodologia para Selecionar Contadores de Desempenho de Hardware para dar Suporte ao Diagnóstico não Invasivo e a Classificação de Ataques DDoS de Inundação em Servidores Web

  • Orientador : PAULO ROMERO MARTINS MACIEL
  • MEMBROS DA BANCA :
  • ALMIR PEREIRA GUIMARAES
  • JAMILSON RAMALHO DANTAS
  • PAULO ROMERO MARTINS MACIEL
  • Data: 06/09/2021

  • Mostrar Resumo
  • As interrupções do servidor web causadas por Denial of Service (DOS) e 
    Distributed Denial of Service (DDOS), Ataques de Negação de Serviço e 
    Ataques de Negação de Serviço Distribuído aumentaram consideravelmente ao 
    longo dos anos. Os Intrusion Detection System (IDS) Sistemas de Detecção de 
    Intrusão não são suficientes para detectar ameaças no sistema, mesmo quando 
    usados em conjunto com Intrusion Prevention System (IPS) Sistemas de 
    Prevenção de Intrusão e mesmo considerando o uso de conjuntos de dados 
    contendo informações sobre situações típicas e ataques ao serviço do 
    sistema. A realização de análises com uma quantidade muito densa de 
    variáveis observadas pode custar uma quantidade significativa de recursos 
    do host. Além disso, esses conjuntos de dados correm o risco de não 
    representar o comportamento do sistema de forma adequada e nem sempre podem 
    ser compartilhados, pois podem conter informações confidenciais nos dados 
    de diagnóstico. Este trabalho apresenta uma metodologia de diagnóstico não 
    intrusiva para selecionar Hardware Performance Counters (HPC) Contadores de 
    Desempenho de Hardware em ataques DOS/DDOS de inundação HTTP em servidores 
    web de nível corporativo, combinando métodos e técnicas de diferentes 
    segmentos. A abordagem proposta usa dispositivos de recursos de baixo 
    nível, como os contadores de desempenho para diagnóstico, criando perfis 
    comportamentais em frente a ataques e ao uso comum do serviço. A estratégia 
    proposta oferece suporte ao fornecimento de diagnósticos confiáveis com 
    caracterização precisa, sem conjuntos de dados de terceiros. Com a 
    metodologia proposta, conseguimos reduzir os HPC em 26%, em comparação com 
    o grupo inicial.


  • Mostrar Abstract
  • As interrupções do servidor web causadas por Denial of Service (DOS) e 
    Distributed Denial of Service (DDOS), Ataques de Negação de Serviço e 
    Ataques de Negação de Serviço Distribuído aumentaram consideravelmente ao 
    longo dos anos. Os Intrusion Detection System (IDS) Sistemas de Detecção de 
    Intrusão não são suficientes para detectar ameaças no sistema, mesmo quando 
    usados em conjunto com Intrusion Prevention System (IPS) Sistemas de 
    Prevenção de Intrusão e mesmo considerando o uso de conjuntos de dados 
    contendo informações sobre situações típicas e ataques ao serviço do 
    sistema. A realização de análises com uma quantidade muito densa de 
    variáveis observadas pode custar uma quantidade significativa de recursos 
    do host. Além disso, esses conjuntos de dados correm o risco de não 
    representar o comportamento do sistema de forma adequada e nem sempre podem 
    ser compartilhados, pois podem conter informações confidenciais nos dados 
    de diagnóstico. Este trabalho apresenta uma metodologia de diagnóstico não 
    intrusiva para selecionar Hardware Performance Counters (HPC) Contadores de 
    Desempenho de Hardware em ataques DOS/DDOS de inundação HTTP em servidores 
    web de nível corporativo, combinando métodos e técnicas de diferentes 
    segmentos. A abordagem proposta usa dispositivos de recursos de baixo 
    nível, como os contadores de desempenho para diagnóstico, criando perfis 
    comportamentais em frente a ataques e ao uso comum do serviço. A estratégia 
    proposta oferece suporte ao fornecimento de diagnósticos confiáveis com 
    caracterização precisa, sem conjuntos de dados de terceiros. Com a 
    metodologia proposta, conseguimos reduzir os HPC em 26%, em comparação com 
    o grupo inicial.

12
  • GABRIEL WANDERLEY ALBUQUERQUE SILVA
  • Redução de Dimensionalidade Aplicada a Sistemas de Radiolocalização por Regressão Direta em Regiões com Diferentes Níveis de Urbanização

  • Orientador : DANIEL CARVALHO DA CUNHA
  • MEMBROS DA BANCA :
  • DANIEL CARVALHO DA CUNHA
  • GERMANO CRISPIM VASCONCELOS
  • WASLON TERLLIZZIE ARAUJO LOPES
  • Data: 10/09/2021

  • Mostrar Resumo
  • A difusão do uso de dispositivos móveis (DMs) tem estimulado a adoção de inúmeros serviços baseados em localização, que, por sua vez, dependem de técnicas de localização em redes sem fio. Apesar do sistema de posicionamento global ser uma das principais técnicas usadas para fornecer a localização do DM, sua acurácia depende fortemente da existência de linha de visada entre transmissor e receptor. Para evitar tal desvantagem, técnicas de radiolocalização baseadas nos níveis de potência do sinal de rádio frequência (RF) recebidos são amplamente utilizadas. Uma dessas técnicas, chamada de método de localização por regressão direta (LRD), emprega algoritmos de aprendizado de máquina para fazer a predição das coordenadas geográficas do DM. Face ao exposto, este trabalho analisou a aplicação do método LRD em duas regiões com diferentes níveis de urbanização. Nas regiões consideradas, bases de dados contendo níveis de sinal de RF de três gerações de redes celulares foram construídas, de forma unificada, assim como segmentada por rede, a partir de coleta via crowdsourcing. O primeiro aspecto da análise foi a robustez do método de localização em função do nível de urbanização das regiões consideradas. O método LRD se mostrou mais estável (diminuição do erro médio de predição em função do aumento do conjunto de treinamento) na região com maior nível de urbanização e mais
    eficiente quando aplicado à rede 3G em ambas as regiões. Além de fatores relacionados aos diferentes níveis de urbanização das regiões investigadas, o aumento esperado da quantidade de estações rádio base com a implantação de redes de próxima geração também é relevante para a aplicabilidade do método LRD. Assim, o segundo aspecto analisado foi o efeito da redução de dimensionalidade na acurácia e nos tempos de execução do método LRD. Para isso, cinco algoritmos de extração de features (AEFs), três lineares e dois não-lineares, foram considerados. Resultados experimentais mostraram que os AEFs não-lineares obtiveram melhores resultados que os AEFs lineares. Dentre os AEFs não-lineares, o algoritmo KPCA-Sigmoide diminuiu o erro médio do método LRD em até 15% quando comparado ao erro do método LRD sem o uso de AEFs. Além disso, o algoritmo KPCA-Sigmoide causou uma diminuição aproximada de sete vezes no tempo de treinamento e de aproximadamente quatro vezes no tempo de predição do método LRD, sem prejudicar a acurácia da localização.


  • Mostrar Abstract
  • A difusão do uso de dispositivos móveis (DMs) tem estimulado a adoção de inúmeros serviços baseados em localização, que, por sua vez, dependem de técnicas de localização em redes sem fio. Apesar do sistema de posicionamento global ser uma das principais técnicas usadas para fornecer a localização do DM, sua acurácia depende fortemente da existência de linha de visada entre transmissor e receptor. Para evitar tal desvantagem, técnicas de radiolocalização baseadas nos níveis de potência do sinal de rádio frequência (RF) recebidos são amplamente utilizadas. Uma dessas técnicas, chamada de método de localização por regressão direta (LRD), emprega algoritmos de aprendizado de máquina para fazer a predição das coordenadas geográficas do DM. Face ao exposto, este trabalho analisou a aplicação do método LRD em duas regiões com diferentes níveis de urbanização. Nas regiões consideradas, bases de dados contendo níveis de sinal de RF de três gerações de redes celulares foram construídas, de forma unificada, assim como segmentada por rede, a partir de coleta via crowdsourcing. O primeiro aspecto da análise foi a robustez do método de localização em função do nível de urbanização das regiões consideradas. O método LRD se mostrou mais estável (diminuição do erro médio de predição em função do aumento do conjunto de treinamento) na região com maior nível de urbanização e mais
    eficiente quando aplicado à rede 3G em ambas as regiões. Além de fatores relacionados aos diferentes níveis de urbanização das regiões investigadas, o aumento esperado da quantidade de estações rádio base com a implantação de redes de próxima geração também é relevante para a aplicabilidade do método LRD. Assim, o segundo aspecto analisado foi o efeito da redução de dimensionalidade na acurácia e nos tempos de execução do método LRD. Para isso, cinco algoritmos de extração de features (AEFs), três lineares e dois não-lineares, foram considerados. Resultados experimentais mostraram que os AEFs não-lineares obtiveram melhores resultados que os AEFs lineares. Dentre os AEFs não-lineares, o algoritmo KPCA-Sigmoide diminuiu o erro médio do método LRD em até 15% quando comparado ao erro do método LRD sem o uso de AEFs. Além disso, o algoritmo KPCA-Sigmoide causou uma diminuição aproximada de sete vezes no tempo de treinamento e de aproximadamente quatro vezes no tempo de predição do método LRD, sem prejudicar a acurácia da localização.

13
  • IÚRI BATISTA TELES
  • Modelo auto-ajustável para predição de aumento de número de 
    casos de doenças infectocontagiosas

  • Orientador : PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • MEMBROS DA BANCA :
  • Sergio Crespo Coelho da Silva Pinto
  • PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • Data: 13/09/2021

  • Mostrar Resumo
  • Doenças infectocontagiosa possuem um potencial devastador de transmissão do agente hospedeiro a seus pares, a exemplo da sars-cov-2 e vírus da influenza, o uso de modelos computacionais conhecidos, tais como ARIMA, LSTM e Prophet,  podem contribuir de forma significativa para o controle de sua disseminação. Modelos de aprendizagem de máquina vêm se provando muito eficazes no auxílio de gestores da saúd, amenizando as consequências da proliferação do contágio destas infecções, visto que auxiliam a construção de ações antecipadas às ocorrências de doenças. A classificação de tais doença se dá pela Classificação Internacional de doenças (CIDs) e Classificação Internacional de Assistência Primária (CIAPs) utilizadas hoje na cidade do Recife, para classificação de doenças infecciosas. No âmbito da pesquisa desenvolvemos o MAPDI (Modelo Auto-ajustável para Predição de Aumento de Número de Casos de Doenças Infectocontagiosas) com intuito de integrar análise preditiva no âmbito do gerenciamento epidemiológica de forma proativa. Utilizamos dados coletados de unidade de saúde proveniente da solução Atende APS. O MAPDI é composto de 5 etapas principais: 1 - Coleta e pré processamento dos dados; 2- Identificação CIDs/CIAPs anômalos; 3 -Ajuste automático dos algoritmos de séries temporais; 4 - Execução das previsões; e 5 - Indexação e apresentação dos resultados. O MAPDI inicialmente irá obter os dados epidemiológicos para análise proveniente do sistema Atende APS, o qual irá executar rotinas semanais para ajuste do 
    modelo e projeção futura da possível quantidade de ocorrência para os próximos 7 dias.  Os dados serão indexados no existe Elastic, através da própria API disponível, já utilizado pela prefeitura de Recife e governo de Pernambuco. Dessa forma, a apresentação dos dados irá se dá através do Kibana, o que possibilitará também a personalização da melhor apresentação. Dessa forma, é apresentado uma metodologia e integração aplicada a cidade do Recife; bem como a possibilidade de integração em outras localidades, para auxiliares atuantes do gerenciamento da saúde a análise de ocorrência de CIDs/CIAPs de forma proativa.


  • Mostrar Abstract
  • Doenças infectocontagiosa possuem um potencial devastador de transmissão do agente hospedeiro a seus pares, a exemplo da sars-cov-2 e vírus da influenza, o uso de modelos computacionais conhecidos, tais como ARIMA, LSTM e Prophet,  podem contribuir de forma significativa para o controle de sua disseminação. Modelos de aprendizagem de máquina vêm se provando muito eficazes no auxílio de gestores da saúd, amenizando as consequências da proliferação do contágio destas infecções, visto que auxiliam a construção de ações antecipadas às ocorrências de doenças. A classificação de tais doença se dá pela Classificação Internacional de doenças (CIDs) e Classificação Internacional de Assistência Primária (CIAPs) utilizadas hoje na cidade do Recife, para classificação de doenças infecciosas. No âmbito da pesquisa desenvolvemos o MAPDI (Modelo Auto-ajustável para Predição de Aumento de Número de Casos de Doenças Infectocontagiosas) com intuito de integrar análise preditiva no âmbito do gerenciamento epidemiológica de forma proativa. Utilizamos dados coletados de unidade de saúde proveniente da solução Atende APS. O MAPDI é composto de 5 etapas principais: 1 - Coleta e pré processamento dos dados; 2- Identificação CIDs/CIAPs anômalos; 3 -Ajuste automático dos algoritmos de séries temporais; 4 - Execução das previsões; e 5 - Indexação e apresentação dos resultados. O MAPDI inicialmente irá obter os dados epidemiológicos para análise proveniente do sistema Atende APS, o qual irá executar rotinas semanais para ajuste do 
    modelo e projeção futura da possível quantidade de ocorrência para os próximos 7 dias.  Os dados serão indexados no existe Elastic, através da própria API disponível, já utilizado pela prefeitura de Recife e governo de Pernambuco. Dessa forma, a apresentação dos dados irá se dá através do Kibana, o que possibilitará também a personalização da melhor apresentação. Dessa forma, é apresentado uma metodologia e integração aplicada a cidade do Recife; bem como a possibilidade de integração em outras localidades, para auxiliares atuantes do gerenciamento da saúde a análise de ocorrência de CIDs/CIAPs de forma proativa.

14
  • CARLOS ANDRÉ BARROS LOPES
  • Geração de cargas de trabalho virtuais realísticas para simulação de redes.

  • Orientador : PAULO ROMERO MARTINS MACIEL
  • MEMBROS DA BANCA :
  • EDUARDO ANTONIO GUIMARAES TAVARES
  • JAMILSON RAMALHO DANTAS
  • KADNA MARIA ALVES CAMBOIM VALE
  • Data: 15/09/2021

  • Mostrar Resumo
  • O aumento na quantidade de serviços na Internet proporciona o aumento da complexidade dos tráfegos. Devido a isso a representação das cargas de trabalho em redes de computadores requer a caracterização específica de parâmetros devido à variedade de aplicações existentes. Este trabalho apresenta um framework útil para a representação de tráfego de redes a nível de simulação. O framework desenvolvido captura tráfegos de redes existentes e gera traces virtuais simulados idênticos aos traces reais por meio de três métodos que contemplam a identificação e aplicação de variáveis aleatórias. A pesquisa envolveu testes com os principais tipos de fluxos de Internet. Como resultado, é realizada a comparação entre os tracesvirtuais simulados com os traces reais através do método de Goodness Fitness definido como Kolmogorov-Smirnov. Por fim, nos cenários contemplados um dos métodos possíveis o framework gerou os dados virtuais compatíveis com os reais em todos os experimentos com 95% de confiança realizados, comprovando a eficácia da ferramenta.


  • Mostrar Abstract
  • O aumento na quantidade de serviços na Internet proporciona o aumento da complexidade dos tráfegos. Devido a isso a representação das cargas de trabalho em redes de computadores requer a caracterização específica de parâmetros devido à variedade de aplicações existentes. Este trabalho apresenta um framework útil para a representação de tráfego de redes a nível de simulação. O framework desenvolvido captura tráfegos de redes existentes e gera traces virtuais simulados idênticos aos traces reais por meio de três métodos que contemplam a identificação e aplicação de variáveis aleatórias. A pesquisa envolveu testes com os principais tipos de fluxos de Internet. Como resultado, é realizada a comparação entre os tracesvirtuais simulados com os traces reais através do método de Goodness Fitness definido como Kolmogorov-Smirnov. Por fim, nos cenários contemplados um dos métodos possíveis o framework gerou os dados virtuais compatíveis com os reais em todos os experimentos com 95% de confiança realizados, comprovando a eficácia da ferramenta.

15
  • EDMILSON RODRIGUES DO NASCIMENTO JUNIOR
  • A Disciplina “Projetão”: História, papel e relevância para o Ecossistema de Tecnologia de Informação e Comunicação De Recife.

  • Orientador : GEBER LISBOA RAMALHO
  • MEMBROS DA BANCA :
  • GEBER LISBOA RAMALHO
  • PIERRE LUCENA RABONI
  • SERGIO CASTELO BRANCO SOARES
  • Data: 26/10/2021

  • Mostrar Resumo
  • A Universidade ser de excelência no ensino e pesquisa é condição  necessária, mas não suficiente para a criação de uma cultura de inovação e  empreendedorismo entre os seus membros e a sociedade. Dessa forma, expandir  a cultura universitária para ser um Locus de ensino e prática sobre  inovação, empreendedorismo e transferência de tecnologia faz-se necessário,  pois a inovação traduz-se em competitividade para empresas e melhoria na  qualidade de vida para os indivíduos.  Nesse contexto, nos últimos 18 anos  desenvolveu-se no Centro de Informática da UFPE a disciplina conhecida  popularmente como “Projetão”. A disciplina é reconhecida pelo ecossistema  de TIC de Recife como um sucesso em função de seu  papel de fomento à  cultura e aprendizado prático de inovação e empreendedorismo de base  tecnológica, tendo inclusive ajudado a criar diversas startups. Contudo,  até o início desse trabalho, ninguém havia documentado a história ou estudado a percepção do papel e relevância de Projetão. A presente  dissertação objetiva preencher essas lacunas, analisando o  papel e a  relevância de Projetão junto aos ex-alunos e ao ecossistema de TIC de  Recife, e documentando e organizando o histórico de Projetão. Para tanto,  foram aplicados métodos mistos de levantamento de dados: pesquisa  documental, entrevistas com os professores que ensinaram Projetão, surveys  com ex-alunos e entrevistas semi-estruturadas com líderes do ecossistema.  Levantamos que Projetão educou 2135 estudantes, que criaram 22 startups,  dentre as quais destacam-se InLoco, Eventik, Capyba,  Prepi e Lovecrypto.  Também, pode-se constatar que a maioria dos respondentes à pesquisa  trabalham com inovação após formados e 16.6% deles tornaram-se  empreendedores profissionais, o dobro da média nacional segundo o  benchmarking da pesquisa da Endeavour (2012). Por fim, essa pesquisa também  contribui, como efeito colateral, com uma reflexão crítica sobre a  disciplina de Projetão, que poderá contribuir com sua  melhoria no futuro.  É o caso de algumas observações dos líderes do ecossistema que entendem que  os alunos de Projetão ainda resolvem problemas pouco relevantes e que  poderia haver um foco maior em criar startups com mais maturidade de  mercado, com perfil de fundadores diversos e com um maior diferencial  inovador.


  • Mostrar Abstract
  • A Universidade ser de excelência no ensino e pesquisa é condição  necessária, mas não suficiente para a criação de uma cultura de inovação e  empreendedorismo entre os seus membros e a sociedade. Dessa forma, expandir  a cultura universitária para ser um Locus de ensino e prática sobre  inovação, empreendedorismo e transferência de tecnologia faz-se necessário,  pois a inovação traduz-se em competitividade para empresas e melhoria na  qualidade de vida para os indivíduos.  Nesse contexto, nos últimos 18 anos  desenvolveu-se no Centro de Informática da UFPE a disciplina conhecida  popularmente como “Projetão”. A disciplina é reconhecida pelo ecossistema  de TIC de Recife como um sucesso em função de seu  papel de fomento à  cultura e aprendizado prático de inovação e empreendedorismo de base  tecnológica, tendo inclusive ajudado a criar diversas startups. Contudo,  até o início desse trabalho, ninguém havia documentado a história ou estudado a percepção do papel e relevância de Projetão. A presente  dissertação objetiva preencher essas lacunas, analisando o  papel e a  relevância de Projetão junto aos ex-alunos e ao ecossistema de TIC de  Recife, e documentando e organizando o histórico de Projetão. Para tanto,  foram aplicados métodos mistos de levantamento de dados: pesquisa  documental, entrevistas com os professores que ensinaram Projetão, surveys  com ex-alunos e entrevistas semi-estruturadas com líderes do ecossistema.  Levantamos que Projetão educou 2135 estudantes, que criaram 22 startups,  dentre as quais destacam-se InLoco, Eventik, Capyba,  Prepi e Lovecrypto.  Também, pode-se constatar que a maioria dos respondentes à pesquisa  trabalham com inovação após formados e 16.6% deles tornaram-se  empreendedores profissionais, o dobro da média nacional segundo o  benchmarking da pesquisa da Endeavour (2012). Por fim, essa pesquisa também  contribui, como efeito colateral, com uma reflexão crítica sobre a  disciplina de Projetão, que poderá contribuir com sua  melhoria no futuro.  É o caso de algumas observações dos líderes do ecossistema que entendem que  os alunos de Projetão ainda resolvem problemas pouco relevantes e que  poderia haver um foco maior em criar startups com mais maturidade de  mercado, com perfil de fundadores diversos e com um maior diferencial  inovador.

16
  • MAILTON FERNANDES DE CARVALHO
  • Um processo para construção de Tesauros de Domínio Específico no Contexto de uma Empresa de Teste de Software.

  • Orientador : RICARDO BASTOS CAVALCANTE PRUDENCIO
  • MEMBROS DA BANCA :
  • ALEXANDRE CABRAL MOTA
  • FLAVIA DE ALMEIDA BARROS
  • RAFAEL FERREIRA LEITE DE MELLO
  • Data: 25/11/2021

  • Mostrar Resumo
  • Grandes empresas de software geralmente mantêm repositórios com milhares de documentos textuais (e.g., documentos de requisitos, casos de teste, solicitações de mudança de código). Contudo, devido à falta de um vocabulário padrão, muitas vezes esses documentos utilizam palavras distintas para se referir à mesma entidade no domínio da aplicação. Isso dificulta o processamento automático dos textos, principalmente em sistemas de indexação e recuperação de informação através de palavras-chaves. Devido a essas variações de terminologia, os termos usados nas consultas nem sempre estão presentes nos documentos relevantes (por exemplo, "foto" x "imagem"). Assim, a consulta não irá recuperar todos os documentos relevantes existentes, a fim de garantir a finalização adequada da atividade em curso.
    Uma solução frequentemente adotada para melhorar o desempenho de sistemas de processamento de texto é a utilização de um dicionário de sinônimos (um tesauro). Esses dicionários associam termos sinônimos ou relacionados em conjuntos de termos equivalentes. Tesauros são frequentemente usados para melhorar o desempenho de sistemas de recuperação de documentos, geralmente através da expansão automática das consultas construídas pelo usuário. Essa operação adiciona termos correlacionados à consulta original, ampliando as chances do sistema recuperar documentos relevantes. Vale ressaltar que tesauros têm outros usos importantes no processamento de texto, como por exemplo melhorar o desempenho de classificadores de texto ou prover um vocabulário padrão, entre outros.
    Nesse contexto, este trabalho propõe um processo para a construção automática de tesauros de domínio específico com base em documentos disponíveis em repositórios locais de empresas SW. O objetivo é evitar termos ambíguos ou não correlacionados no domínio, encontrados em tesauros genéricos (como o WordNet). O sistema implementado foi usado para gerar um tesauro de domínio específico a partir de documentos de uma empresa de teste de software. O sistema recebe como entrada documentos da empresa, como Solicitações de Mudança de código e descrições de Casos de Teste, e extrai desses documentos os termos relevantes para esse domínio específico. Em seguida, os termos relacionados são agregados em conjuntos. A seguir, o sistema usa técnicas de Processamento de Linguagem Natural, como PoS-tagging, RegEx e n-grams, para enriquecer o tesauro com termos compostos (e.g., "finger print"), acrônimos (e.g., "FP") e abreviações (e.g., "cam" para "câmera"). Finalmente, os conjuntos de palavras / termos relacionados são indexados e disponibilizados para consulta manual ou automática. O tesauro criado foi usado na expansão automática de consultas para melhorar o desempenho de dois sistemas de recuperação de documentos, apresentando resultados bastante satisfatórios. Os resultados obtidos foram relatados em um artigo científico publicado pelo SBES 2021. Este trabalho foi realizado no contexto de um projeto de cooperação em pesquisa entre a Motorola Mobility (uma empresa Lenovo) e o Centro de Informática (CIn-UFPE).


  • Mostrar Abstract
  • Grandes empresas de software geralmente mantêm repositórios com milhares de documentos textuais (e.g., documentos de requisitos, casos de teste, solicitações de mudança de código). Contudo, devido à falta de um vocabulário padrão, muitas vezes esses documentos utilizam palavras distintas para se referir à mesma entidade no domínio da aplicação. Isso dificulta o processamento automático dos textos, principalmente em sistemas de indexação e recuperação de informação através de palavras-chaves. Devido a essas variações de terminologia, os termos usados nas consultas nem sempre estão presentes nos documentos relevantes (por exemplo, "foto" x "imagem"). Assim, a consulta não irá recuperar todos os documentos relevantes existentes, a fim de garantir a finalização adequada da atividade em curso.
    Uma solução frequentemente adotada para melhorar o desempenho de sistemas de processamento de texto é a utilização de um dicionário de sinônimos (um tesauro). Esses dicionários associam termos sinônimos ou relacionados em conjuntos de termos equivalentes. Tesauros são frequentemente usados para melhorar o desempenho de sistemas de recuperação de documentos, geralmente através da expansão automática das consultas construídas pelo usuário. Essa operação adiciona termos correlacionados à consulta original, ampliando as chances do sistema recuperar documentos relevantes. Vale ressaltar que tesauros têm outros usos importantes no processamento de texto, como por exemplo melhorar o desempenho de classificadores de texto ou prover um vocabulário padrão, entre outros.
    Nesse contexto, este trabalho propõe um processo para a construção automática de tesauros de domínio específico com base em documentos disponíveis em repositórios locais de empresas SW. O objetivo é evitar termos ambíguos ou não correlacionados no domínio, encontrados em tesauros genéricos (como o WordNet). O sistema implementado foi usado para gerar um tesauro de domínio específico a partir de documentos de uma empresa de teste de software. O sistema recebe como entrada documentos da empresa, como Solicitações de Mudança de código e descrições de Casos de Teste, e extrai desses documentos os termos relevantes para esse domínio específico. Em seguida, os termos relacionados são agregados em conjuntos. A seguir, o sistema usa técnicas de Processamento de Linguagem Natural, como PoS-tagging, RegEx e n-grams, para enriquecer o tesauro com termos compostos (e.g., "finger print"), acrônimos (e.g., "FP") e abreviações (e.g., "cam" para "câmera"). Finalmente, os conjuntos de palavras / termos relacionados são indexados e disponibilizados para consulta manual ou automática. O tesauro criado foi usado na expansão automática de consultas para melhorar o desempenho de dois sistemas de recuperação de documentos, apresentando resultados bastante satisfatórios. Os resultados obtidos foram relatados em um artigo científico publicado pelo SBES 2021. Este trabalho foi realizado no contexto de um projeto de cooperação em pesquisa entre a Motorola Mobility (uma empresa Lenovo) e o Centro de Informática (CIn-UFPE).

17
  • DELMIRO DALADIER SAMPAIO NETO
  • New Histogram-Based User and Item Profiles for Recommendation Systems.

  • Orientador : RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • MEMBROS DA BANCA :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • RENATA MARIA CARDOSO RODRIGUES DE SOUZA
  • YURI DE ALMEIDA MALHEIROS BARBOSA
  • Data: 07/12/2021

  • Mostrar Resumo
  • Os sistemas de recomendação desempenham um papel importante em negócios como e-commerce, entretenimento digital e educação online. A maioria dos sistemas de recomendação são implementados usando dados numéricos ou categóricos, ou seja, dados tradicionais. Este tipo de dados pode ser um fator limitante quando usado para modelar conceitos complexos onde há variabilidade interna ou estrutura interna nos dados. Para superar essas limitações, são utilizados dados simbólicos, onde os valores podem ser intervalos, distribuições de probabilidade ou listas de valores. Dados simbólicos podem beneficiar sistemas de recomendação e este trabalho apresenta uma metodologia para construir sistemas de recomendação usando descrições simbólicas para usuários e itens.

    A metodologia proposta pode ser aplicada na implementação de sistemas de recomendação baseados em conteúdo ou baseados em filtragem colaborativa. Na abordagem baseada em conteúdo, perfis de usuário e perfis de itens são criados a partir de descrições simbólicas de seus recursos e uma lista de itens é comparada a um perfil de usuário. Na abordagem baseada na filtragem colaborativa, são construídos perfis de usuários e os usuários são agrupados em um bairro, os produtos avaliados pelos usuários desse bairro são recomendados com base na semelhança entre o vizinho e o usuário que receberá a recomendação. Experimentos são realizados para avaliar a eficácia da metodologia proposta neste trabalho em relação às metodologias existentes na literatura para as duas abordagens do sistema de recomendações. Um conjunto de dados de domínio de filme é usado nestes experimentos e seus resultados mostram a utilidade da metodologia proposta.


  • Mostrar Abstract
  • Os sistemas de recomendação desempenham um papel importante em negócios como e-commerce, entretenimento digital e educação online. A maioria dos sistemas de recomendação são implementados usando dados numéricos ou categóricos, ou seja, dados tradicionais. Este tipo de dados pode ser um fator limitante quando usado para modelar conceitos complexos onde há variabilidade interna ou estrutura interna nos dados. Para superar essas limitações, são utilizados dados simbólicos, onde os valores podem ser intervalos, distribuições de probabilidade ou listas de valores. Dados simbólicos podem beneficiar sistemas de recomendação e este trabalho apresenta uma metodologia para construir sistemas de recomendação usando descrições simbólicas para usuários e itens.

    A metodologia proposta pode ser aplicada na implementação de sistemas de recomendação baseados em conteúdo ou baseados em filtragem colaborativa. Na abordagem baseada em conteúdo, perfis de usuário e perfis de itens são criados a partir de descrições simbólicas de seus recursos e uma lista de itens é comparada a um perfil de usuário. Na abordagem baseada na filtragem colaborativa, são construídos perfis de usuários e os usuários são agrupados em um bairro, os produtos avaliados pelos usuários desse bairro são recomendados com base na semelhança entre o vizinho e o usuário que receberá a recomendação. Experimentos são realizados para avaliar a eficácia da metodologia proposta neste trabalho em relação às metodologias existentes na literatura para as duas abordagens do sistema de recomendações. Um conjunto de dados de domínio de filme é usado nestes experimentos e seus resultados mostram a utilidade da metodologia proposta.

18
  • JULIANA BARCELLOS MATTOS
  • A SUPERVISED DESCRIPTIVE LOCAL PATTERN MINING APPROACH TO THE DISCOVERY OF SUBGROUPS WITH EXCEPTIONAL SURVIVAL BEHAVIOUR.

  • Orientador : PAULO SALGADO GOMES DE MATTOS NETO
  • MEMBROS DA BANCA :
  • GISELE LOBO PAPPA
  • RENATO VIMIEIRO
  • TERESA BERNARDA LUDERMIR
  • Data: 10/12/2021

  • Mostrar Resumo
  • Há vários trabalhos na literatura dedicados a descobrir fatores associados a comportamentos de sobrevivência. No entanto, as ferramentas computacionais utilizadas para tal são modelos globais projetados para estimar se e quando um dado evento de sobrevivência ocorrerá. Em se tratando do problema de explicar diferentes respostas de sobrevivência (não usuais), tais abordagens recorrem a suposições a respeito de variáveis preditivas e a análises estratificadas. Em outras palavras, as abordagens existentes não possuem a capacidade de descobrir excepcionalidades locais nos dados nem prover novos conhecimentos a respeito de fatores associados à sobrevivência. Este trabalho tem por objetivo apresentar uma nova ferramenta computacional para identificação e caracterização (de forma simples e objetiva) das diferentes respostas de sobrevivência existentes em uma população de indivíduos.
    Neste trabalho, o problema enunciado é abordado através da perspectiva da mineração supervisionada de padrões descritivos (em inglês, superviseddescriptivepattern mining) com o intuito de descobrir padrões locais associados a diferentes comportamentos de sobrevivência. Para tal, é empregada a técnica de mineração de modelos excepcionais (do inglês, Exceptional Model Mining) com o objetivo de descrever – de forma simples e concisa – subgrupos que apresentem modelos de sobrevivência (Kaplan-Meier) não usuais. Em contraste às heurísticas ‘gulosas’ prevalentes na literatura de mineração de modelos excepcionais, a abordagem introduzida neste trabalho explora o uso da meta-heurística de otimizaçãoAnt-ColonyOptimisation na busca por subgrupos. O problema de redundância de padrões também é considerado, objetivando a descoberta de um conjunto de subgrupos que sejam diversos com relação às suas descrições, coberturas e modelos.
    O desempenho da abordagem apresentada é avaliada em quatorze conjuntos de dados reais. Os resultados mostram que o algoritmo proposto é capaz de descobrir padrões representativos que apresentam modelos precisos e caracterizações de simples compreensão. Adicionalmente, os subgrupos descobertos potencialmente capturam comportamentos de sobrevivência existentes nos dados. A redundância de padrões é abordada de forma bem-sucedida, tal que os resultados retornados apresentam conjuntos de subgrupos que são diversos (únicos) e excepcionais. Quando comparado a outras abordagens existentes na literatura que fornecem caracterizações de comportamentos incomuns de sobrevivência, O algoritmo apresentado se sobressai aos demais tanto em relação ao aspecto descritivo de seus resultados e quanto à diversidade de suas descobertas.


  • Mostrar Abstract
  • Há vários trabalhos na literatura dedicados a descobrir fatores associados a comportamentos de sobrevivência. No entanto, as ferramentas computacionais utilizadas para tal são modelos globais projetados para estimar se e quando um dado evento de sobrevivência ocorrerá. Em se tratando do problema de explicar diferentes respostas de sobrevivência (não usuais), tais abordagens recorrem a suposições a respeito de variáveis preditivas e a análises estratificadas. Em outras palavras, as abordagens existentes não possuem a capacidade de descobrir excepcionalidades locais nos dados nem prover novos conhecimentos a respeito de fatores associados à sobrevivência. Este trabalho tem por objetivo apresentar uma nova ferramenta computacional para identificação e caracterização (de forma simples e objetiva) das diferentes respostas de sobrevivência existentes em uma população de indivíduos.
    Neste trabalho, o problema enunciado é abordado através da perspectiva da mineração supervisionada de padrões descritivos (em inglês, superviseddescriptivepattern mining) com o intuito de descobrir padrões locais associados a diferentes comportamentos de sobrevivência. Para tal, é empregada a técnica de mineração de modelos excepcionais (do inglês, Exceptional Model Mining) com o objetivo de descrever – de forma simples e concisa – subgrupos que apresentem modelos de sobrevivência (Kaplan-Meier) não usuais. Em contraste às heurísticas ‘gulosas’ prevalentes na literatura de mineração de modelos excepcionais, a abordagem introduzida neste trabalho explora o uso da meta-heurística de otimizaçãoAnt-ColonyOptimisation na busca por subgrupos. O problema de redundância de padrões também é considerado, objetivando a descoberta de um conjunto de subgrupos que sejam diversos com relação às suas descrições, coberturas e modelos.
    O desempenho da abordagem apresentada é avaliada em quatorze conjuntos de dados reais. Os resultados mostram que o algoritmo proposto é capaz de descobrir padrões representativos que apresentam modelos precisos e caracterizações de simples compreensão. Adicionalmente, os subgrupos descobertos potencialmente capturam comportamentos de sobrevivência existentes nos dados. A redundância de padrões é abordada de forma bem-sucedida, tal que os resultados retornados apresentam conjuntos de subgrupos que são diversos (únicos) e excepcionais. Quando comparado a outras abordagens existentes na literatura que fornecem caracterizações de comportamentos incomuns de sobrevivência, O algoritmo apresentado se sobressai aos demais tanto em relação ao aspecto descritivo de seus resultados e quanto à diversidade de suas descobertas.

19
  • RODRIGO EMERSON VALENTIM DA SILVA
  • Contagem automática de ovos do mosquito Aedes aegypti utilizando métodos de aprendizagem profunda e dispositivo de baixo custo.

  • Orientador : LEANDRO MACIEL ALMEIDA
  • MEMBROS DA BANCA :
  • CLEBER ZANCHETTIN
  • LEANDRO MACIEL ALMEIDA
  • ROSÂNGELA MARIA RODRIGUES BARBOSA
  • Data: 17/12/2021

  • Mostrar Resumo
  • O mosquito Aedes aegypti causa grandes transtornos ao sistema público de  saúde, por ser o principal vetor de transmissão de arboviroses como:  Dengue, Febre Amarela, Zika e Chikungunya que infectam mais de 400 milhões  de pessoas a cada ano. Uma forma eficiente de evitar o crescimento no  número de casos das arboviroses citadas é com programas de vigilância  vetorial que ajuda no monitoramento de propagação de doenças causadas pelo  Aedes aegypti. Entre os indicadores que a vigilância vetorial utiliza, os  dispositivos utilizados para coleta de ovos do Aedes aegypti (Ovitrampas),  é um dos métodos mais eficientes na capacidade de detecção da presença de  mosquitos mesmo em situação de baixa infestação. As ovitrampas consistem em 
    recipientes escuros com entradas largas preenchidas parcialmente com água e  uma palheta áspera de madeira instalada verticalmente em seu interior. Elas  são colocadas em pontos estratégicos e depois de um tempo, a palheta é  retirada do recipiente e levada para laboratório para ser possível fazer a  contagem de ovos. Esta contagem é extremamente importante, pois as  ovitrampas de regiões que apresentam o maior número de ovos recebem atenção  especial de órgãos públicos em campanhas de combate ao mosquito.  Entretanto, a contagem desses ovos em palhetas é feita manualmente, sendo  uma atividade exaustiva e repetitiva para os técnicos que precisam realizar  esta tarefa. Dado o contexto, neste trabalho foi construído um dispositivo  que auxilia a contagem de ovos do Aedes aegypti com menos intervenção  humana. Este dispositivo capta imagens da palheta, essas imagens são dadas  como entrada para algoritmos de reconhecimento automatizado possibilitando  o reconhecimento de ovos e consequentemente a sua contagem. Para alcançar  os objetivos da automatização desta tarefa de contagem de ovos, foi  utilizado o conceito de aprendizagem profunda com Redes Neurais  Convolucionais (CNNs) que configuram o estado da arte em problemas de visão  computacional. Para a utilização de CNNs, foi realizado um estudo de quais  modelos poderiam ser adaptados ao problema de contagem de ovos. Após  escolhidos os modelos foi aplicado o processo de Transferência de  Aprendizado destes modelos, visto que, os melhores modelos na literatura  são treinados em grandes bases de dados e o que eles aprendem nessas bases  pode ser reaproveitado em outras tarefas, de modo que se consegue  treiná-los em outros conjuntos de dados, tornando o processo de  treinamento  mais rápido e mais efetivo em outros dados.  Para treinar  esses modelos foi construída uma base de dados própria com imagens de ovos  do Aedes aegypti, visto que, uma das dificuldades encontradas em trabalhos  da literatura que abordam a contagem automática de ovos é falta de dados  para treinar algoritmos para realizar esta tarefa. Os modelos de CNNs  utilizados nesta dissertação apresentaram uma acurácia média no  reconhecimento de ovos de 92\%. Por fim, o estudo realizado servirá como  base para construir uma ferramenta completa que auxilie todo o processo de  contagem e tomada de decisão dos técnicos.


  • Mostrar Abstract
  • O mosquito Aedes aegypti causa grandes transtornos ao sistema público de  saúde, por ser o principal vetor de transmissão de arboviroses como:  Dengue, Febre Amarela, Zika e Chikungunya que infectam mais de 400 milhões  de pessoas a cada ano. Uma forma eficiente de evitar o crescimento no  número de casos das arboviroses citadas é com programas de vigilância  vetorial que ajuda no monitoramento de propagação de doenças causadas pelo  Aedes aegypti. Entre os indicadores que a vigilância vetorial utiliza, os  dispositivos utilizados para coleta de ovos do Aedes aegypti (Ovitrampas),  é um dos métodos mais eficientes na capacidade de detecção da presença de  mosquitos mesmo em situação de baixa infestação. As ovitrampas consistem em 
    recipientes escuros com entradas largas preenchidas parcialmente com água e  uma palheta áspera de madeira instalada verticalmente em seu interior. Elas  são colocadas em pontos estratégicos e depois de um tempo, a palheta é  retirada do recipiente e levada para laboratório para ser possível fazer a  contagem de ovos. Esta contagem é extremamente importante, pois as  ovitrampas de regiões que apresentam o maior número de ovos recebem atenção  especial de órgãos públicos em campanhas de combate ao mosquito.  Entretanto, a contagem desses ovos em palhetas é feita manualmente, sendo  uma atividade exaustiva e repetitiva para os técnicos que precisam realizar  esta tarefa. Dado o contexto, neste trabalho foi construído um dispositivo  que auxilia a contagem de ovos do Aedes aegypti com menos intervenção  humana. Este dispositivo capta imagens da palheta, essas imagens são dadas  como entrada para algoritmos de reconhecimento automatizado possibilitando  o reconhecimento de ovos e consequentemente a sua contagem. Para alcançar  os objetivos da automatização desta tarefa de contagem de ovos, foi  utilizado o conceito de aprendizagem profunda com Redes Neurais  Convolucionais (CNNs) que configuram o estado da arte em problemas de visão  computacional. Para a utilização de CNNs, foi realizado um estudo de quais  modelos poderiam ser adaptados ao problema de contagem de ovos. Após  escolhidos os modelos foi aplicado o processo de Transferência de  Aprendizado destes modelos, visto que, os melhores modelos na literatura  são treinados em grandes bases de dados e o que eles aprendem nessas bases  pode ser reaproveitado em outras tarefas, de modo que se consegue  treiná-los em outros conjuntos de dados, tornando o processo de  treinamento  mais rápido e mais efetivo em outros dados.  Para treinar  esses modelos foi construída uma base de dados própria com imagens de ovos  do Aedes aegypti, visto que, uma das dificuldades encontradas em trabalhos  da literatura que abordam a contagem automática de ovos é falta de dados  para treinar algoritmos para realizar esta tarefa. Os modelos de CNNs  utilizados nesta dissertação apresentaram uma acurácia média no  reconhecimento de ovos de 92\%. Por fim, o estudo realizado servirá como  base para construir uma ferramenta completa que auxilie todo o processo de  contagem e tomada de decisão dos técnicos.

20
  • MARIANA DA SILVA BARROS
  • Development of a Deep-Learning based System for Disease Symptoms Detection over Crop Leaves Images.

  • Orientador : STEFAN MICHAEL BLAWID
  • MEMBROS DA BANCA :
  • ADRIANO LORENA INACIO DE OLIVEIRA
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • STEFAN MICHAEL BLAWID
  • Data: 22/12/2021

  • Mostrar Resumo
  • Agricultura familiar representa um segmento crítico da agricultura brasileira, envolvendo mais de 5 milhões de propriedades e gerando 74% dos empregos rurais no país. As perdas de rendimento causadas por pragas e  doenças na colheita podem ser devastadoras para os pequenos produtores. No entanto, o controle de doenças bem-sucedido requer uma classificação correta, o que desafia os pequenos proprietários, que muitas vezes carecem de assistência técnica. O presente trabalho propõe um sistema que alerta pequenos produtores e especialistas em fitopatologia sobre possíveis surtos de doenças em plantas, permitindo um diagnóstico e intervenção mais rápidos. Nesse sentido, nós detectamos sintomas de doenças em imagens de folhas de plantas tiradas diretamente por agricultores no campo usando um aplicativo de celular desenvolvido com esse propósito. O módulo implementado é parte de uma plataforma de serviços que conecta produtores e especialistas, projetado em parceria com profissionais de fitopatologia da Universidade Federal Rural de Pernambuco (UFRPE). O trabalho usa aprendizagem profunda (“deep learning”) e redes neurais convolucionais (CNNs) para realizar a classificação das imagens. Os experimentos de classificação foram aplicados sobre um conjunto de dados composto por imagens de folhas de videira cultivadas no estado de Pernambuco, cuja coleta também foi parte do presente trabalho. Portanto, algumas imagens coletadas sob as condições do campo apresentam baixa qualidade, o que diminui o desempenho da classificação. Assim, nós também classificamos as imagens com relação à sua qualidade, para excluir imagens desafiadoras da detecção de doenças e reduzir o número de fotos classificadas erroneamente entrando na base de dados. A técnica de “multi-label” é aplicada neste cenário, permitindo a um único modelo classificar se as imagens mostram sintomas e se elas apresentam qualidade suficiente para que isso seja feito de maneira confiável. O mecanismo “multi-label” também é uma abordagem promissora para incluir futuramente propriedades adicionais da imagem, como agentes causadores de doenças. O sistema de classificação desenvolvido alcança um valor de “recall” de 95% para detecção de sintomas e um valor de precisão de 92% para classificação de qualidade das imagens.


  • Mostrar Abstract
  • Agricultura familiar representa um segmento crítico da agricultura brasileira, envolvendo mais de 5 milhões de propriedades e gerando 74% dos empregos rurais no país. As perdas de rendimento causadas por pragas e  doenças na colheita podem ser devastadoras para os pequenos produtores. No entanto, o controle de doenças bem-sucedido requer uma classificação correta, o que desafia os pequenos proprietários, que muitas vezes carecem de assistência técnica. O presente trabalho propõe um sistema que alerta pequenos produtores e especialistas em fitopatologia sobre possíveis surtos de doenças em plantas, permitindo um diagnóstico e intervenção mais rápidos. Nesse sentido, nós detectamos sintomas de doenças em imagens de folhas de plantas tiradas diretamente por agricultores no campo usando um aplicativo de celular desenvolvido com esse propósito. O módulo implementado é parte de uma plataforma de serviços que conecta produtores e especialistas, projetado em parceria com profissionais de fitopatologia da Universidade Federal Rural de Pernambuco (UFRPE). O trabalho usa aprendizagem profunda (“deep learning”) e redes neurais convolucionais (CNNs) para realizar a classificação das imagens. Os experimentos de classificação foram aplicados sobre um conjunto de dados composto por imagens de folhas de videira cultivadas no estado de Pernambuco, cuja coleta também foi parte do presente trabalho. Portanto, algumas imagens coletadas sob as condições do campo apresentam baixa qualidade, o que diminui o desempenho da classificação. Assim, nós também classificamos as imagens com relação à sua qualidade, para excluir imagens desafiadoras da detecção de doenças e reduzir o número de fotos classificadas erroneamente entrando na base de dados. A técnica de “multi-label” é aplicada neste cenário, permitindo a um único modelo classificar se as imagens mostram sintomas e se elas apresentam qualidade suficiente para que isso seja feito de maneira confiável. O mecanismo “multi-label” também é uma abordagem promissora para incluir futuramente propriedades adicionais da imagem, como agentes causadores de doenças. O sistema de classificação desenvolvido alcança um valor de “recall” de 95% para detecção de sintomas e um valor de precisão de 92% para classificação de qualidade das imagens.

Teses
1
  • ANNA PRISCILLA DE ALBUQUERQUE
  • Toy User Interfaces: Design Tools for Child-Computer Interaction

  • Orientador : JUDITH KELNER
  • MEMBROS DA BANCA :
  • JAELSON FREIRE BRELAZ DE CASTRO
  • MARCELO FANTINATO
  • BILL KAPRALOS
  • ANTHONY JOSÉ DA CUNHA CARNEIRO LINS
  • MIGUEL VARGAS MARTIN
  • Data: 01/06/2021

  • Mostrar Resumo
  • Interfaces de Usuário para Brinquedo - do Inglês, Toy User Interfaces (ToyUI) é uma integração de um ou mais brinquedos com outros componentes de hardware ou software. ToyUI faz parte das novas tecnologias que permeiam o domínio da Interação CriançaComputador (ICC), uma ToyUI pode integrar brinquedos e robôs sociais, smartphones, tablets, consoles de jogos e outros dispositivos. Esta tese propõe e compila uma coleção de ferramentas de design para dar suporte a equipes interdisciplinares no desenvolvimento de ToyUI. As ferramentas de design visam auxiliar a comunidade de ICC no desenvolvimento de novas ToyUI, cientes das questões éticas envolvidas ao projetar artefatos integrados para crianças. O método de pesquisa aplicado é a Ciência do Design, visando avaliar o contexto do problema e propor uma intervenção que melhore este contexto. As ferramentas de design seguem uma perspectiva de design centrado no usuário englobando as etapas da inspiração, ideação e implementação, compreendendo pesquisa de usuário, geração de ideias, planejamento de coleta de dados e ferramentas de prototipagem de baixa e alta fidelidade. Esta tese também propõe versões digitais das ferramentas para apoiar o trabalho remoto em equipe como no contexto da pandemia global do COVID-19. A avaliação qualitativa em um ambiente de aprendizagem baseado em projetos ocorreu em uma série de estudos de casos, sendo sete instituições distribuídas no Brasil, Canadá e Alemanha. No total, 255 indivíduos experimentaram diferentes versões das ferramentas, implementando 67 ideias entre protótipos de baixa e alta fidelidade e protótipos digitais. Os resultados destacam as lições aprendidas com a avaliação e como estudos de casos promoveram melhorias nas ferramentas propostas. Também foram comparados os desafios do treinamento presencial com os desafios do treinamento remoto durante o contexto do distanciamento social. As ferramentas propostas demonstram ser uma abordagem adequada para o treinamento de habilidades de Design de Experiência do Usuário e Tecnologia da Informação em equipes interdisciplinares. Como trabalhos futuros, as ferramentas podem incorporar acessibilidade, oferecendo codificação tangível ou em blocos permitindo o uso por crianças, adolescentes e pessoas com deficiência visual, bem como facilitar o uso por educadores e não especialistas no desenvolvimento de soluções ToyUI para Ciência, Tecnologia, Engenharia e Matemática.

  • Mostrar Abstract
  • Toys are play products primarily designed for leisure and social play activities. With the miniaturization and lower costs of processing circuits, toys have become capable of collecting and processing data in real-time (i.e., personal data and non-personal data). The entertainment industry refers to these play products as “smart toys.” Here we propose the idea of Toy-User-Interfaces (ToyUI) as a computing device or peripheral that leverage interactivity and connectivity with other gadgets to promote physical and social play. ToyUI is a new design trend that faces many practical challenges for both researchers and entrepreneurs. Practical challenges include how to understand hardware and software integration (to create efficient solutions), and how to assure privacy and security of data collection (to make these solutions safer). This Ph.D. thesis proposes a design method that aggregates a collection of theoretical and practical tools. The goals here are to support designers, developers, and engineers in creating ToyUI solutions backed by efficient and safer data collection. Development tools intervene since idea generation to idea selection, data modeling, rapid prototyping, and digital manufacture. Admittedly, these tools may benefit from being integrated into oriented methodological approaches. The first step of the research method consisted of performing both a systematic mapping and an industrial mapping. It allowed identifying six design and technology trends for ToyUI, to propose nine data patterns for data collection, and to elicit requirements for the development of rapid prototyping tools. A new design method was outlined to include the proposed tools, and then, to demonstrate their effectiveness, the method was assessed by 27 post-graduate students with background on Computer Science, Engineering, Design, and other related areas. Despite, little presence of smart toys in sub-developed countries, the proposed tools assisted them to design five ToyUI prototypes that were positively evaluated by end-users. Next steps include interviewing the students to perform improvements in the method and assuring data privacy and security models for the rapid prototyping tool. Ultimately, the current research findings may guide the future of ToyUI projects for both researchers and professionals.

2
  • NELSON GALVAO DE SA LEITAO JUNIOR
  • A Theory of Communication in Distributed Software Development Teams

  • Orientador : HERMANO PERRELLI DE MOURA
  • MEMBROS DA BANCA :
  • SABRINA DOS SANTOS MARCZAK
  • ADRIANO BESSA ALBUQUERQUE
  • ALEXANDRE MARCOS LINS DE VASCONCELOS
  • CARLA TACIANA LIMA LOURENCO SILVA SCHUENEMANN
  • WYLLIAMS BARBOSA SANTOS
  • Data: 13/07/2021

  • Mostrar Resumo
  • A comunicação efetiva é um desafio significativo e persistente nas equipes 
    de Desenvolvimento Distribuído de Software. Pensando nisso, pesquisadores 
    têm dedicado tempo e esforço na construção de ferramentas e metodologias 
    que auxiliem na maior eficácia da comunicação nessas equipes. Ainda assim, 
    esse esforço não tem sido amparado por nenhuma teoria científica criada 
    para descrever o Fenômeno da Comunicação nesse contexto, apesar da 
    importância da comunicação nessas equipes. Teorias são importantes para os 
    pesquisadores, pois oferecem uma estrutura conceitual comum para apoiar 
    fatos e conhecimento, e pesquisadores da Ciência da Computação têm usado 
    teorias para apoiar suas intervenções, achados, hipóteses e procedimentos 
    metodológicos. Este estudo tem como objetivo descrever o fenômeno da 
    comunicação em equipes de Desenvolvimento Distribuído de Software por meio 
    da construção de uma teoria de comunicação. Ao atingir esse objetivo, este 
    estudo também visa estabelecer uma base teórica para estudos futuros na 
    academia e uma referência para a indústria e, assim, ajudar a mitigar o 
    caráter desafiador persistente da comunicação nas equipes de 
    Desenvolvimento Distribuído de Software. Este estudo está estruturado em um 
    delineamento metodológico de três etapas, a saber: Etapa 1 - a Consolidação 
    da Lacuna do Estudo, a partir de uma revisão exploratória e não extensa da 
    literatura; Etapa 2 - a Construção da Teoria, via Teoria Fundamentada por 
    completo, incluindo um extenso processo analítico; Etapa 3 - a Consolidação 
    da Teoria, com base em um Mapeamento Sistemático da Literatura, uma 
    atividade de posicionamento e um processo de avaliação. Os achados incluem 
    a teoria emergente que descreve o fenômeno da comunicação em equipes 
    distribuídas, denominada Teoria das Dimensões da Comunicação Distribuída. 
    Os achados também incluem os resultados do Mapeamento Sistemático e 
    considerações sobre o processo de posicionamento da teoria emergida na 
    literatura contemporânea. Além disso, os achados incluem os resultados da 
    avaliação da teoria, com base nos resultados de uma sessão de Grupo Focal e 
    considerações sobre três conjuntos de critérios de credibilidade. Nossa